• 제목/요약/키워드: 형태연산

검색결과 676건 처리시간 0.027초

타임스탬프를 갖는 이벤트 시퀀스의 인덱스 기반 검색 (Index-based Searching on Timestamped Event Sequences)

  • 박상현;원정임;윤지희;김상욱
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제31권5호
    • /
    • pp.468-478
    • /
    • 2004
  • 시퀀스 데이타베이스로부터 원하는 질의 패턴과 일치하는 모든 서브 시퀀스를 검색하는 것은 데이타 마이닝이나 바이오 인포매틱스 등 응용 분야에서 필수적인 연산이다. 예를 들어, 특정한 이벤트가 발생할 때마다 이벤트의 유형과 발생 시각을 기록하는 네트웍 이벤트 관리 시스템에서 네트웍 이벤트들의 연관 관계를 발견하기 위한 전형적인 질의 형태는 다음과 같다: 'CiscoDCDLinkUp이 발생한 후 MLMStatusUP과 TCPConnectionClose가 각각 20초 이내와 40초 이내에 순차적으로 발생하는 모든 경우를 검색하라.' 본 논문에서는 대규모 이벤트 시퀀스 데이타베이스를 대상으로 하여 위와 같은 질의를 효율적으로 처리할 수 있는 인덱싱 방법을 제안한다. 기존의 방법들이 비효율적인 순차적 검색이나 페이지화 하기 어려운 인덱스 구조에 의존하는데 반하여, 제안하는 방법은 저장 및 검색 효율이 입증된 다차원 공간 인덱스를 사용하여 질의를 만족하는 모든 서브 시퀀스를 착오 기각(false dismissal) 없이 신속하게 검색한다. 다차원 공간 인덱스의 입력은 이벤트 시퀀스 데이타베이스 상의 슬라이딩 윈도우 내에서 각 이벤트 유형이 최초로 발생한 시각을 기록한 n 차원 벡터가 된다. 여기서 n은 발생 가능한 이벤트 유형의 수이다. n이 큰 경우는 차원 저주(dimensionality curse) 문제가 발생할 수 있으므로 차원 선택이나 이벤트유형 그루핑을 이용하여 차원을 축소한다. 실험 결과에 의하면 제안된 방법은 순차적 검색이나 ISO-Depth 인덱스 기법에 비하여 몇 배에서 몇 십 배의 성능 향상 효과를 갖는 것으로 나타났다. 것으로 나타났다.예측치가 비교적 유사한 것으로 나타났으며, 평균 절도오차도 10% 수준이었다.HNP 처리구에서 가장 많았던 것으로 나타났다. 지상부 식생에 대한 총 양분함량은(N+P+K+Ca+Mg) 리기다소 나무가 703kg/ha 그리고 낙엽송이 869kg/ha였다.여 주었다.능성을 시도하였고, 그 결과는 다음과 같다. 1. Cholesterol을 제거한 cheese의 제조에서 최적조건은 균질압력 1200psi(70kg$cm^2$), 균질온도 $70^{\circ}$, $\beta$-cyclodextrin 첨가량 2%였으며, 이때 우유의 cholesterol의 제거율이 86.05%로 가장 높게 나타났다. 2. Cholesterol을 제거한 cheese들의 수율은 모두 12.53%(control 10.54%) 이상으로 균질 처리가 cheese의 수율을 18.88%이상 향상시키는 것으로 나타났다. 3. 유지방 함량 23.80%인 control 치즈의 cholesterol 함량은 81.47mg/100g이었고, 균질압력 1200psi(91kg/$cm^2$)에 $\beta$-cyclodextrin 2%를 첨가한 cheese에서는 cholesterol 함량이 20.15mg/100g으로 cholesterol 제거율이 75.27%로 가장 높게 나타났다. 4. Meltability는 균질압력 1200psi(91kg/$cm^2$)에 $\beta$-cyclodextrin 1과 2%로 처리한 치즈에서 2.25cm(control 3.34cm)로 가장 낮았으며,

공간통계분석기법을 이용한 소셜 네트워크 유력지역 탐색기법 연구 (A Study on Detection Methodology for Influential Areas in Social Network using Spatial Statistical Analysis Methods)

  • 이영민;박우진;유기윤
    • 대한공간정보학회지
    • /
    • 제22권4호
    • /
    • pp.21-30
    • /
    • 2014
  • 최근 소셜 미디어의 활성화로 인해 소셜 네트워크상에서 수많은 자발적 추종자들을 확보한 새로운 형태의 유력자가 대두되고 있다. 소셜 네트워크상에서의 유력자를 탐색하는 연구들이 진행되어 왔고, 관련 서비스가 제공 중에 있으나 이들은 유력자 규명에 있어 위치기반 소셜 네트워크 서비스(LBSNS)가 가지고 있는 위치 정보에 대한 반영이 부족하다는 한계점을 가지고 있었다. 이에 본 연구에서는 공간통계분석기법을 이용하여 LBSNS 데이터를 대상으로 다양한 사회문화적 이슈에 대한 발언에 영향력을 가지는 유력자를 공간적으로 탐색하고, 이를 활용하는 방안을 제시하고자 하였다. 이를 위해 트위터의 지오태깅된 메시지를 분석 데이터로 사용하였으며, 서울시를 공간적 범위로 하여 한 달 동안 총 168,040건의 메시지를 수집하였다. 또한 '정치', '경제', 'IT'를 연구 대상 범주로 설정하고, 데이터 수집 기간 동안 이슈가 되었던 키워드들을 주어진 범주별로 분류하였다. 이를 바탕으로 키워드에 대한 유력자를 파악하기 위한 노출도를 도출하고, 이에 대해 서울시의 행정동을 기준으로 공간결합연산을 실시함으로써 각 키워드에 대한 행정동별 노출도를 산출하였다. 그리고 행정동별로 산출된 노출도의 공간적 의존성을 고려하여 유력지수를 도출하였으며, 키워드별로 상위의 유력지수를 보이는 지역을 유력지역으로 추출하여 이들의 공간적인 분포 특성과 키워드들 간의 공간적 상관성을 분석하였다. 실험 결과, 동일 범주 내에서 키워드 간의 공간적 상관계수는 0.3 이상으로 높은 상관성을 보였으며, 정치범주와 경제범주의 키워드 간 상관계수 역시 평균 0.3으로 비교적 높은 상관성을 보인 반면, 정치범주와 IT범주, 경제범주와 IT범주 키워드 간의 상관계수는 각각 0.18, 0.15로 낮은 상관성을 보였다. 본 연구는 유력자에 대한 연구를 공간 정보의 관점에서 구체화시켰다는 점에서 의의를 가지며, 향후에 gCRM(geographic Customer Relationship Management) 등의 분야에 유용하게 활용될 수 있을 것이다.

영상 보안통신을 위한 적응적인 데이터 은닉 기술 (Adaptive Data Hiding Techniques for Secure Communication of Images)

  • 서영호;김수민;김동욱
    • 한국통신학회논문지
    • /
    • 제29권5C호
    • /
    • pp.664-672
    • /
    • 2004
  • 본 논문에서는 대용량의 대역폭을 이용한 무선 데이터통신 장치들이 널리 보급됨에 따라 사용자들은 영상과 비디오 같은 풍부한 대중매체를 다양한 환경에서 더욱 많이 사용하게 되었다. 최근 컨텐츠들은 유료화 형태로 서비스되고 있고 컨텐츠 자체가 개인의 정보를 담고 있어 통신의 보안성을 유지할 필요성이 있다. 그러나 많은 계산 양과 연산능력을 요구하는 기존의 보호 방식은 사용자원에 제약을 받는 이동통신 환경의 무선통신이나 내장형 기기들에는 적합하지 않다. 본 논문에서는 영상 데이터를 부분적으로 암호화하여 자원이 제한된 무선 통신에서 양방향으로 영상 데이터의 안전하고 효율적인 통신을 가능하게 하는 기술을 제안하고자 한다. 암호화 기법은 양자화를 통해 암호화 정보의 소실이 없으면서 영상의 압축비를 유지하기 위래서 양자화와 엔트로피 코딩 사이에서 수행되고 부대역의 선택, 데이터의 비트 선택, 그리고 데이터 비트 무작위 선택 둥의 3가지 데이터 선택 방법을 제안하여 사용한다. 제안된 방법으로 안전한 통신을 위해서 다수의 영상에 적용하였고 추가적으로 제안된 방법이 무선 환경에서 사용되었을 경우에 대한 효율성 여부와 암호화하는 데이터 양과 계산양의 상보적인 관계를 나타내었다. 영상에 대한 실험은 500가지 다양한 영상을 대상으로 수행하였는데 제안된 방법을 통한 암호화 율은 원 영상의 0.0244%에서 0.39%에 해당하고 암호화 된 영상의 PSNR(peak signal to noise ratios)은 7.5㏈에서 9.5㏈ 범위를 보였다. 또한, 시각적인 테스트를 통해서 적은 계산 양으로 높은 암호화 효율을 얻을 수 있음을 확인하였다.이하로 거의 아침을 먹지 않았다고 응답한 사람이 수학능력 평가점수가 가장 좋지 않았다. 한편 아침식사는 비만정도(BMI)에 영향을 주지 않는 것으로 나타났다. 6. 균형 잡힌 식사를 규칙적으로 하고 채소류와 과일, 콩류와 유제품 등을 매일 먹는 소위 식습관이 좋은 사람이 수학능력평가점수가 좋은 것으로 나타났다. 위의 결과로 볼 때 건강에 가장 중요한 식사라고 인식하고 있으나 결식률이 높은 아침 식사를 청소년들이 맛있게 할 수 있는 방안을 마련해야 할 것이다. 그리고 아침식사의 결식이 학생의 학업성취도와 무관하지 않음이 밝혀졌으므로 청소년의 아침결식에 대한 세부적인 연구조사와 이를 개선할 수 있는 학교 아침급식 프로그램 도입 등이 필요하다고 사료된다. 또한 결식은 건강에 대한 자신감에 큰 영향을 주는 것으로 나타났으므로 규칙적인 식사와 1일 3식에 대한 중요성을 인식시킬 수 있는 영양교육을 실시하여야 할 것이다. 균형 잡힌 식사를 규칙적으로 하고 채소류와 과일, 콩류와 유제품 등을 매일 먹는 소위 식습관이 좋은 사람이 수학능력평가점수가 좋은 것으로 나타난 반면 비만정도(BMI)에는 영향을 주지 않는 것으로 나타났으므로 청소년 각자의 식습관 및 식품 섭취에 대한 관심을 고취시킬 필요가 있다고 생각된다.d with an MR peak in the vicinity of the coercive field. The low-field tunnel-type MR characteristics of thin films deposited on different substrates originates from the behavior of grain

언리얼 엔진 5를 활용한 융복합센서의 3D 공간정보기반 메타버스 구축 연구 (A Study on Metaverse Construction Based on 3D Spatial Information of Convergence Sensors using Unreal Engine 5)

  • 오성종;김달주;이용창
    • 지적과 국토정보
    • /
    • 제52권2호
    • /
    • pp.171-187
    • /
    • 2022
  • 최근, 코로나 바이러스 감염증으로 인해 발생한 팬데믹의 영향으로 비대면 서비스에 대한 수요와 발전이 급속도로 진행되고 있는 가운데 중심에 있는 메타버스(Metaverse)에 대한 이목이 집중되고 있다. 가상과 현실을 초월하는 세계를 의미하는 메타버스는 4차 산업혁명 시대에 접어들어 다양한 센싱기술과 3D 재현기술이 융합되어 사용자에게 쉽고 빠르게 다양한 정보를 제공하고 서비스가 가능하다. 특히, 이 가운데 고해상도의 영상촬영이 가능한 무인항공기(UAV) 및 정밀도 높은 LiDAR 센서와 같은 융복합센서의 소형화 및 경제성 증가로 인해 높은 재현도 및 정확도를 가진 3D 공간정보를 획득하여 현실의 쌍둥이를 만들어 시뮬레이션하는 디지털 트윈(Digital-Twin)에 대한 연구가 활발히 진행되고 있다. 또한, 컴퓨터 그래픽 분야의 게임엔진(Game engine)이 강력한 3D 그래픽 재현 및 역학적 연산을 바탕으로 한 시뮬레이션 등이 확장되어 메타버스 엔진으로 발전하고 있다. 본 연구는 무인항공시스템(UAS)과 LiDAR 센서를 융합하여 획득한 정확도 높은 3D 공간정보 데이터를 최근 발표된 메타버스 엔진인 언리얼 엔진을 활용하여 실세계 좌표기반 현실을 반영한 거울세계 형태의 메타버스를 구축하였다. 이후, 다양한 공공데이터를 기반으로 사용자를 위한 공간정보 컨텐츠 및 시뮬레이션을 구축하여 재현 정확도를 검증하고, 이를 통해 보다 실감나고 공간정보 활용성이 높은 메타버스 구축에 대하여 고찰하였다. 또한, 언리얼 엔진을 통해 사용자가 직관적이고 쉽게 접근할 수 있는 메타버스를 구축할 경우 재현도 높은 좌표기반의 3D 공간정보를 통해 다양한 컨텐츠 활용성과 효용성을 확인할 수 있었다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

의존 구문 분석을 이용한 질의 기반 정답 추출 (Query-based Answer Extraction using Korean Dependency Parsing)

  • 이도경;김민태;김우주
    • 지능정보연구
    • /
    • 제25권3호
    • /
    • pp.161-177
    • /
    • 2019
  • 질의응답 시스템은 크게 사용자의 질의를 분석하는 방법인 질의 분석과 문서 내에서 적합한 정답을 추출하는 방법인 정답 추출로 이루어지며, 두 방법에 대한 다양한 연구들이 진행되고 있다. 본 연구에서는 문장의 의존 구문 분석 결과를 이용하여 질의응답 시스템 내 정답 추출의 성능 향상을 위한 연구를 진행한다. 정답 추출의 성능을 높이기 위해서는 문장의 문법적인 정보를 정확하게 반영할 필요가 있다. 한국어의 경우 어순 구조가 자유롭고 문장의 구성 성분 생략이 빈번하기 때문에 의존 문법에 기반한 의존 구문 분석이 적합하다. 기존에 의존 구문 분석을 질의응답 시스템에 반영했던 연구들은 구문 관계 정보나 구문 형식의 유사도를 정의하는 메트릭을 사전에 정의해야 한다는 한계점이 있었다. 또 문장의 의존 구문 분석 결과를 트리 형태로 표현한 후 트리 편집 거리를 계산하여 문장의 유사도를 계산한 연구도 있었는데 이는 알고리즘의 연산량이 크다는 한계점이 존재한다. 본 연구에서는 구문 패턴에 대한 정보를 사전에 정의하지 않고 정답 후보 문장을 그래프로 나타낸 후 그래프 정보를 효과적으로 반영할 수 있는 Graph2Vec을 활용하여 입력 자질을 생성하였고, 이를 정답 추출모델의 입력에 추가하여 정답 추출 성능 개선을 시도하였다. 의존 그래프를 생성하는 단계에서 의존 관계의 방향성 고려 여부와 노드 간 최대 경로의 길이를 다양하게 설정하며 자질을 생성하였고, 각각의 경우에 따른 정답추출 성능을 비교하였다. 본 연구에서는 정답 후보 문장들의 신뢰성을 위하여 웹 검색 소스를 한국어 위키백과, 네이버 지식백과, 네이버 뉴스로 제한하여 해당 문서에서 기존의 정답 추출 모델보다 성능이 향상함을 입증하였다. 본 연구의 실험을 통하여 의존 구문 분석 결과로 생성한 자질이 정답 추출 시스템 성능 향상에 기여한다는 것을 확인하였고 해당 자질을 정답 추출 시스템뿐만 아니라 감성 분석이나 개체명 인식과 같은 다양한 자연어 처리 분야에 활용 될 수 있을 것으로 기대한다.