• Title/Summary/Keyword: multiple query

검색결과 253건 처리시간 0.023초

해마와 피질의 상호 관계를 이용한 객체 기반 영상 검색 기법 (An Object-Based Image Retrieval Techniques using the Interplay between Cortex and Hippocampus)

  • 홍종선;강대성
    • 대한전자공학회논문지SP
    • /
    • 제42권4호
    • /
    • pp.95-102
    • /
    • 2005
  • 본 논문에서는 해마와 피질 사이의 상호 작용을 이용하여 사용자 친화적인 객체 기반 영상 검색 시스템을 제안한다. 내용기반 영상 검색 시스템은 대부분 예제(example) 질의 혹은 스케치 질의 등을 이용하고 있고 이러한 방법들은 비교적 사용하기 불편하고 방법이 편중되어 있어서 일반 사용자들의 다양한 질의 요구에 적합하지 못하다. 제안하는 알고리즘은 CSB 트리맵 (Color and Spatial based Binary tree map)을 이용하여 객체를 추출하고 지역 라벨링 알고리즘을 이용하여 객체의 색상의 상관관계, 객체의 크기와 위치 정보를 비트 스트림 형태로 변환하고 이것을 해마와 피질 사이의 상호 작용의 관계를 이용한 해마 신경망을 사용하여 학습시킨다. 사람의 뇌 속에서 어떤 패턴을 인식을 하는 경우 해당 패턴의 특이한 특징에 대해 흥분하는 세포들이 특정 신호를 발생시킨다. 이것은 흥분학습에 의해 단기기억에서 장기기억으로 저장하는 해마의 기능으로 기존의 신경망에서는 입력되는 패턴의 특성과는 상관없이 특징 개수가 모두 동일하게 비교된다. 제안하는 해마 신경망은 호감도 조정에 의해서 입력되는 영상 패턴의 특징들을 흥분학습과 억제학습을 이용하여 불필요한 특징은 억제시키고 중요한 특징은 장기 기억 시켜서 적응성 있는 고속 검색 시스템을 구현한다.

주기적 편중 분할에 의한 다차원 데이터 디클러스터링 (Declustering of High-dimensional Data by Cyclic Sliced Partitioning)

  • 김학철;김태완;이기준
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제31권6호
    • /
    • pp.596-608
    • /
    • 2004
  • 디스크 입출력 성능에 의해서 많은 영향을 받는 대용량의 데이타를 저장하고 처리하는 시스템에서 데이타를 다수의 병렬 디스크에 분산 시켜 저장한 후 질의 처리 시 디스크 접근 시간을 감소시키기 위한 노력들이 많이 행해졌다. 대부분의 이전 연구들은 데이타 공간이 정형의 그리드 형태로 분할되어 있다는 가정 하에 각 그리드 셀에 대해서 효과적으로 디스크 번호를 할당하는 알고리즘 연구에 치중하였다. 하지만, 그리드 형태의 분할은 저차원 데이타에 대해서는 효과적이지만 고차원 데이타에 대해서는 우수한 디스크 할당 알고리즘을 적용하더라도 디클러스터링에 의한 성능 향상을 이룰 수가 없다. 그 이유는 그리드 분할 방법은 데이타 분포 비율에 관계없이 전체 데이타 공간을 동일한 비율로 분할하기 때문이다. 고차원 데이타는 대부분 데이타 공간의 표면에 존재한다. 본 논문에서는 이와 같은 현상을 고려하여 데이타 표면으로부터 주기적으로 편중 분할하는 알고리즘을 이용한 새로운 디클러스터링 알고리즘을 제시한다. 다양한 실험 결과에 의하면 표면으로부터 주기적으로 편중 분할하는 방법은 차원이 증가할 수록, 또한 질의 크기가 증가할 수록 그리드 형태의 분할에 비해서 질의를 만족하는 데이타 블록의 수를 현저히 감소시킬 수 있다. 본 논문에서는 분할 결과 데이타 블록들의 배치(layout)를 이용한 디스크 번호 할당 알고리즘들을 제시하였다. 우리는 제시한 알고리즘의 성능을 보이기 위해서 다양한 차원과 디스크 수에 대해서 여러 가지 실험을 하였다. 본 연구에서 제시한 디스크 할당 알고리즘은 절대 최적의 디스크 할당 방법에 비해서 추가적인 디스크 접근 횟수가 10번을 넘지 않는다. 디클러스터링 알고리즘의 응답 시간에 대해서 그리드 분할에 대해서 가장 좋은 성능을 보이는 것으로 알려져 있는 Kronecker sequence을 이용한 디스크 할당 알고리즘과 비교하였으며 차원이 높아짐에 따라 최대 14배까지 성능이 향상된다.

데이터웨어하우스에서 유전자 알고리즘을 이용한 구체화된 뷰 선택 기법 (A Genetic Algorithm for Materialized View Selection in Data Warehouses)

  • 이민수
    • 정보처리학회논문지D
    • /
    • 제11D권2호
    • /
    • pp.325-338
    • /
    • 2004
  • 데이터 웨어하우스는 복잡한 질의 및 분석을 위해서 다양한 종류의 여러 정보 출처들로부터 정보를 모아서 저장한다. 일반적으로 웨어하우스에는 자주 실행되는 질의들을 미리 계산해서 구체화된 뷰의 형태로 저장한다. 웨어하우스를 설계할 때 가장 중요한 일들 중의 하나는 웨어하우스에서 유지될 구체화된 뷰의 선택이다. 이것은 뷰들의 유지를 위해 제한된 시간이 주어졌을 때, 모든 질의들에 대한 총 질의 응답 시간을 최소화하는 방법으로 일련의 뷰들을 선택하는 것이다(유지-비용 뷰 선택 문제). 본 논문에서는 최적에 가까운 일련의 뷰들을 계산하기 위해 유전자 알고리즘을 사용하여 유지-비용 뷰 선택 문제에 대한 효율적인 해결책을 제안한다. 특히 OR 뷰 그래프들의 관점에서의 유지-비용 뷰 선택 문제를 다룬다. 본 논문의 접근방식은 휴리스틱 방법을 사용한 기존의 탐색-기반 접근 방식들에 비해서, 시간 복잡도에서 큰 향상을 보여준다. 본 논문의 알고리즘은 최적의 질의 비용에 비해 10%이내의 추가비용만을 갖는 해결책을 제시하면서도 실행시간 측면에서는 매우 향상된 선형 증가만을 보인다. 본 논문의 알고리즘에 대한 프로토타입을 구현하였으며 이것을 사용하여 논문에서 제안하는 접근방식의 분석을 수행하였다.

이미지 검색 실패에 나타난 이미지 요구와 맥락에 관한 분석 (An Investigation on Image Needs and Contexts in Image Search Failure)

  • 정은경
    • 한국비블리아학회지
    • /
    • 제26권1호
    • /
    • pp.199-215
    • /
    • 2015
  • 이용자의 이미지요구 규명은 이미지 정보 서비스와 시스템 효율성 증진을 위해 필수적인 요소이다. 최근에는 이미지요구 분석에 있어서 다양한 맥락 요소를 접목하여 다층적인 관점에서 이미지요구를 규명하고자 하는 시도들이 있다. 본 연구는 이러한 최근 연구의 흐름과 맥을 같이 하며, 이용자의 이미지요구를 규명하기 위해서 총 70건의 이미지 검색 실패 사례를 분석하였다. 그 결과 이미지 검색 실패 사례에 나타난 이미지요구는 구체적, 일반적/지칭 가능한 요구가 주를 이루는 것으로 나타났으며, 이러한 결과는 선행 연구와 유사한 것으로써 검색 실패한 이미지요구의 특성으로 볼 수 있다. 또한 이미지요구에 배태된 맥락요소에 관한 분석결과를 살펴보면, 업무/과제의 목표와 이용목적에 관련된 맥락요소가 주를 이루는 것으로 나타났다. 이용목적의 맥락을 보다 상세하게 살펴보면, 일러스트레이션 이용목적이 높은 비중으로 나타났다. 이미지 검색 질의 특성은 고유어와 정련어의 쌍으로 분석할 때 고유어/정련어, 비고유어/정련어, 고유어/비정련어, 고유어/정련어 쌍 순서로 비중을 차지하는 것으로 나타났다. 검색 실패 이미지요구의 특성으로써 구체적이거나 일반적/지칭 가능한 요구이며 이는 비고유어/비정련어 쌍을 특징적으로 살펴볼 수 있다. 맥락의 관점에서는 목표 중심이며 일러스트레이션 이용목적이 주된 맥락 요소임을 알 수 있다. 이러한 결과는 이미지 검색 시스템이나 서비스 개선을 위한 시사점이 될 수 있다.

인터넷 검색어를 활용한 계절적 유행성 독감 발생 감지 (Monitoring Seasonal Influenza Epidemics in Korea through Query Search)

  • 권치명;황성원;정재운
    • 한국시뮬레이션학회논문지
    • /
    • 제23권4호
    • /
    • pp.31-39
    • /
    • 2014
  • 계절적 유행성 독감은 매년 전 세계적으로 300만-500만 명이 감염되어 25만-50만 명이 사망에 이르는 무서운 질병이다. 유행성 독감에 대한 통제를 강화하기 위해 독감의 유행을 실시간으로 감시하기 위한 연구들이 제안되고 있다. 우리나라의 질병관리본부는(CDC)는 인플루엔자에 대한 임상 자료를 1주 단위로 발표하고 있으며 질병의 유행과 1-2주 정도의 보고 시차가 존재한다. 조기에 독감의 유행을 감지하기 위해 비임상적 자료(뉴스 리포트, 소셜 미디어)의 검색 정보를 활용하여 유행성 독감 발생을 효과적으로 대비하기 위한 연구들이 최근 이루어지고 있다. 비임상적 자료의 수집은 적은 비용으로 거의 실시간으로 이루어질 수 있는 이점이 있다. 본 연구는 네이버 검색엔진이 제공하는 PC와 모바일 키워드 정보를 활용하여 우리나라의 유행성 독감 활동을 감지하는 회귀모형을 개발하고자 한다. 이를 위해 문헌연구를 통하여 인플루엔자 의사분율(ILI)과 높은 상관성을 가질 것으로 예상되는 키워드를 20개 선정하고 키워드와 ILI와의 관계를 로지스틱 회귀모형과 다중회귀모형으로 가정하고 ILI를 예측하였다. 모형적합성 측면에서 다중회귀모형이 로지스틱모형보다 우수하였으며 모바일-기반 회귀모형이 PC-기반 회귀모형보다 ILI 퍼센티지를 추정하는데 우월한 결과를 보이고 있다.

4비트 패턴에 따른 슬롯 할당 기법을 이용한 RFID 태그 충돌 방지 알고리즘 (A RFID Tag Anti-Collision Algorithm Using 4-Bit Pattern Slot Allocation Method)

  • 김영백;김성수;정경호;안광선
    • 인터넷정보학회논문지
    • /
    • 제14권4호
    • /
    • pp.25-33
    • /
    • 2013
  • RFID 시스템에서는 다중 태그가 동일한 주파수로 동시에 리더의 요청에 응답하기 때문에 발생하는 태그 충돌을 중재하는 절차가 필수적이다. 이 절차를 충돌 방지 알고리즘이라 하며 RFID 시스템에서 가장 핵심적인 기술이다. 본 논문에서는 다중 태그의 고속 식별을 위한 4-BPSA(4-Bit Pattern Slot Allocation) 알고리즘을 제안한다. 제안한 알고리즘은 슬롯을 사용하는 트리 기반의 알고리즘으로서 4비트 패턴에 따른 슬롯 할당 기법을 이용하여 정확한 예측을 통해 빠르고 효율적으로 태그를 식별한다. 알고리즘에 대한 수학적 성능 분석을 통해 worst-case에서 4-BPSA의 시간 복잡도가 O(n)이며 기존의 알고리즘에 비해 성능이 개선되었음을 보인다. 또한 MATLAB을 이용한 시뮬레이션 실험을 통한 알고리즘의 성능 평가 결과에 의거해 4-BPSA 알고리즘이 태그당 평균 0.7회의 질의를 수행하며 태그의 개수와 상관없이 안정적인 성능을 보이는 것을 검증하였다.

ECoMOT : 비디오 데이터내의 이동체의 제적을 이용한 효율적인 내용 기반 멀티미디어 정보검색 시스템 (ECoMOT : An Efficient Content-based Multimedia Information Retrieval System Using Moving Objects' Trajectories in Video Data)

  • 심춘보;장재우;신용원;박병래
    • 정보처리학회논문지B
    • /
    • 제12B권1호
    • /
    • pp.47-56
    • /
    • 2005
  • 이동체는 시간의 흐름에 따라 공간적인 위치, 모양, 크기등과 같은 다양한 속성들이 변화하며, 이러한 이동체는 시간과 공간적인 특성을 모두 가지고 있는 비디오 데이터의 중요한 특징정보에 해당한다. 본 논문에서는 멀티미디어 데이터 중에서도 특히 비디오 데이터내의 이동체의 궤적 정보를 이용하여 보다 효율적인 비디오 데이터 자체의 내용을 기반으로 하는 멀티미디어 정보검색 시스템인 ECoMOT(Efficient Content-based Multimedia Information Retrieval System using Moving Objects' Trajectories)을 제안한다. ECoMOT 시스템은 비디오 데이터내의 이동체의 궤적을 토대로 내용 기반 검색을 지원하기 위해 다음과 같은 기법을 포함한다. : (1) 다수의 이동체들의 궤적 정보를 모델링하기 위한 다중 궤적(multiple trajectory) 모델링 기법; (2) 다수의 이동체들로 구성된 주어진 두 궤적들 간의 유사도를 측정하여 유사성이 높은 순으로 검색할 수 있는 다중 궤적 기반 유사 궤적 검색 기법; (3) 대용량 궤적 데이터에서 원하는 궤적을 빠르게 검색할 수 있는 중첩 시그니쳐-기반 궤적 색인 기법(superimposed signature-based trajectory indexing technique); (4) 그래픽 인터페이스를 이용한 편리한 이동체의 궤적 추출 과 질의 생성 및 검색 인터페이스.

제한적 문맥 인식과 다중 스트림을 기반으로 한 숫자 정정 OCR 모델의 설계 및 구현 (Design and Implementation of OCR Correction Model for Numeric Digits based on a Context Sensitive and Multiple Streams)

  • 신현경
    • 정보처리학회논문지D
    • /
    • 제18D권1호
    • /
    • pp.67-80
    • /
    • 2011
  • 재무 데이터 관리를 위한 자동화된 비지니스 서류 영상 처리 시스템에서 숫자 정보 검색 중 발생한 오류는 심각하여 그 시스템의 가용성 및 성능을 결정한다. 그 동안 자동 맞춤법 교정에 관한 방법론들이 개발되어 정보 검색 시스템 개발에 중요한 역할을 해왔으나 이러한 맞춤법 교정은 알파벳 등 기계학습이 가능하고 사전 형태로 보관이 가능한 기호에 한정되어왔다. 반면에 순수한 마코프 수열에 불과한 숫자들의 순열들은 맞춤법 교정을 위하여 사전적 형태로 보관하여 활용하는 것이 불가능 하다. 본 논문에서는 확률론적 정보 검색 알고리즘의 토대위에 제한적 문맥 인식과 복수의 스트림을 적용한 새로운 형태의 숫자 정정 OCR 모델을 제안하였다. 본 논문에서 제안된 숫자 정정 모델은 기존의 송장 문서 처리 시스템에 구현하였으며 제안된 숫자 정정 모델의 효과를 확인하기 위해 비교 테스트를 실행하였고 테스트 결과 상당한 성능이 개선되었음을 보여 주었다.

Spark SQL 기반 고도 분석 지원 프레임워크 설계 (Design of Spark SQL Based Framework for Advanced Analytics)

  • 정재화
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권10호
    • /
    • pp.477-482
    • /
    • 2016
  • 기업의 신속한 의사결정 및 전략적 정책 결정을 위해 빅데이터에 대한 고도 분석이 필수적으로 요구됨에 따라 대량의 데이터를 복수의 노드에 분산하여 처리하는 하둡 또는 스파크와 같은 분산 처리 플랫폼이 주목을 받고 있다. 최근 공개된 Spark SQL은 Spark 환경에서 SQL 기반의 분산 처리 기법을 지원하고 있으나, 기계학습이나 그래프 처리와 같은 반복적 처리가 요구되는 고도 분석 분야에서는 효율적 처리가 불가능한 문제가 있다. 따라서 본 논문은 이러한 문제점을 바탕으로 Spark 환경에서 고도 분석 지원을 위한 SQL 기반의 빅데이터 최적처리 엔진설계와 처리 프레임워크를 제안한다. 복수의 조건과 다수의 조인, 집계, 소팅 연산이 필요한 복합 SQL 질의를 분산/병행적으로 처리할 수 있는 최적화 엔진과 관계형 연산을 지원하는 기계학습 최적화하기 위한 프레임워크를 설계한다.

큐브리드 샤드 분산 데이터베이스에서 집계/분석 함수의 분산 처리 시스템 개발 (Distributed Processing System for Aggregate/Analytical Functions on CUBRID Shard Distributed Databases)

  • 원지섭;강석;조선화;김진호
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권8호
    • /
    • pp.537-542
    • /
    • 2015
  • 대용량의 테이블을 수평적으로 분할하여 서로 다른 데이터베이스에 저장함으로써 데이터를 분산 저장하고 처리할 수 있는 방법을 샤딩이라 한다. 샤딩된 데이터에 대한 집계 또는 분석 함수를 적용하여 전체 결과를 얻기 위해서는 여러 곳으로 분산된 데이터에 대한 지역 결과를 통합하는 과정이 필요하다. 본 논문에서는 오픈 소스 DBMS의 하나인 큐브리드(CUBRID)의 샤딩 기술을 이용하여 분산된 부분 집계함수를 통합 처리하는 모듈을 설계하고 구현하는 방법에 대해 소개한다. 이 통합 모듈을 통해 여러 곳으로 샤딩된 데이터에 대하여 집계 및 분석 함수를 이용한 분석이 가능하도록 하였고, 단일 데이터베이스를 사용한 분석 성능과의 비교를 통해 샤드 분산 데이터베이스를 사용한 집계 계산이 효율적임을 보인다.