• 제목/요약/키워드: Probabilistic Search

검색결과 98건 처리시간 0.024초

분산 환경에서 경로 질의 기반 서브 그래프 탐색 기법 (Subgraph Searching Scheme Based on Path Queries in Distributed Environments)

  • 김민영;최도진;박재열;김연동;임종태;복경수;최한석;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제19권1호
    • /
    • pp.141-151
    • /
    • 2019
  • 개체 간의 상호 작용을 나타내기 위해 그래프 데이터 형태의 네트워크가 많은 애플리케이션에서 사용되고 있다. 최근에는 빅데이터 기술의 발달로 처리해야할 네트워크의 크기가 점점 커짐에 따라 하나의 서버에서 이를 처리하기 어려워졌기 때문에 분산 처리의 필요성 또한 증가하고 있다. 본 논문에서는 이러한 그래프 데이터가 분산 저장되어있는 환경에서 서브 그래프 탐색을 효율적으로 수행하기 위한 분산 처리시스템을 제안한다. 불필요한 탐색을 줄이기 위해 데이터의 통계정보를 활용해 확률적인 스코어링을 통해 탐색 순서를 정한다. 그래프 네트워크의 정점과 차수의 관계는 데이터의 종류에 따라 다른 특성을 보일 수 있기 때문에 여러 분포적 특성을 갖는 그래프에 대해 다른 스코어링 방법을 통해 불필요한 탐색을 줄이기 위한 스코어를 계산하여 탐색 순서를 결정한다. 결정된 순서에 따라 그래프가 분산 저장된 서버에서 순차적으로 탐색한다. 성능평가에서는 제안하는 기법의 우수성을 입증하기 위해 기존 기법과의 비교를 수행하였으며, 그 결과 기존 기법보다 탐색 시간이 약 3~10% 향상됨을 보였다.

WWW상에서 음란물 검색기법 (Obscene Material Searching Method in WWW)

  • 노경택;김경우;이기영;김규호
    • 한국컴퓨터정보학회논문지
    • /
    • 제4권2호
    • /
    • pp.1-7
    • /
    • 1999
  • WWW은 기존의 인터넷이 단순 문자 자료 중심의 데이타 교환을 멀티미디어화 하기 위한 프로토콜이며, 자료들을 하이퍼텍스트 형태로 저장함으로써 초보자들도 쉽게 원하는 자료를 찾고, 접근할 수 있도록 되어있다. 이러한 WWW의 멀티미디어 데이타의 검색 및 접근의 용이성은 음란물 데이타가 보편화, 멀티미디어화 되는데 결정적인 역활을 하였으며, 음란물의 상업화를 가능케 하는 사회적 문제를 야기하였다. 한편, 이러한 문제를 해결하기 위해 음란물을 제공하는 사이트를 효율적으로 차단하기 연구가 활발하게 진행되고 있다. 본 논문에서는 이러한 음란물을 제공하는 사이트를 효율적으로 검색하여, 미성년자의 음란성 사이트접근을 차단하기 위한 기법을 제시하고 이를 구현하였다. 제안된 기법은 링크를 기반으로 정보 검색 기능을 수행하며, 가장 정확한 결과를 보여 주는 것으로 알려진 확률 모델과 비교한 결과 제안된 모델(Link-Based Model)이 확률 모델보다 평균 재현율과 정확율에서 12%와 8% 성능이 우수하였다. 특히 텍스트 이외의 데이타와 적은 링크를 가진 문서들을 검색하는데 크게 효율성이 향상되었다.

  • PDF

Chirp 신호를 이용한 해저퇴적층의 음향학적 특성 역산 (Inversion of Acoustical Properties of Sedimentary Layers from Chirp Sonar Signals)

  • 박철수;성우제
    • 한국음향학회지
    • /
    • 제18권8호
    • /
    • pp.32-41
    • /
    • 1999
  • 본 논문은 chirp신호와 두 개의 근거리 청음기를 이용한 해저퇴적층의 음향학적 특성치 역산기법을 제시한다. 역산문제를 확률론적 모델로 정식화하고, 역산의 해를 역산인자의 a priori분포와 유사도함수의 곱으로 표현되는a posteriori 확률분포로 정의하였다. 퇴적층의 음속과 층두께의 a priori정보를 파형 매칭 기법으로 추정한 후 다수의 퇴적층이 존재하는 환경모델을 부분퇴적층모델로 치환하고, 계측신호와 모의신호의 L₂노음을 이용하여 정의된 목적함수에 대해 반복적인 유전자알고리즘 탐색을 수행하여 탐색공간의 축소로 인한 탐색효율과 결과의 향상을 얻었다. A posteriori 확률분포의 다중적분의 형태로 정의되는 인자의 주변확률분포와 평균의 추정은 유전자알고리즘의 탐색과정에서 선택된 탐색점들을 이용하여 수행되었다. 제시된 역산기법의 검증을 위해 두 가지 퇴적층 환경모델을 설정하고 잡음을 첨가한 합성신호에 대해 역산기법을 적용하여 역산해를 추정하였고 역산결과로부터 본 역산기법의 유용성을 확인하였다.

  • PDF

에피소드 매개변수 최적화를 이용한 확률게임에서의 추적정책 성능 향상 (Improvements of pursuit performance using episodic parameter optimization in probabilistic games)

  • 곽동준;김현진
    • 한국항공우주학회지
    • /
    • 제40권3호
    • /
    • pp.215-221
    • /
    • 2012
  • 본 논문에서는 추적-회피 게임에서 추적자의 추적성능을 향상시키기 위한 최적화 기법을 소개한다. 제한된 공간상에서 추적자는 도망자를 빠른 시간 내에 찾아내고 잡기 위해 확률맵을 생성하고 그 확률정보를 토대로 탐색한다. 추적자는 기존 global-max와 local-max의 장점을 취한 hybrid 추적방식을 사용하는데 이 추적방식은 global-max와 local-max 성향을 조절하는 가중치를 갖는다. 따라서 상황별 최적의 가중치를 찾기 위해 에피소드 매개변수 최적화 알고리즘을 제안하였다. 이 알고리즘은 가중치에 대한 다수의 추적-회피 게임 에피소드를 반복적으로 수행하는 동안 강화학습을 통해 보상을 누적한 후 해당 가중치의 평균보상을 최대화 하는 방향으로 황금분할법을 사용하여 최적의 가중치를 찾는다. 이 최적화 기법을 이용하여 여러 상황별 최적 추적정책을 찾기 위해 도망자 수와 공간의 크기를 변화시켜가며 각각 최적화를 수행하였고 그 결과를 분석하였다.

키워드 질의를 이용한 순위화된 웹 서비스 검색 기법 (Ranked Web Service Retrieval by Keyword Search)

  • 이경하;이규철;김경옥
    • 한국전자거래학회지
    • /
    • 제13권2호
    • /
    • pp.213-223
    • /
    • 2008
  • 오늘날 XML 웹 서비스의 보급에 따라 많은 양의 서비스로부터 적합한 서비스들을 발견해 내는 문제는 중요한 문제로 부각되고 있다[7, 24]. 본 논문에서는 의미론적인 서비스 발견을 행하는 기존 연구와 다르게 구문적인 방법으로 서비스 발견 문제에 접근한다. 우리는 웹서비스 발견의 문제를 레지스트리에 저장된 웹 서비스 설명 정보들에 대한 정보 검색의 문제로 인식하고, 웹 서비스와 질의의 모델링과 유사도 측정을 통한 검색 기법을 고안하였다. 이 서비스 설명정보는 특정 구조를 가지는 XML 문서이며, 본 논문에서는 이를 대상으로 한 키워드 질의를 통해 서비스 발견을 수행한다. 본 논문의 특징은 다음과 같다. 사용자는 키워드 질의를 통해 순위화된 서비스 검색 결과를 제공받을 수 있다. 서비스 검색에 있어 기존 기법들과 달리 UDDI 레지스트리에 저장된 서비스 설명 정보와 WSDL 서비스 정의 모두를 활용한다. 또한 시스템은 기존 관계형 DBMS의 기능을 이용하여 구현됨으로써 의미적인 서비스 발견에 비해 구현이 용이하고, DBMS의 여러 장점을 취할 수 있다.

  • PDF

유사한 인기도 추세를 갖는 웹 객체들의 클러스터링 (Clustering of Web Objects with Similar Popularity Trends)

  • 노웅기
    • 정보처리학회논문지D
    • /
    • 제15D권4호
    • /
    • pp.485-494
    • /
    • 2008
  • 인터넷이 광범위하게 활용됨에 따라 검색 키워드, 멀티미디어 객체, 웹 페이지, 블로그 등의 다양한 웹 객체들이 크게 증가하고 있다. 이러한 웹 객체들의 인기도는 시간에 따라 변화하며, 그러한 웹 객체 인기도의 시간적 패턴에 대한 마이닝이 여러 가지 웹 응용에 필요한 중요한 연구 과제가 되고 있다. 예를 들어, 검색 키워드에 대한 인기도 패턴의 분석은 앞으로 인기가 높아질 키워드를 미리 예측할 수 있게 하여 광고주들에게 키워드를 판매하기 위한 가격을 결정하는 데에 중요한 자료가 될 수 있다. 하지만, 웹 객체 인기도가 시간에 따라 변화하고 웹 객체의 개수가 매우 방대하다는 특성으로 인하여 웹 객체 인기도에 대한 분석은 매우 어려운 문제이다. 본 논문에서는 웹 객체 인기도의 시간적 패턴을 마이닝하기 위한 효율적인 알고리즘을 제안한다. 본 논문은 웹 객체 인기도를 시계열로 표현하고, 두 웹 객체 인기도 간의 유사성을 측정하기 위하여 gap 척도를 제안한다. gap 척도의 효율적인 계산을 위하여 FFT를 활용한 알고리즘을 제안하고, 밀도기반 클러스터링 알고리즘을 이용하여 유사한 인기도 추세를 갖는 웹 객체들의 클러스터를 생성한다. 본 논문에서는 웹 객체 인기도가 특정 분포를 따르거나 주기적이라고 가정하지 않는다. Google Trends 웹 사이트로부터 구한 검색 키워드 인기도를 이용한 실험을 통하여, 제안된 알고리즘이 실세계 응용에서 유용함을 보인다.

해상작업 가능기간 산정을 위한 확률모형 개발 - 울산항 전면 해역을 중심으로 (Development of a Probabilistic Model for the Estimation of Yearly Workable Wave Condition Period for Offshore Operations - Centering on the Sea off the Ulsan Harbor)

  • 최세호;조용준
    • 한국해안·해양공학회논문집
    • /
    • 제31권3호
    • /
    • pp.115-128
    • /
    • 2019
  • 본 논문에서는 공정별 해상작업 가능 기간의 합리적 산출이 가능한 확률모형이 제시된다. 확률모형을 유도하기 위해, 먼저 JMA(Japan Meterological Agency)와 NOAA(National Oceanic and Atmospheric Administration)의 해상풍 자료와 SWAN에 기초하여 2003년 1월 1일부터 2017년 12월 31일까지 한 시간 간격으로 울산 전면 해역에서의 유의 파고와 첨두 주기를 역추산 하였다. 이어 모의된 유의파고 시계열 자료로부터 최소 자승법을 활용하여 장기 유의파고 확률분포를 도출하였으며, 해석결과 그 동안 선호되던 삼 변량 Weibull 분포보다는 수정 Glukhovskiy 분포 계열에서 일치도가 가장 우월하였다. 보다 정확한 확률모형의 개발 가능성을 검토하기 위해 Borgman 선회적분을 활용하여 역 추산 단위 간격인 한 시간 내에서 출현하는 개별 파랑이 고려된 파고분포도 함께 유도하였다. 수정 Glukhovskiy 분포의 모수는 $A_p=15.92$, $H_p=4.374m$, ${\kappa}_p=1.824$로 드러났으며 해상작업 한계 파고가 $H_S=1.5m$인 경우 작업가능일 수는 319일로 모의되었다. 이와 더불어 확률모형의 검증자료를 얻기 위해 파고가 해상 준설작업 한계 파고로 기 보고된 바 있는 $H_S=1.5m$(Lee, 1991)를 상회하여 지속되는 시간을 유의파고 시계열 자료를 파별분석(wave by wave analysis)하여 산출하였다. 산출결과 2003년부터 2017년까지의 평균 지속기간은 45.5일로 확률모형으로부터 산출된 기간에 상당히 근접하였다.

Survey on Nucleotide Encoding Techniques and SVM Kernel Design for Human Splice Site Prediction

  • Bari, A.T.M. Golam;Reaz, Mst. Rokeya;Choi, Ho-Jin;Jeong, Byeong-Soo
    • Interdisciplinary Bio Central
    • /
    • 제4권4호
    • /
    • pp.14.1-14.6
    • /
    • 2012
  • Splice site prediction in DNA sequence is a basic search problem for finding exon/intron and intron/exon boundaries. Removing introns and then joining the exons together forms the mRNA sequence. These sequences are the input of the translation process. It is a necessary step in the central dogma of molecular biology. The main task of splice site prediction is to find out the exact GT and AG ended sequences. Then it identifies the true and false GT and AG ended sequences among those candidate sequences. In this paper, we survey research works on splice site prediction based on support vector machine (SVM). The basic difference between these research works is nucleotide encoding technique and SVM kernel selection. Some methods encode the DNA sequence in a sparse way whereas others encode in a probabilistic manner. The encoded sequences serve as input of SVM. The task of SVM is to classify them using its learning model. The accuracy of classification largely depends on the proper kernel selection for sequence data as well as a selection of kernel parameter. We observe each encoding technique and classify them according to their similarity. Then we discuss about kernel and their parameter selection. Our survey paper provides a basic understanding of encoding approaches and proper kernel selection of SVM for splice site prediction.

효과적인 외래어 이형태 생성을 위한 확률 문맥 의존 치환 방법 (A Probabilistic Context Sensitive Rewriting Method for Effective Transliteration Variants Generation)

  • 이재성
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.73-83
    • /
    • 2007
  • 완전 일치 방법을 주로 사용하는 정보 검색 시스템에서 외래어 이형태를 검색할 수 있도록 위해서는 외래어 이형태를 자동 생성하는 전처리나 질의어 확장이 필요하다. 본 연구에서는 하나의 외래어가 입력되면, 이를 근거로 실제 사용될 만한 외래어 이형태들을 효과적으로 생성하기 위한 방법을 제안한다. 혼동 자소를 단순하게 치환하는 방법은 불필요한 이형태를 과도하게 생성하므로, 본 연구에서는 실제 문서에 사용된 외래어 이형태들로부터 혼동 패턴을 학습하고, 이를 확률로 계산하여 생성 순서를 조절하였다. 특히, 혼동 패턴에서 좌우문맥을 고려하고 지역 치환 확률과 전역 치환 확률을 계산하여 조기에 많이 사용하는 이형태를 생성하도록 하였다. KT SET 2.0에서 추출한 이형태 데이터에 대해 실험한 결과, 상위 20개의 생성으로도 평균 80% 이상 찾아내어 이 방법이 매우 효과적임을 보였다.

Sector Based Scanning and Adaptive Active Tracking of Multiple Objects

  • Cho, Shung-Han;Nam, Yun-Young;Hong, Sang-Jin;Cho, We-Duke
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제5권6호
    • /
    • pp.1166-1191
    • /
    • 2011
  • This paper presents an adaptive active tracking system with sector based scanning for a single PTZ camera. Dividing sectors on an image reduces the search space to shorten selection time so that the system can cover many targets. Upon the selection of a target, the system estimates the target trajectory to predict the zooming location with a finite amount of time for camera movement. Advanced estimation techniques using probabilistic reason suffer from the unknown object dynamics and the inaccurate estimation compromises the zooming level to prevent tracking failure. The proposed system uses the simple piecewise estimation with a few frames to cope with fast moving objects and/or slow camera movements. The target is tracked in multiple steps and the zooming time for each step is determined by maximizing the zooming level within the expected variation of object velocity and detection. The number of zooming steps is adaptively determined according to target speed. In addition, the iterative estimation of a zooming location with camera movement time compensates for the target prediction error due to the difference between speeds of a target and a camera. The effectiveness of the proposed method is validated by simulations and real time experiments.