• 제목/요약/키워드: retrieval engine

검색결과 148건 처리시간 0.027초

모바일 환경에서 파일 검색 엔진을 위한 효과적인 방식 (Effective Scheme for File Search Engine in Mobile Environments)

  • 조종근;하상은
    • 한국콘텐츠학회논문지
    • /
    • 제8권11호
    • /
    • pp.41-48
    • /
    • 2008
  • 본 논문에서는 파일 검색 엔진에 대해 모델링하고, 파일 검색의 정확도와 속도 향상을 위해 파일내의 내용들을 이용한 가중치 값 기반의 파일 검색 방식을 제안한다. 대부분의 파일 검색 엔진들은 빠른 검색 속도의 한계로 KMP와 같은 스트링 매칭 알고리즘을 사용해 왔다. 그러나, 이런 종류의 알고리즘들은 사용자가 원하는 파일들을 정확하게 찾아 주지는 못한다. 따라서, 모바일 환경에서 파일내의 내용들을 이용한 가중치 값 기반의 검색 엔진을 제안하고, 기존 방법들과 비교를 통해 제안한 방법의 우수한 성능을 증명한다.

웹 이용자의 검색엔진 활용 및 탐색 행위와 성향 분석 (Analysis of Search Engine Use, Search Behaviors and Aptitude by Web Users)

  • 이해영
    • 한국문헌정보학회지
    • /
    • 제36권3호
    • /
    • pp.69-91
    • /
    • 2002
  • 본 연구는 웹 이용자들이 검색엔진을 어떻게 선택하여. 어떠한 기능들을 활용하며, 검색결과는 어떻게 평가하는지 그리고 어떤 어려움을 겪고 있는지를 밝혀 보고자 하였다. 28명의 대학의 교수와 대학원생으로 구성된 이용자들을 대상으로 한 인터뷰결과를 분석한다. 연구 결과에 따르면, 본 연구의 참가자들은 검색결과에 대한 평가보다는 특정한 기능이나 익숙함에 근거하여 엔진을 선택하였다. 이들은 통합검색에 대해서는 의견이 양분되어 있었으며, 연산자의 사용이 결과에 미치는 영향이 거의 없다고 보고 있었다. 검색엔진에 대한 평가를 내릴 때에도 검색결과의 정확성외에 결과를 보여주는 인터페이스 디자인에도 상당한 관심을 가지고 있는 것으로 나타났다.

영상 분할을 이용한 영역기반 내용 검색 알고리즘 (Region-based Content Retrieval Algorithm Using Image Segmentation)

  • 이강현
    • 전자공학회논문지CI
    • /
    • 제44권5호
    • /
    • pp.1-11
    • /
    • 2007
  • 영상 정보의 이용이 증가함에 따라 영상을 효율적으로 관리할 수 있는 시스템의 필요성이 증가하고 있다. 이에 따라, 본 논문에서는 영상 분할 알고리즘, 색상 특성, 질감, 그리고 영상의 형태와 위치 정보의 효율적인 결합에 근거한 영역기반 내용 검색 알고리즘을 제안한다. 색상 특징으로는 색상의 공간적인 상관관계를 잘 나타내는 HSI 색상 히스토그램을 선택하였고, 영상의 분할과 질감특성은 각각 Active control와 CWT(Complex wavelet transform)를 사용하였다. 그리고 형태와 위치 특징들은 HSI의 휘도 성분에서 불변 모멘트를 이용하여 추출하였다. 효율적인 유사도 측정을 위해 추출된 특징(색상 히스토그램, Hu 불변 모멘트, CWT)을 결합하여 정확도와 재현율을 측정하였다. www. freefoto.com에서 제공하는 DB를 사용하여 실험한 결과, 제안된 검색엔진은 94.8%의 정확도와 82.7%의 재현율을 가지며 성공적으로 영상 검색 시스템에 응용할 수 있다.

문자열 부분검색을 위한 색인기법의 설계 및 성능평가 (Design and Performance Evaluation of an Indexing Method for Partial String Searches)

  • 강승헌;유재수
    • 한국정보처리학회논문지
    • /
    • 제6권6호
    • /
    • pp.1458-1467
    • /
    • 1999
  • 신장해슁이나 B+-트리와 같은 기존의 색인구조들은 문자열의 부분검색을 지원하지 못하거나 부분검색에 제약점을 가지고 있다. 최근 웹 환경에서 동작하는 정보검색 엔진들이 사용하는 역파일의 빠른 검색성능을 가지면서 문자열 부분검색을 효율적으로 지원하는 색인기법을 제안한다. 제안된 색인기법은 기본적으로 역파일 구조이며, 2음절 단위의 패턴으로 색인을 구성함으로써 문자열 부분검색을 지원한다. 제안된 색인기법의 특성을 분석하기 위해 제안된 방법의 성능을 다양한 환경에서 실험을 통하여 비교하고 분석한다. 또한 성능평가를 위해 기존의 역파일 기법, 요약 파일 기법들과 제안하는 색인기법의 분석적 모델을 검색시간과 저장공간 측면에서 세시하고, 그 모델을 기반으로 그들의 성능을 비교한다. 분석적 비교모델을 통한 성능비교 결과, 제안된 부분검색을 위한 색인기법은 저장공간의 오버헤드는 크지만 기존 요약 파일 기법에 비해 검색성능을 상당히 향상시킨다.

  • PDF

독립적인 질의 경로들을 사용하여 이질적인 문서들을 검색하는 XML 문서 검색 모델 (XML Document Retrieval Models for Heterogeneous Data Set using Independent Regular paths)

  • 유신재;민경섭;김형주
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권1_2호
    • /
    • pp.140-152
    • /
    • 2003
  • XML 문서는 태그를 가지고 있고 이 태그가 중첩됨에 따라 구조를 나타낼 수 있다. XML 문서가 DTD를 가지지 않거나 여러 곳에서 XML 문서를 모았을 때 그 구조는 비정규적 일 수 있다. 사용자는 이러한 비정규적인 구조에 대해 잘 알기 어려우며 설사 잘 알고 있다고 하더라도 실수하기 쉽다. 특히 비정규적인 구조를 가지는 문서들에 대해 정확한 구조질의를 작성하는 것은 더욱 어렵다. 따라서 사용자는 구조가 없거나 있다 하더라도 적은 양의 구조정보 만을 기술하는 일반적인 질의를 작성하게 된다. 이런 환경에서 구조 정보를 이용하여 문서의 순위결정에 이용하고 사용자 구조 질의와 문서 구조간의 차이에 대해 보상해 주는 검색 모델을 제안한다. 질의 처리를 단순화하기 위하여 질의 경로간의 독립을 가정하였다 이 가정은 질의 언어의 표현능력의 저하를 가져올 수 있는데 이를 해결하는 질의 모델도 제시한다. 지금까지 어떤 문서를 위한 테스트 컬랙션이 없었기 때문에 TIPSTER 컬랙션에서 일부 문서를 추출하여 작은 테스트 컬랙션을 만들고 여기에 구조가 없는 질의를 수행하여 제시한 검색 모델의 유용성을 보였다. 실험 결과 벡터 모델에 비하여 평균 67%의 정확률 개선효과를 얻을 수 있었다.

Hop 제약조건이 고려된 최적화 웹정보검색 (Optimized Structures with Hop Constraints for Web Information Retrieval)

  • 이우기;김기백;이화기
    • 한국경영과학회지
    • /
    • 제33권4호
    • /
    • pp.63-82
    • /
    • 2008
  • The explosively growing attractiveness of the Web is commencing significant demands for a structuring analysis on various web objects. The larger the substantial number of web objects are available, the more difficult for the clients(i.e. common web users and web robots) and the servers(i.e. Web search engine) to retrieve what they really want. We have in mind focusing on the structure of web objects by introducing optimization models for more convenient and effective information retrieval. For this purpose, we represent web objects and hyperlinks as a directed graph from which the optimal structures are derived in terms of rooted directed spanning trees and Top-k trees. Computational experiments are executed for synthetic data as well as for real web sites' domains so that the Lagrangian Relaxation approaches have exploited the Top-k trees and Hop constraint resolutions. In the experiments, our methods outperformed the conventional approaches so that the complex web graph can successfully be converted into optimal-structured ones within a reasonable amount of computation time.

Automatic Switching of Clustering Methods based on Fuzzy Inference in Bibliographic Big Data Retrieval System

  • Zolkepli, Maslina;Dong, Fangyan;Hirota, Kaoru
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제14권4호
    • /
    • pp.256-267
    • /
    • 2014
  • An automatic switch among ensembles of clustering algorithms is proposed as a part of the bibliographic big data retrieval system by utilizing a fuzzy inference engine as a decision support tool to select the fastest performing clustering algorithm between fuzzy C-means (FCM) clustering, Newman-Girvan clustering, and the combination of both. It aims to realize the best clustering performance with the reduction of computational complexity from O($n^3$) to O(n). The automatic switch is developed by using fuzzy logic controller written in Java and accepts 3 inputs from each clustering result, i.e., number of clusters, number of vertices, and time taken to complete the clustering process. The experimental results on PC (Intel Core i5-3210M at 2.50 GHz) demonstrates that the combination of both clustering algorithms is selected as the best performing algorithm in 20 out of 27 cases with the highest percentage of 83.99%, completed in 161 seconds. The self-adapted FCM is selected as the best performing algorithm in 4 cases and the Newman-Girvan is selected in 3 cases.The automatic switch is to be incorporated into the bibliographic big data retrieval system that focuses on visualization of fuzzy relationship using hybrid approach combining FCM and Newman-Girvan algorithm, and is planning to be released to the public through the Internet.

유사도 알고리즘을 활용한 시맨틱 프로세스 검색방안 (Semantic Process Retrieval with Similarity Algorithms)

  • 이홍주
    • Asia pacific journal of information systems
    • /
    • 제18권1호
    • /
    • pp.79-96
    • /
    • 2008
  • One of the roles of the Semantic Web services is to execute dynamic intra-organizational services including the integration and interoperation of business processes. Since different organizations design their processes differently, the retrieval of similar semantic business processes is necessary in order to support inter-organizational collaborations. Most approaches for finding services that have certain features and support certain business processes have relied on some type of logical reasoning and exact matching. This paper presents our approach of using imprecise matching for expanding results from an exact matching engine to query the OWL(Web Ontology Language) MIT Process Handbook. MIT Process Handbook is an electronic repository of best-practice business processes. The Handbook is intended to help people: (1) redesigning organizational processes, (2) inventing new processes, and (3) sharing ideas about organizational practices. In order to use the MIT Process Handbook for process retrieval experiments, we had to export it into an OWL-based format. We model the Process Handbook meta-model in OWL and export the processes in the Handbook as instances of the meta-model. Next, we need to find a sizable number of queries and their corresponding correct answers in the Process Handbook. Many previous studies devised artificial dataset composed of randomly generated numbers without real meaning and used subjective ratings for correct answers and similarity values between processes. To generate a semantic-preserving test data set, we create 20 variants for each target process that are syntactically different but semantically equivalent using mutation operators. These variants represent the correct answers of the target process. We devise diverse similarity algorithms based on values of process attributes and structures of business processes. We use simple similarity algorithms for text retrieval such as TF-IDF and Levenshtein edit distance to devise our approaches, and utilize tree edit distance measure because semantic processes are appeared to have a graph structure. Also, we design similarity algorithms considering similarity of process structure such as part process, goal, and exception. Since we can identify relationships between semantic process and its subcomponents, this information can be utilized for calculating similarities between processes. Dice's coefficient and Jaccard similarity measures are utilized to calculate portion of overlaps between processes in diverse ways. We perform retrieval experiments to compare the performance of the devised similarity algorithms. We measure the retrieval performance in terms of precision, recall and F measure? the harmonic mean of precision and recall. The tree edit distance shows the poorest performance in terms of all measures. TF-IDF and the method incorporating TF-IDF measure and Levenshtein edit distance show better performances than other devised methods. These two measures are focused on similarity between name and descriptions of process. In addition, we calculate rank correlation coefficient, Kendall's tau b, between the number of process mutations and ranking of similarity values among the mutation sets. In this experiment, similarity measures based on process structure, such as Dice's, Jaccard, and derivatives of these measures, show greater coefficient than measures based on values of process attributes. However, the Lev-TFIDF-JaccardAll measure considering process structure and attributes' values together shows reasonably better performances in these two experiments. For retrieving semantic process, we can think that it's better to consider diverse aspects of process similarity such as process structure and values of process attributes. We generate semantic process data and its dataset for retrieval experiment from MIT Process Handbook repository. We suggest imprecise query algorithms that expand retrieval results from exact matching engine such as SPARQL, and compare the retrieval performances of the similarity algorithms. For the limitations and future work, we need to perform experiments with other dataset from other domain. And, since there are many similarity values from diverse measures, we may find better ways to identify relevant processes by applying these values simultaneously.

개인화 정보 검색에 대한 연구 (A Study of Personalized Information Retrieval)

  • 김태환;전호철;최중민
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.683-687
    • /
    • 2008
  • 사람들은 월드 와이드 웹(World Wide Web)상에서 사용자가 원하는 정보를 검색하는 여러 알고리즘들을 구현해 왔다. 이렇게 구현된 검색 알고리즘 중 가장 좋은 기술을 가지고 있는 곳은 페이지랭크(PageRank)방식의 구글이다. 하지만 페이지랭크 방식, 즉 외부에서 강조하는 링크가 많은 문서로 검색하여 가장 많은 링크를 가기고 있는 문서를 상위에 보여주는 방식으론 사용자가 원하는 문서를 찾기 힘들다. 개인에게 가치가 있는 문서를 찾기보다 대중에게 가치가 있는 문서를 찾기 때문이다. 이러한 문제를 해결하기 위하여 본 논문에서는 대중적 가치와 개인적 가치를 혼합한 개인화 검색 엔진을 제안한다.

  • PDF

초등학생 정보검색 방법에 대한 연구 (The Study on Information Retrieval Methods for Elementary School Students)

  • 장세지;전석주
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2014년도 제49차 동계학술대회논문집 22권1호
    • /
    • pp.227-230
    • /
    • 2014
  • 현대인들은 인터넷의 등장과 함께 지식정보의 풍요 속에 살고 있다. 지식정보의 풍요는 언제, 어디서나 내가 원하는 정보를 탐색 및 검색, 분석, 생성할 수 있다는 것을 의미한다. 지식정보화 사회에 초등학교 현장에서 가장 흔히 활용되는 능력은 정보검색이다. 정보검색은 쉬워 보이지만, 넘쳐나는 정보의 홍수 속에서 올바르고 정확한 정보를 찾아내기란 초등학생들에게 어려운 일이 아닐 수 없다. 이에 본 연구에서는 웹기반에서의 초등학생들이 학습주제에 따라 효율적으로 활용할 수 있는 정보검색방법에 대해 논하고자 한다.

  • PDF