• 제목/요약/키워드: Informal on Retrieval

검색결과 8건 처리시간 0.021초

웹 정보의 자동 의미연계를 통한 학술정보서비스의 확대 방안 연구 (A Exploratory Study on the Expansion of Academic Information Services Based on Automatic Semantic Linking Between Academic Web Resources and Information Services)

  • 정도헌;유소영;김환민;김혜선;김용광;한희준
    • 정보관리연구
    • /
    • 제40권1호
    • /
    • pp.133-156
    • /
    • 2009
  • 이 연구에서는 KISTI NDSL의 학술논문 정보를 웹 학술자원과 연계하는 실험적 연구를 수행함으로써 KISTI의 정보 유통 서비스의 확대 가능성을 살펴보고자 하였다. 이를 위해 웹 학술자원을 수집하여 STEAK 시스템을 이용한 자동 의미 연계를 생성하고 이를 학술논문 검색결과와 결합하였다. 시스템의 검색 정확률을 평가한 결과 매크로 정확률은 62.6%, 마이크로 정확률은 66.9%를 보였으며, 자동연계 성능에 대한 전문가 평가는 76.7점을 보였다. 주제 범주별 전문가 평가는 본 연구를 통해 의미연계를 잘 수행하는 경우에 높게 측정되어 시스템적 성능과 동일한 경향을 보였다. 이 연구는 다양한 웹 학술자원의 서비스 연계를 위하여 논문정보로부터 생성한 언어자원을 의미색인에 사용한 것으로 이를 통해 지속적인 웹 자원의 학술적 활용에 대한 가능성을 제시하고자 하였다.

통계기만 의미중의성 해소를 이용한 정보검색 (Informal ion Retrieval using Word Sense Disambiguation based on Statintical Method)

  • 허정;김현진;장명길
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2002년도 봄 학술발표논문집 Vol.29 No.1 (B)
    • /
    • pp.508-510
    • /
    • 2002
  • 인터넷의 발전과 더불어 기하급수적으로 늘어난 디지털 정보를 대상으로 사용자의 요구를 만족시키는 정보검색을 하기 위해 자연어처리 기술이 많이 응용되고 있다. 본 논문에서는 정보검색에 자연어 처리 기술 중, 의미중의성 해소(WSD) 기술을 적용하였다. HANTEC 12만 문서를 대상으로 9개의 중의성 단어를 실험한 결과 67.8%의 정확률을 보였다. 본 실험을 통해 WSD의 오분석이 정보검색의 정확률에 상당히 민감한 결과를 초래함을 알 수 있었다. 그리고, WSD 기술이 정보검색에 적용된 떼 발생할 수 있는 여러 문제점들에 대하여 논의하였고, 이 문제점의 근원적인 해결방안은 WSD기술의 발전에 있다는 것을 알 수 있었다.

  • PDF

이러닝 구축을 위한 3D 지식 검색 (3D Knowledge Retrieval for e-Learning Construction)

  • 김귀정;한정수
    • 한국콘텐츠학회논문지
    • /
    • 제10권7호
    • /
    • pp.63-69
    • /
    • 2010
  • 본 연구는 산업현장에서 학습훈련이 이루어질 때 작업현장, 교육현장, 기타 시공간에서 작업자의 현재 상황이나 담당업무 맥락에 따라 개인의 숙련도나 학습진도에 맞추어 3D 몰입형 지식 가시화를 통해 비공식학습과 공식학습 모두 실시간으로 발생할 수 있는 서비스 구현을 목표로 한다. 이를 위해서 복합지식을 기반으로 실시간으로 코칭과 조언을 들을 수 있으며, 다차원적인 관계를 쉽게 식별하고 검색할 수 있는 실감형 3D 기반의 지식 검색 방법을 개발하였다.

한글 텍스트 문서 분류시스템을 위한 속성선택 (Feature Selection for a Hangul Text Document Classification System)

  • Lee, Jae-Sik;Cho, You-Jung
    • 한국지능정보시스템학회:학술대회논문집
    • /
    • 한국지능정보시스템학회 2003년도 춘계학술대회
    • /
    • pp.435-442
    • /
    • 2003
  • 정보 추출(Information Retrieval) 시스템은 거대한 양의 정보들 가운데 필요한 정보의 적절한 탐색을 도와주기 위한 도구이다. 이는 사용자가 요구하는 정보를 보다 정확하고 보다 효과적이면서 보다 효율적으로 전달해주어야만 한다. 그러기 위해서는 문서내의 무수히 많은 속성들 가운데 해당 문서의 특성을 잘 반영하는 속성만을 선별해서 적절히 활용하는 것이 절실히 요구된다. 이에 본 연구는 기존의 한글 문서 분류시스템(CB_TFIDF)[1]의 정확도와 신속성 두 가지 측면의 성능향상에 초점을 두고 있다. 기존의 영문 텍스트 문서 분류시스템에 적용되었던 다양한 속성선택 기법들 가운데 잘 알려진 세가지 즉, Information Gain, Odds Ratio, Document Frequency Thresholding을 통해 선별적인 사례베이스를 구성한 다음에 한글 텍스트 문서 분류시스템에 적용시켜서 성능을 비교 평가한 후, 한글 문서 분류시스템에 가장 적절한 속성선택 기법과 속성 선택에 대한 가이드라인을 제시하고자 한다.

  • PDF

학술 커뮤니케이션의 수량학적 분석에 관한 연구 (A Study on the Quantitative Analysis of Scientific Communication)

  • 김현희
    • 한국문헌정보학회지
    • /
    • 제14권
    • /
    • pp.93-130
    • /
    • 1987
  • Scientific communication is an information exchange activity between scientists. Scientific communication is carried out in a variety of informal and formal ways. Basically, informal communication takes place by word of mouth, whereas formal communication occurs via the written word. Science is a highly interdependent activity in which each scientist builds upon the work of colleagues past and present. Consequently, science depends heavily on scientific communication. In this study, three mathematical models, namly Brillouin measure, logistic equation, and Markov chain are examined. These models provide one with a means of describing and predicting the behavior of scientific communication process. These mathematical models can be applied to construct quality filtering algorithms for subject literature which identify synthesized elements (authors, papers, and journals). Each suggests a different type of application. Quality filtering for authors can be useful to funding agencies in terms of identifying individuals doing the best work in a given area or subarea. Quality filtering with respect to papers can be useful in constructing information retrieval and dissemination systems for the community of scientists interested m the field. The quality filtering of journals can be a basis for the establishment of small quality libraries based on local interests in a variety of situations, ranging from the collection of an individual scientist or physician to research centers to developing countries. The objective of this study is to establish the theoretical framework for informetrics which is defined as the quantitative analysis of scientific communication, by investigating mathematical models of scientific communication.

  • PDF

한-일 교차언어검색에서의 질의 문맥 정보를 이용한 대역어 변환 확률 모델 (Query Context Information-Based Translation Models for Korean-Japanese Cross-Language Informal ion Retrieval)

  • 이규찬;강인수;나승훈;이종혁
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2005년도 제17회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.97-104
    • /
    • 2005
  • 교차언어 검색 과정에서는 질의나 문서의 언어를 일치시키기 위한 변환 과정이 필수적이며, 이런 변환 과정에서 어휘의 중의성으로 인해 하나의 어휘에 대응하는 다수의 대역어가 생성됨으로써 사용자의 정보 욕구를 왜곡시켜 검색의 성능을 저하시킬 수 있다. 본 논문에서는 어휘 중의성 문제를 해결하기 위해서 질의의 문맥 정보를 이용하여 변환 질의의 확률을 구함으로써 중의성을 해소하는 방식을 제시하고, 질의의 길이, 중의도, 중의성을 가진 어휘의 비율 등에 따라서 성능이 어떻게 변하는지 비교함으로써 이 방법의 장점과 단점을 분석한다. 또한 현재의 단점을 보완하기 위한 차후 연구 방향을 제시한다.

  • PDF

Towards Improving Causality Mining using BERT with Multi-level Feature Networks

  • Ali, Wajid;Zuo, Wanli;Ali, Rahman;Rahman, Gohar;Zuo, Xianglin;Ullah, Inam
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권10호
    • /
    • pp.3230-3255
    • /
    • 2022
  • Causality mining in NLP is a significant area of interest, which benefits in many daily life applications, including decision making, business risk management, question answering, future event prediction, scenario generation, and information retrieval. Mining those causalities was a challenging and open problem for the prior non-statistical and statistical techniques using web sources that required hand-crafted linguistics patterns for feature engineering, which were subject to domain knowledge and required much human effort. Those studies overlooked implicit, ambiguous, and heterogeneous causality and focused on explicit causality mining. In contrast to statistical and non-statistical approaches, we present Bidirectional Encoder Representations from Transformers (BERT) integrated with Multi-level Feature Networks (MFN) for causality recognition, called BERT+MFN for causality recognition in noisy and informal web datasets without human-designed features. In our model, MFN consists of a three-column knowledge-oriented network (TC-KN), bi-LSTM, and Relation Network (RN) that mine causality information at the segment level. BERT captures semantic features at the word level. We perform experiments on Alternative Lexicalization (AltLexes) datasets. The experimental outcomes show that our model outperforms baseline causality and text mining techniques.

지식베이스 구축을 위한 한국어 위키피디아의 학습 기반 지식추출 방법론 및 플랫폼 연구 (Knowledge Extraction Methodology and Framework from Wikipedia Articles for Construction of Knowledge-Base)

  • 김재헌;이명진
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.43-61
    • /
    • 2019
  • 최근 4차 산업혁명과 함께 인공지능 기술에 대한 연구가 활발히 진행되고 있으며, 이전의 그 어느 때보다도 기술의 발전이 빠르게 진행되고 있는 추세이다. 이러한 인공지능 환경에서 양질의 지식베이스는 인공지능 기술의 향상 및 사용자 경험을 높이기 위한 기반 기술로써 중요한 역할을 하고 있다. 특히 최근에는 인공지능 스피커를 통한 질의응답과 같은 서비스의 기반 지식으로 활용되고 있다. 하지만 지식베이스를 구축하는 것은 사람의 많은 노력을 요하며, 이로 인해 지식을 구축하는데 많은 시간과 비용이 소모된다. 이러한 문제를 해결하기 위해 본 연구에서는 기계학습을 이용하여 지식베이스의 구조에 따라 학습을 수행하고, 이를 통해 자연어 문서로부터 지식을 추출하여 지식화하는 방법에 대해 제안하고자 한다. 이러한 방법의 적절성을 보이기 위해 DBpedia 온톨로지의 구조를 기반으로 학습을 수행하여 지식을 구축할 것이다. 즉, DBpedia의 온톨로지 구조에 따라 위키피디아 문서에 기술되어 있는 인포박스를 이용하여 학습을 수행하고 이를 바탕으로 자연어 텍스트로부터 지식을 추출하여 온톨로지화하기 위한 방법론을 제안하고자 한다. 학습을 바탕으로 지식을 추출하기 위한 과정은 문서 분류, 적합 문장 분류, 그리고 지식 추출 및 지식베이스 변환의 과정으로 이루어진다. 이와 같은 방법론에 따라 실제 지식 추출을 위한 플랫폼을 구축하였으며, 실험을 통해 본 연구에서 제안하고자 하는 방법론이 지식을 확장하는데 있어 유용하게 활용될 수 있음을 증명하였다. 이러한 방법을 통해 구축된 지식은 향후 지식베이스를 기반으로 한 인공지능을 위해 활용될 수 있을 것으로 판단된다.