• 제목/요약/키워드: Information retrieval techniques

검색결과 277건 처리시간 0.03초

멀티미디어 저작도구를 이용한 발달장애 진단.평가 시스템 구현연구 (Developmental disability Diagnosis Assessment Systems Implementation using Multimedia Authorizing Tool)

  • 변상해;이재현
    • 벤처창업연구
    • /
    • 제3권1호
    • /
    • pp.57-72
    • /
    • 2008
  • 본 논문에서는 그동안 부분적으로 진행된 발달장애 진단 평가에 관련된 전산처리를 멀티미디어 기법을 응용하여 발달장애 진단 평가분야에 새로운 방법을 제시한다. 발달장애 진단 평가를 위한 멀티미디어 정보는 여러 가지 속성을 지니고 있기 때문에 모든 발달장애 진단 평가 정보에 대한 기술을 사람이 수행해야 할 때는 엄청난 작업량이 수반될 뿐 아니라 동일한 데이터에 대한 기술이 주관에 따라 달라질 수도 있다는 것을 알게 되였다. 특히 발달장애 시스템 구현은 현재의 컴퓨팅 환경에서의 동영상 데이터 처리에 대한 비중의 증가, 텍스트 위주의 데이터에서 시각적인 동영상으로의 데이터 활용의 전이 등 발달장애 데이터가 멀티미디어 환경에 적합한 데이터로의 전이가 필수적이며 사용자 역시 빠른 이해를 위해 시각적 데이터를 선호하기 때문에 본 논문에서는 GUI(Graphics User Interface) 기법을 도입하여 검사 중에 텍스트 명령어는 거의 사용하지 않고도 발달장애 진단 평가를 수행할 수 있게 했다. 특히 발달장애 진단 평가에서 필요한 각종 데이터는 그 속성이 영상, 이미지, 논리연산의 필요성 및 각종 연산이 요구된다. 그래서 본 논문에서는 문제점을 해결하기 위해 편집대상 데이터(Content)에 의해 관련 정보를 검색하는 내용 기반(Content-based)의 검색 기술에 대한 연구를 적용했다.

  • PDF

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

퍼지관계 이론에 의한 집단지성의 도출 (Elicitation of Collective Intelligence by Fuzzy Relational Methodology)

  • 주영도
    • 지능정보연구
    • /
    • 제17권1호
    • /
    • pp.17-35
    • /
    • 2011
  • 집단지성은 개인들의 협업과 경쟁을 통한 공통이해에 기반한 생산으로서 대중의 지혜를 창출하는 개별 지성들의 통합체라고 할 수 있다. 집단지성의 활용은 공개와 공유 그리고 참여의 기본 철학을 갖고 있는 웹 2.0의 주요한 설계원칙으로 자리잡은 후로, 이와 관련된 연구가 다양하게 진행되고 있다. 이 논문은 개인들간의 관계와 상호작용에 대한 인식을 기반으로 집단지성을 밝혀보려는 방법론을 제안한다. 응용대상은 정보검색과 분류 분야이며, 개인지성의 표현과 도출을 위해 개인 컨스트럭트 이론과 지식 그리드 기법에 퍼지관계이론을 적용한다. 개인의 개별적인 지성은 헤세 다이어그램의 형태로 구현된 지성 구조로 표현하여 내재된 지식적인 의미를 분석한다. 논문의 목적인 집단지성의 도출은 개인지성들의 비교를 통해 상호간 공유와 일치를 찾아낼 수 있는 유사성 이론의 도입에 의해 이루어진다. 제안하는 방법론은 퍼지관계 이론 및 퍼지 매칭 알고리즘을 기반으로 실험 데이터로부터 유사성을 측정하고, 개인지성들을 대표할 수 있는 최적의 집단지성을 이끌어내고자 한다.

영화 비디오 자막 추출 및 추출된 자막 이미지 향상 방법 (Methods for Video Caption Extraction and Extracted Caption Image Enhancement)

  • 김소명;곽상신;최영우;정규식
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권4호
    • /
    • pp.235-247
    • /
    • 2002
  • 디지털 비디오 영상을 효과적으로 색인하고 검색하기 위해서 비디오의 내용을 함축적으로 표현하고 있는 비디오 자막을 추출하여 인식하는 연구가 필요하다. 본 논문에서는 압축되지 않은 비디오 영화 영상에 인위적으로 삽입한 한글 및 영어 자막을 대상으로 자막 영역을 추출하고, 추출된 자막 이미지를 향상시키는 방법을 제안한다. 제안한 방법의 특징은 동일한 내용의 자막을 갖는 프레임들의 위치를 자동으로 찾아서 동일 자막 프레임들을 다중 결합하여 배경에 포함되어 있는 잡영의 일부 또는 전부를 우선 제거한다. 또한, 이 결과 이미지에 해상도 중대, 히스토그램 평활화, 획 기반 이진화, 스무딩의 이미지 향상 방법을 단계적으로 적용하여 인식 가능한 수준의 이미지로 향상시킨다. 제안한 방법을 비디오 영상에 적용하여 동일한 내용의 자막 그룹 단위로 자막 이미지를 추출하는 것이 가능해졌으며, 잡영이 제거되고 복잡한 자소의 획이 보존된 자막 이미지를 추출할 수 있었다. 동일한 내용의 자막 프레임의 시작 및 글위치를 파악하는 것은 비디오 영상의 색인과 검색에 유용하게 활용될 수 있다. 한글 및 영어 비디오 영화 자막에 제안한 방법을 적용하여 향상된 문자 인식 결과를 얻었다.

PoC Box 단말의 RTSP 운용을 위한 사용자 요구 중심의 효율적인 다중 수신 버퍼링 기법 및 패킷화 방법에 대한 성능 분석에 관한 연구 (A Study of Performance Analysis on Effective Multiple Buffering and Packetizing Method of Multimedia Data for User-Demand Oriented RTSP Based Transmissions Between the PoC Box and a Terminal)

  • 방지웅;김대원
    • 한국멀티미디어학회논문지
    • /
    • 제14권1호
    • /
    • pp.54-75
    • /
    • 2011
  • PoC(Push-to-talk Over Cellular)는 그룹 음성 및 영상 통화와 인터넷, 멀티미디어 서비스를 통합한 단말 기술이다. PoC는 부재, 긴급 상황, 배터리 방전 등과 같은 다양한 이유로 인해 PoC 세션에 참여하지 못하는 사용자에게 종래 MMS 서비스에서의 MM Box와 비슷한 기능을 가진 PoC Box를 사용하는 기능을 제공하고 있다. PoC 표준안에서는 PoC Box에서 PoC 단말로 미디어 전송 시 RTSP (Real-Time Streaming Protocol)를 사용하도록 권장하고 있다. 기존의 RTSP를 적용한 VOD 서비스의 경우는 빠른 유선 네트워크 망을 고려하여 패킷의 크기를 크게 구현하는 반면 PoC 서비스는 무선 통신 환경이기 때문에 이러한 특성을 고려한 RTSP 전송 방법이 필요하다. 무선 통신 환경에서는 패킷의 손실률이 비교적 유선 통신 환경에서보다 다소 높기 때문에 PoC 단말 측에서 미디어 재생 시 화면 끊김 현상, 영상과 음성의 비동기화 발생, 버퍼링 대기 시간 등이 발생한다. 따라서 PoC 단말 측에서의 이러한 문제점은 사용자가 미디어 콘텐츠를 재생하는데 있어 자신이 원하는 정보를 빠르게 습득하기 어렵게 만든다. 본 논문에서는 RTSP를 이용하여 사용자가 미디어 검색 시 단시간 내에 전송되는 미디어에서 효과적으로 중요한 정보를 습득하고 재생 지연 현상을 줄일 수 있는 "교차 이중 수신 버퍼링 기법", "사전 분할 다중 수신 버퍼링 기법", "On-Demand 다중 수신 버퍼링 기법"과 전송 시 미디어 데이터의 패킷화 방법인 "동일 순위 패킷화 전송 방식", "우선 순위 패킷화 전송 방식"을 제안하였고 실험을 통해 그 성능의 적정성 및 우수성을 검증하였다. 실시된 시뮬레이션 성능 평가에서 사용자의 미디어 검색 성향에 따라 제안된 다중 수신 버퍼링 및 패킷화 방식이 기존 단일 수신 버퍼링 방식과 비교하여 효율성 및 우수성 평가에서 6-9점 이상 우수한 결과를 보였다. 그 중 On-Demand 다중 수신 버퍼링 기법은 동일순위 패킷화 방법과 사용될 때 타 기법과 비교하여 3-24점 사이의 우수성을 보임으로써 사용자의 다양한 미디어 검색 성향에 대해 빠르게 대응할 수 있었다. 또한 단시간 내에 사용자가 집중적으로 미디어 검색이 이루어지는 재생 시간대에 대해 많은 미디어 데이터를 수신 받기 때문에 단말 사용자에게 빠른 정보를 제공할 수 있었다.

CBD 프로세스 지원을 위한 컴포넌트 저장소의 구축 (Construction of Component Repository for Supporting the CBD Process)

  • 차정은;김행곤
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권7호
    • /
    • pp.476-486
    • /
    • 2002
  • 컴포넌트 기반 개발(CBD : Component Based Development)은 비즈니스 시스템의 요구를 해결할 수 있는 최상의 전략적 방법으로 빠르게 확산되고 있다. 이는 CBD가 소프트웨어 컴포넌트의 조립을 통해 어플리케이션 개발이 가능한 새로운 패러다임으로서, 비즈니스 프로세스의 빠른 변화에 능동적으로 대처하며, 증가되는 생산성 향상의 요구를 충족시킬 수 있기 때문이다. 특히, 컴포넌트 저장소는 컴포넌트의 개발과 유통 그리고 재사용을 위해 가장 중요한 부분으로 컴포넌트 그 자체뿐 아니라 컴포넌트 개발의 각 단계로부터 생산된 결과물들을 저장하고 관리할 수 있다. 본 논문에서는 CBD 프로세스의 효과적인 지원을 위해 컴포넌트 저장소 구축을 중심으로 실제적인 적용 기술을 제시하고 이를 바탕으로 컴포넌트 저장소 관리 시스템(CRMS : Component Repository Management System)의 프로토터이핑을 개발한다. CRMS는 컴포넌트 아키텍쳐에 기반하여 다양한 컴포넌트의 형상을 관리하며, 어플리케이션 개발자들은 자신의 프로젝트에 이용하기 위한 컴포넌트를 검색하고 관련 이해 정보를 획득할 수 있다 본 논문을 통해 CBD 환경을 실제화 하는 공용 컴포넌트 저장소 구축으로의 실제적 접근을 제시함으로써 컴포넌트 개발을 지원하는 CBD 프로세스 및 컴포넌트의 저장소에 대한 선행 연구로 이용하고자 한다.

XGBoost와 교차검증을 이용한 품사부착말뭉치에서의 오류 탐지 (Detecting Errors in POS-Tagged Corpus on XGBoost and Cross Validation)

  • 최민석;김창현;박호민;천민아;윤호;남궁영;김재균;김재훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제9권7호
    • /
    • pp.221-228
    • /
    • 2020
  • 품사부착말뭉치는 품사정보를 부착한 말뭉치를 말하며 자연언어처리 분야에서 다양한 학습말뭉치로 사용된다. 학습말뭉치는 일반적으로 오류가 없다고 가정하지만, 실상은 다양한 오류를 포함하고 있으며, 이러한 오류들은 학습된 시스템의 성능을 저하시키는 요인이 된다. 이러한 문제를 다소 완화시키기 위해서 본 논문에서는 XGBoost와 교차 검증을 이용하여 이미 구축된 품사부착말뭉치로부터 오류를 탐지하는 방법을 제안한다. 제안된 방법은 먼저 오류가 포함된 품사부착말뭉치와 XGBoost를 사용해서 품사부착기를 학습하고, 교차검증을 이용해서 품사오류를 검출한다. 그러나 오류가 부착된 학습말뭉치가 존재하지 않으므로 일반적인 분류기로서 오류를 검출할 수 없다. 따라서 본 논문에서는 매개변수를 조절하면서 학습된 품사부착기의 출력을 비교함으로써 오류를 검출한다. 매개변수를 조절하기 위해서 본 논문에서는 작은 규모의 오류부착말뭉치를 이용한다. 이 말뭉치는 오류 검출 대상의 전체 말뭉치로부터 임의로 추출된 것을 전문가에 의해서 오류가 부착된 것이다. 본 논문에서는 성능 평가의 척도로 정보검색에서 널리 사용되는 정밀도와 재현율을 사용하였다. 또한 모집단의 모든 오류 후보를 수작업으로 확인할 수 없으므로 표본 집단과 모집단의 오류 분포를 비교하여 본 논문의 타당성을 보였다. 앞으로 의존구조부착 말뭉치와 의미역 부착말뭉치에서 적용할 계획이다.

NATM 터널 공정리스크 데이터베이스 구축 및 리스크 분류체계 개발 (Establishment of Risk Database and Development of Risk Classification System for NATM Tunnel)

  • 김현비;바타갈래 위누리 키만디가 가루나라내;김병수
    • 한국건설관리학회논문집
    • /
    • 제25권1호
    • /
    • pp.32-41
    • /
    • 2024
  • 건설산업은 안전사고뿐 아니라 공기지연, 원가상승, 환경오염 등의 여러 복합적인 리스크가 발생하며 이를 해결하기 위한 관리기술이 필요하다. 그 중에서 프로젝트에 직접적인 영향을 미치는 공정리스크의 관리는 그 중요성에 비해 관련정보가 부족한 실정이다. 본 연구는 각 프로젝트마다 상이한 분류체계 사용으로 인한 리스크 정보검색의 어려움을 해소하기 위하여 MATM 터널 공정리스크분류체계를 개발하고자 하였다. 리스크수집은 기존 문헌검토와 Experience Mining 기법을 사용하였고 DB구축은 자연어처리 개념을 활용하였다. 분류체계의 구조는 자료의 호환성을 고려하여 기존 WBS 구조를 채택하였고, WBS의 공종과 연결된 RBS를 구축하였다. 연구결과 공종별 리스크를 쉽게 파악하고 리스크에 연결된 리스크특성과 리스크요인이 직관적으로 드러나는 리스크분류체계가 완성되었다. 구축된 분류체계의 활용성 검증결과 사용자의 키워드 입력으로 공종별 리스크와 리스크요인이 쉽게 식별되어 분류체계는 유효한 것으로 나타났다. 본 연구를 통해 NATM터널 계획 및 설계 시 작업공종에 따르는 리스크를 미리 식별하고 그 요인에 맞는 대응방안을 수립하여 비용과 공사기간의 증가를 방지하는데 기여할 수 있을 것으로 기대된다.

오디오 포렌식을 위한 소리 데이터의 요소 기술 식별 연구 (A Study on Elemental Technology Identification of Sound Data for Audio Forensics)

  • 유혜진;박아현;정성균;정두원
    • 정보보호학회논문지
    • /
    • 제34권1호
    • /
    • pp.115-127
    • /
    • 2024
  • 최근 디지털 오디오 매체의 증가로 인해 소리 데이터의 규모와 다양성이 크게 확대되었으며, 이로 인해 디지털 포렌식 과정에서 소리 데이터 분석의 중요도가 증가하였다. 하지만 소리 데이터 분석에 대한 표준화된 절차나 가이드 라인이 부족하여 분석 결과의 일관성과 신뢰성에 문제가 발생하고 있다. 디지털 환경은 다양한 오디오 형식과 녹음 조건을 포함하고 있지만, 현재 오디오 포렌식 방법론은 이러한 다양성을 충분히 반영하지 못하고있다. 이에 본 연구에서는 모든 상황에서 효과적인 분석을 수행할 수 있도록 Life-Cycle 기반 소리 데이터 요소기술을 식별하여 소리 데이터 분석의 전반적인 가이드라인을 제시하였다. 이와 더불어, 식별한 요소 기술을 소리 데이터를 대상으로 하는 디지털 포렌식 기술 개발에 활용하기 위해 분석을 진행하였다. 본 연구에서 제시한 Life-Cycle별 소리 데이터 요소 기술 식별 체계의 효과성을 입증하기 위하여 소리 데이터 기반으로 응급상황을 검색할 수 있는 기술을 개발하는 과정에 대한 사례 연구를 제시하였다. 해당 사례 연구를 통해 소리 데이터를 대상으로 하는 디지털 포렌식 기술 개발 과정에서 Life-Cycle 기반으로 식별한 요소 기술이 데이터 분석의 질과 일관성을 보장하게 하고 효율적인 소리 데이터 분석을 가능하게 함을 확인하였다.

쿠쿠 필터 유사도를 적용한 다중 필터 분산 중복 제거 시스템 설계 및 구현 (Design and Implementation of Multiple Filter Distributed Deduplication System Applying Cuckoo Filter Similarity)

  • 김영아;김계희;김현주;김창근
    • 융합정보논문지
    • /
    • 제10권10호
    • /
    • pp.1-8
    • /
    • 2020
  • 최근 몇 년 동안 기업이 수행하는 비즈니스 활동에서 생성된 데이터를 기반으로 하는 기술이 비즈니스 성공의 열쇠로 부상함에 따라 대체 데이터에 대한 저장, 관리 및 검색 기술에 대한 필요성이 대두되었다. 기존 빅 데이터 플랫폼 시스템은 대체 데이터인 비정형 데이터를 처리하기 위해 실시간으로 생성된 대량의 데이터를 지체 없이 로드하고 중복 데이터 발생 시 서로 다른 스토리지의 중복 제거 시스템을 활용하여 스토리지 공간을 효율적으로 관리해야 한다. 본 논문에서는 빅 데이터의 특성을 고려하여 쿠쿠 해싱 필터 기법의 유사도를 이용한 다중 계층 분산 데이터 중복 제거 프로세스 시스템을 제안한다. 가상 머신 간의 유사성을 쿠쿠 해시로 적용함으로써 개별 스토리지 노드는 중복 제거 효율성으로 성능을 향상시키고 다중 레이어 쿠쿠 필터를 적용하여 처리 시간을 줄일 수 있다. 실험 결과 제안한 방법은 기존 블룸 필터를 이용한 중복 제거 기법에 의해 8.9%의 처리 시간 단축과 중복 제거율이 10.3% 높아짐을 확인하였다.