• 제목/요약/키워드: Automatic Annotation System

검색결과 36건 처리시간 0.02초

위키피디아 기반 개체명 사전 반자동 구축 방법 (A Semi-automatic Construction method of a Named Entity Dictionary Based on Wikipedia)

  • 송영길;정석원;김학수
    • 정보과학회 논문지
    • /
    • 제42권11호
    • /
    • pp.1397-1403
    • /
    • 2015
  • 개체명은 다양한 자연어처리 연구 및 서비스에 중요한 정보로 이용된다. 개체명 인식의 성능을 향상시키기 위한 여러 연구에서 개체명 사전을 이용한 자질이 개체명 인식 성능에 큰 영향을 준다는 것을 보이고 있다. 그러나 개체명 사전을 구축하는 것은 매우 시간 소모적이고, 인력 소모적인 작업이다. 이를 완화하기 위해서 본 논문에서는 개체명 사전을 반자동으로 구축하는 방법을 제안한다. 제안 시스템은 능동학습을 이용하여 위키피디아 분류정보로 구성된 가상 문서를 개체명 범주 당 하나씩 생성한다. 그리고 잘 알려진 정보검색 모델인 BM25를 이용하여 위키피디아 엔트리와 가상문서 사이의 유사도를 계산한다. 마지막으로 유사도를 바탕으로 각 위키피디아 엔트리를 개체명 범주로 분류한다. 서로 다른 3종류의 개체명 범주 집합에서 실험한 결과, 제안 시스템은 매크로 평균 F1-점수 0.9028, 마이크로 평균 F1-점수 0.9554이라는 높은 성능을 보였다.

CAD 뷰어 기반 대화형 3D PDF 문서 생성 자동화 (Automatic Generation of Interactive 3D PDF Document in a 3D Viewer Environment)

  • 박경호;최영;양상욱;송인호
    • 한국정밀공학회지
    • /
    • 제25권4호
    • /
    • pp.77-85
    • /
    • 2008
  • PDF is widely accepted as a standard document format and now it supports 3D contents as well. Within the engineering application areas, this new 3D feature may be used to support sharing of 3D documents and thus collaboration between engineering departments, suppliers and partners. In this paper, we describe a system that automatically generates formatted engineering documents including 3D data converted from 3D applications such as commercial 3D CAD viewer. The system consists of two major modules. One is U3D conversion module and the other is PDF conversion module. U3D conversion module extracts geometry, view data, assembly and disassembly information from 3D viewer and converts to U3D format, currently in IDTF text file format. PDF conversion module generates a PDF file and inserts U3D data, various annotation information, and scripts for custom generated operations such as assembly and disassembly in the PDF document.

커널 Ripple-Down Rule을 이용한 태깅 말뭉치 오류 자동 수정 (Automatic Correction of Errors in Annotated Corpus Using Kernel Ripple-Down Rules)

  • 박태호;차정원
    • 정보과학회 논문지
    • /
    • 제43권6호
    • /
    • pp.636-644
    • /
    • 2016
  • 자연어처리에서 기계학습을 위한 학습 말뭉치는 매우 중요하다. 정제된 대량의 말뭉치는 자연어처리 시스템에 직접 영향을 준다. 본 논문에서는 대량의 말뭉치 오류를 자동으로 수정하는 새로운 방법을 제안한다. 오류 말뭉치와 정답 말뭉치에서 사람이 태깅한 문서의 특성을 반영한 수정 규칙을 자동으로 생성하였다. 수정 규칙은 RDR(Ripple-Down Rules)를 사용하여 표현하였다. 수정 방법의 가치를 보이기 위해 품사 부착 말뭉치와 개체명 부착 말뭉치에 대해서 실험하였으며 두 분야에서 유의미한 결과를 보였다. 이 방법은 대량의 말뭉치를 제작할 때 오류를 최소화하는 방법으로 사용이 가능하다.

미소 픽셀을 갖는 비행 객체 인식을 위한 데이터베이스 구축 및 관리시스템 연구 (Database Generation and Management System for Small-pixelized Airborne Target Recognition)

  • 이호섭;신희민;심현철;조성욱
    • 항공우주시스템공학회지
    • /
    • 제16권5호
    • /
    • pp.70-77
    • /
    • 2022
  • 본 논문에서, 데이터베이스 생성 및 관리 시스템은 미소 픽셀 공중 표적 인식을 위해 제안된다. 제안된 시스템은 1)비행 테스트 비디오 프레임에 의한 직접 이미지 추출, 2) 자동 이미지 보관, 3) 이미지 데이터 레이블링 및 메타 데이터 주석, 4) 컬러 채널 변환, 5) HOG/LBP 기반 소화소 대상 증강 이미지 데이터 생성의 다섯가지 주요 기능으로 구성된다. 제안하는 프로그램은 파이썬 기반의 PyQt5와 OpenCV를 이용하여 구성하였고 공중 표적 인식을 위한 이미지 데이터셋은 제안한 시스템을 이용해 생성했으며 비행 실험으로 부터 수집된 영상을 입력영상으로 사용하였다.

시맨틱 갭을 줄이기 위한 딥러닝과 행위 온톨로지의 결합 기반 이미지 검색 (Image retrieval based on a combination of deep learning and behavior ontology for reducing semantic gap)

  • 이승;정혜욱
    • 예술인문사회 융합 멀티미디어 논문지
    • /
    • 제9권11호
    • /
    • pp.1133-1144
    • /
    • 2019
  • 최근 스마트 기기의 발전으로 인터넷상에 존재하는 이미지 데이터의 양이 급속하게 증가하는 상황에서 효과적인 이미지 검색을 위한 다양한 방법들이 연구되고 있다. 기존의 이미지 검색 방법들은 이미지에 존재하는 물체들을 단순하게 검출하여 각 물체들의 라벨 정보에 근거한 검색을 수행하기 때문에 사용자가 원하는 이미지와 검색 결과로 얻은 이미지 간에 의미적 차이인 시맨틱 갭(Semantic Gap)이 발생된다. 이미지 검색에서 발생하는 시맨틱 갭을 줄이기 위해, 본 논문에서는 딥러닝 기반의 다중 객체 분류 모듈과 사람의 행위를 분류하는 모듈을 연결하고, 이 모듈들에 행위 온톨로지를 결합하였다. 즉, 딥러닝과 행위 온톨로지의 결합을 기반으로 객체들 간의 연관성을 고려한 이미지 검색 시스템을 제안한다. 이미지에 포함된 동적인 행위를 고려하기 위해 Walking과 Running 데이터를 이용하여 실험한 결과를 분석하였다. 제안한 방법은 향후 이미지 검색 결과의 정확도를 높일 수 있는 영상의 자동 주석 생성 연구에 확장하여 적용할 수 있다.

교육용 비디오의 ToC 자동 생성 방법 (A Method of Generating Table-of-Contents for Educational Video)

  • 이광국;강정원;김재곤;김회율
    • 방송공학회논문지
    • /
    • 제11권1호
    • /
    • pp.28-41
    • /
    • 2006
  • 양방향 맞춤형 방송의 실현으로 인해 비디오의 내용을 자동으로 분석하여 그 구조를 기술하거나 요약을 생성하는 등의 내용 기반 비디오 분석 기술의 필요성이 요구되고 있다. 본 논문에서는 온라인에서 수요가 높고 특히 맞춤형 방송에 적합한 방송 콘텐츠인 교육용 비디오의 ToC를 자동으로 생성하기 위한 방법을 제안한다. 제안한 ToC 생성 방법은 씬 분할과 씬 서술의 두 단계로 이루어져 있다. 씬 분할 단계에서는 삿 분할을 수행한 후 샷 간의 연결관계 분석을 통해 입력 영상을 씬 단위로 분할하게 된다. 씬 서술 단계에서는 분할된 각 씬이 장면 분류, 자막 검출, 화자 인식 등에 의해 그 내용이 자동으로 서술된다. 제안된 방법을 통해 생성된 ToC는 씬과 샷의 계층 구조를 통해 비디오의 구성을 표현하고, 검출된 여러 특정을 이용해 각 씬과 샷의 내용을 서술함으로써 사용자가 비디오의 내용을 한눈에 알아볼 수 있고 원하는 내용에 손쉽게 접근할 수 있도록 도와줄 수 있다. 또 보다 상세한 ToC가 요구되는 경우에는 유용한 정보들이 포함되어 있는 초기 형태의 ToC로써 이용되어 수작업에 의한 ToC 생성에 필요한 시간을 효과적으로 줄이는 것이 가능하다. 실험을 통해 제안한 방법으로 여러 개의 교육용 비디오에서 ToC를 효과적으로 생성될 수 있음을 확인하였다.