• 제목/요약/키워드: 보편 의존 구문 분석

검색결과 3건 처리시간 0.016초

한국어 보편 의존 구문 분석(Universal Dependencies) 방법론 연구 (A Study on Universal Dependency Annotation for Korean)

  • 이찬영;오태환;김한샘
    • 언어사실과 관점
    • /
    • 제47권
    • /
    • pp.141-175
    • /
    • 2019
  • The purpose of this paper is to find a methodology for parsing Korean by the method of 'Universal Dependencies'. Universal Dependencies expresses the annotation marking system that can be applied to the formal patterns and syntactic relationships of various types of languages. The UD project presents a framework for consistently annotated multi-lingual treebank corpus for various languages around the world through the 'CoNLL shared task' and is currently applied to more than 50 languages. This flow has a great influence on research related to not only the UD project itself but also the syntactic annotation for individual languages, and efforts are being made to apply the universally dependent syntax analysis marking system in the UD according to the characteristic of the individual language. When annotation labels cannot be applied due to the nature of the Korean language in consideration of compatibility, they need to be excluded. Among DEPREL labels, several labels are difficult to apply in Korean when looking at the specific items. In this paper,, DEPREL overall annotation system of UD was translated and a representative category of elements that needed to be transformed was selected to discuss the actuality of linguistic convergence and its application.

구어 의존 구문 분석을 위한 비유창성 처리 연구 (A Study of Disfluency Processing for Dependency Parsing of Spoken)

  • 박석원;최현수;한지윤;오태환;안의정;김한샘
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.144-148
    • /
    • 2019
  • 비유창성(disfluency)은 문어와 같이 정연한 구조로 말하지 못하는 현상 전반을 지칭한다. 이는 구어에서 보편적으로 발생하는 현상으로 구어 의존 구문 분석의 난이도를 상향시키는 요인이다. 본 연구에서는 비유창성 요소 유형을 담화 표지, 수정 표현, 반복 표현, 삽입 표현으로 분류하였다. 또한 유형별 비유창성 요소를 실제 말뭉치에서 어떻게 구문 주석할 것인지를 제안한다. 이와 같은 구어 데이터 처리 방식은 대화시스템 등 구어를 처리해야 하는 도메인에서의 자연언어이해 성능 향상에 기여할 것이다.

  • PDF

A Multi-task Self-attention Model Using Pre-trained Language Models on Universal Dependency Annotations

  • Kim, Euhee
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권11호
    • /
    • pp.39-46
    • /
    • 2022
  • 본 논문에서는 UD Korean Kaist v2.3 코퍼스를 이용하여 범용 품사 태깅, 표제어추출 그리고 의존 구문분석을 동시에 예측할 수 있는 보편적 다중 작업 모델을 제안하였다. 제안 모델은 사전학습 언어모델인 다국어 BERT (Multilingual BERT)와 한국어 BERT (KR-BERT와 KoBERT)을 대상으로 추가학습 (fine-tuning)을 수행하여 BERT 모델의 자가-집중 (self-attention) 기법과 그래프 기반 Biaffine attention 기법을 적용하여 제안 모델의 성능을 비교 분석하였다.