• Title/Summary/Keyword: 의미역 처리

Search Result 145, Processing Time 0.019 seconds

Korean Semantic Role of subcategorization (한국어 서술어와 논항들 사이의 의미역)

  • Kim, Yun-Jeong;Ock, CheolYoung
    • Annual Conference on Human and Language Technology
    • /
    • 2014.10a
    • /
    • pp.143-148
    • /
    • 2014
  • 본 논문은 한국어 문장의 서술어와 공기관계에 있는 논항들의 의미관계를 결정하는 데에 목적이 있다. 본 논문에서는 의미역을 결정하기 위해 기존에 구축된 세종구구조말뭉치를 모단위로 하여 표준국어대사전의 문형을 적용하였다. 또한 의미역을 결정하기 위해 기존 언어학 이론에서의 의미역을 정리하여 광범위한 의미역 판별기준을 세우고 이를 실제 말뭉치에 적용함으로써 자연언어적 처리가 가능하도록 정리하였다.

  • PDF

Layerwise Semantic Role Labeling in KRBERT (KRBERT 임베딩 층에 따른 의미역 결정)

  • Seo, Hye-Jin;Park, Myung-Kwan;Kim, Euhee
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.617-621
    • /
    • 2021
  • 의미역 결정은 문장 속에서 서술어와 그 논항의 관계를 파악하며, '누가, 무엇을, 어떻게, 왜' 등과 같은 의미역 관계를 찾아내는 자연어 처리 기법이다. 최근 수행되고 있는 의미역 결정 연구는 주로 말뭉치를 활용하여 딥러닝 학습을 하는 방식으로 연구가 이루어지고 있다. 최근 구글에서 개발한 사전 훈련된 Bidirectional Encoder Representations from Transformers (BERT) 모델이 다양한 자연어 처리 분야에서 상당히 높은 성능을 보이고 있다. 본 논문에서는 한국어 의미역 결정 성능 향상을 위해 한국어의 언어적 특징을 고려하며 사전 학습된 SNU KR-BERT를 사용하면서 한국어 의미역 결정 모델의 성능을 살펴보였다. 또한, 본 논문에서는 BERT 모델에서 과연 어떤 히든 레이어(hidden layer)에서 한국어 의미역 결정을 더 잘 수행하는지 알아보고자 하였다. 실험 결과 마지막 히든 레이어 임베딩을 활용하였을 때, 언어 모델의 성능은 66.4% 였다. 히든 레이어 별 언어 모델 성능을 비교한 결과, 마지막 4개의 히든 레이어를 이었을 때(concatenated), 언어 모델의 성능은 67.9% 이였으며, 11번째 히든 레이어를 사용했을 때는 68.1% 이였다. 즉, 마지막 히든 레이어를 선택했을 때보다 더 성능이 좋았다는 것을 알 수 있었다. 하지만 각 언어 모델 별 히트맵을 그려보았을 때는 마지막 히든 레이어 임베딩을 활용한 언어 모델이 더 정확히 의미역 판단을 한다는 것을 알 수 있었다.

  • PDF

Hierarchical Learning for Semantic Role Labeling with Syntax Information (계층형 문장 구조 인코더를 이용한 한국어 의미역 결정)

  • Kim, Bong-Su;Kim, Jungwook;Whang, Taesun;Lee, Saebyeok
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.199-202
    • /
    • 2021
  • 의미역 결정은 입력된 문장 내 어절간의 의미 관계를 예측하기 위한 자연어처리 태스크이며, 핵심 서술어에 따라 상이한 의미역 집합들이 존재한다. 기존의 연구는 문장 내의 서술어의 개수만큼 입력 문장을 확장해 순차 태깅 문제로 접근한다. 본 연구에서는 확장된 입력 문장에 대해 구문 분석을 수행 후 추출된 문장 구조 정보를 의미역 결정 모델의 자질로 사용한다. 이를 위해 기존에 학습된 구문 분석 모델의 파라미터를 전이하여 논항의 위치를 예측한 후 파이프라인을 통해 의미역 결정 모델을 학습시킨다. ALBERT 사전학습 모델을 통해 입력 토큰의 표현을 얻은 후, 논항의 위치에 대응되는 표현을 따로 추상화하기 위한 계층형 트랜스포머 인코더 레이어 구조를 추가했다. 실험결과 Korean Propbank 데이터에 대해 F1 85.59의 성능을 보였다.

  • PDF

Korean Semantic Role Labeling Based on Bidirectional LSTM CRFs Using the Semantic Label Distribution of Syllables (음절의 의미역 태그 분포를 이용한 Bidirectional LSTM CRFs 기반의 한국어 의미역 결정)

  • Yoon, Jungmin;Bae, Kyoungman;Ko, Youngjoong
    • Annual Conference on Human and Language Technology
    • /
    • 2016.10a
    • /
    • pp.324-329
    • /
    • 2016
  • 의미역 결정은 자연어 문장의 서술어와 그 서술어에 속하는 논항들 사이의 의미관계를 결정하는 것이다. 최근 의미역 결정 연구에는 의미역 말뭉치와 기계학습 알고리즘을 이용한 연구가 주를 이루고 있다. 본 논문에서는 순차적 레이블링 영역에서 좋은 성능을 보이고 있는 Bidirectional LSTM-CRFs 기반으로 음절의 의미역 태그 분포를 고려한 의미역 결정 모델을 제안한다. 제안한 음절의 의미역 태그 분포를 고려한 의미역 결정 모델은 분포가 고려되지 않은 모델에 비해 2.41%p 향상된 66.13%의 의미역 결정 성능을 보였다.

  • PDF

Joint Model for Dependency Parser and Semantic Role Labeling using Recurrent Neural Network Parallelism (순환 신경망 병렬화를 사용한 의존 구문 분석 및 의미역 결정 통합 모델)

  • Park, Seong Sik;Kim, Hark Soo
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.276-279
    • /
    • 2019
  • 의존 구문 분석은 문장을 구성하는 성분들 간의 의존 관계를 분석하고 문장의 구조적 정보를 얻기 위한 기술이다. 의미역 결정은 문장에서 서술어에 해당하는 어절을 찾고 해당 서술어의 논항들을 찾는 자연어 처리의 한 분야이다. 두 기술은 서로 밀접한 상관관계가 존재하며 기존 연구들은 이 상관관계를 이용하기 위해 의존 구문 분석의 결과를 의미역 결정의 자질로써 사용한다. 그러나 이런 방법은 의미역 결정 모델의 오류가 의존 구문 분석에 역전파 되지 않으므로 두 기술의 상관관계를 효과적으로 사용한다고 보기 어렵다. 본 논문은 포인터 네트워크 기반의 의존 구문 분석 모델과 병렬화 순환 신경망 기반의 의미역 결정 모델을 멀티 태스크 방식으로 학습시키는 통합 모델을 제안한다. 제안 모델은 의존 구문 분석 및 의미역 결정 말뭉치인 UProbBank를 실험에 사용하여 의존 구문 분석에서 UAS 0.9327, 의미역 결정에서 PIC F1 0.9952, AIC F1 0.7312의 성능 보였다.

  • PDF

Theta role description system and its inventory in Sejong electronic dictionnary of predicatives (세종 용언전자사전의 의미역 기술체계 및 목록)

  • Kim, Hyun-Kwon;Kim, Jong-Myung
    • Annual Conference on Human and Language Technology
    • /
    • 2001.10d
    • /
    • pp.319-325
    • /
    • 2001
  • 본 논문은 세종 전자사전을 구성하고 있는 하위사전의 하나인 세종 용언전자사전에서 사용되는 의미역 기술체계 및 그 목록을 소개하는 논문이다. 본 논문은 2부로 구성되어 있다. 1부에서는 의미역이란 개념을 정의하고 의미역 기술의 의의를 순수언어학적 차원과 NLP의 응용 기존의 비판에 관하여 우리의 응용 차원에서 설명한다. 아울러 1부에서는 의미역 개념에 대한 기존의 비판에 관하여 우리의 입장을 밝힌다. 제 2부는 본론으로서 세종 용언전자사전에서 사용되는 의미여 기술체계 및 목록 그리고 그것이 지니는 의의를 소개하는 부분이다. 제 2부에서는 우선 세종 용언전자 사전이 의미역 기술 및 목록 확정을 위해서 채택하고 있는 원칙을 밝힌다. 그 다음에는 현재 세종 용언전자사전에서 사용하고 있는 의미역 목록을 각 의미역의 정의와 함께 소개한다. 끝으로 세종 용언전자사전의 틀 내에서 이루어지고 있는 의미역 기술이 갖는 의의와 현 의미역 기술체계가 지니고 있는 문제점을 지적한다.

  • PDF

Multiple Semantic Role Labeling Problems Solving using CRFs (CRF를 이용한 복수 의미역 문제 해결)

  • Park, Tae-Ho;Cha, Jeong-Won
    • Annual Conference on Human and Language Technology
    • /
    • 2016.10a
    • /
    • pp.276-279
    • /
    • 2016
  • 의미역 결정에서 하나의 의미 논항이 둘 이상의 의미역을 가지는 경우는 복수의 레이블을 할당하기 때문에 어려운 문제이다. 본 논문은 복수의 의미역을 가지는 항의 의미역 결정을 위한 새로운 자질을 제안한다. 복수의 의미역을 결정하기 위해서 체언보다 선행되어 나타나는 용언에 대한 자질을 추가하였다. 또한 문장의 용언에 따라 의미역을 결정하기 위해서 문장 내의 용언 수만큼 각각에 용언에 대한 의미역을 결정할 수 있도록 반복적으로 레이블링하는 방법을 제시하였다. 본 논문의 실험 결과로 제안한 방법은 74.90%의 성능(F1)을 보였다.

  • PDF

Semantic Role Transformation of Arguments using Predicate and Josa Information (술어와 조사 정보를 이용한 논항의 의미역 변환)

  • Seo, Min-Jeong;Seok, Mi-Ran;Kim, Yu-Seop
    • Annual Conference on Human and Language Technology
    • /
    • 2014.10a
    • /
    • pp.51-55
    • /
    • 2014
  • 의미역 결정 (Semantic Role Labeling) 은 문장 내의 술어와 이들의 논항들의 의미 관계를 결정하는 과정을 뜻한다. 의미역 결정을 하기 위해서는 대량의 말뭉치와 다양한 언어 자원이 필요한데, 많은 경우에 PropBank 말뭉치가 사용된다. 한국어 PropBank는 다른 언어에 비해 자료가 적어 그것만을 가지고 의미역 결정을 하기에 적절하지 않다. 또한 한국어 의미 분석을 위해서 지금까지는 세종 말뭉치나 의미역이 활용되어 오기도 하였다. 따라서 한국어 의미역 결정에서는 한국어 PropBank 뿐만 아닌 세종 의미역 표지 부착 말뭉치의 구축 역시 요구되는데 말뭉치 구축 작업이 수동 부착 작업이기 때문에 많은 시간과 비용이 소모된다. 본 논문에서는 이러한 문제점을 해결하기 위해 이미 구축되어 있는 한국어 PropBank 의미역을 세종 의미역으로 자동 변환하는 방법을 제시한다. 자동 변환을 위해서는 먼저 PropBank 의미역의 변환 후보 의미역을 구하여 이들 중에서 가장 적절한 의미역으로 변환한다. 자동 변환을 위해서는 크게 3 가지 특징을 활용하는데, 첫째는 변환 대상 논항의 의미 유사성이고, 둘째는 논항과 의미 관계를 가지고 있는 술어, 그리고 셋째는 논항과 결합되어 있는 조사이다. 이 세 가지 특징을 사용하여 정확한 의미역 변환을 위해 술어, 조사의 의미역 결합 확률 테이블을 구축한다.

  • PDF

Frame-semantics and Argument Disambiguation of Korean FrameNet using Bi-directional LSTM (중첩 분할된 양방향 LSTM 기반의 한국어 프레임넷의 프레임 분류 및 논항의 의미역 분류)

  • Hahm, Younggyun;Shin, Giyeon;Choi, Key-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.352-357
    • /
    • 2018
  • 본 논문에서는 한국어 프레임넷 분석기를 구축하기 위하여 한국어 프레임넷 데이터를 가공하여 공개하고, 한국어 프레임 분류 및 논항의 의미역 분류 문제를 해결하기 위한 방법을 제안한다. 프레임넷은 단어 단위가 아닌 단어들의 범위로 구성된 범위에 대해 어노테이션된 코퍼스라는 점에 착안하여, 어휘 및 논항의 내부 의미 정보와 외부 의미 정보, 그리고 프레임과 각 의미역들의 임베딩을 학습한 중첩 분할된 양방향 LSTM 모델을 사용하였다. 이를 통해 한국어 프레임 분류에서 72.48%, 논항의 의미역 분류에서 84.08%의 성능을 보였다. 또한 본 연구를 통해 한국어 프레임넷 데이터의 개선 방안을 논의한다.

  • PDF

Korean Semantic Role Labeling using Case Frame and Subcategory of Predicate (한국어 격틀 사전과 용언의 하위 범주 정보를 사용한 한국어 의미역 결정)

  • Kim, Wansu;Ock, CheolYoung
    • Annual Conference on Human and Language Technology
    • /
    • 2015.10a
    • /
    • pp.198-201
    • /
    • 2015
  • 의미역 결정은 문장의 서술어와 그 서술어에 속하는 논항들 사이의 의미관계를 결정하는 문제이다. 본 논문에서는 UPropBank 격틀 사전과 UWordMap의 용언의 하위 범주 정보를 이용하여 의미역을 부착하였다. 실험 결과 80.125%의 정확률로 의미역을 부착하는 성능을 보였다.

  • PDF