• Title/Summary/Keyword: Malt Parser

Search Result 2, Processing Time 0.015 seconds

Proper Noun Embedding Model for the Korean Dependency Parsing

  • Nam, Gyu-Hyeon;Lee, Hyun-Young;Kang, Seung-Shik
    • Journal of Multimedia Information System
    • /
    • v.9 no.2
    • /
    • pp.93-102
    • /
    • 2022
  • Dependency parsing is a decision problem of the syntactic relation between words in a sentence. Recently, deep learning models are used for dependency parsing based on the word representations in a continuous vector space. However, it causes a mislabeled tagging problem for the proper nouns that rarely appear in the training corpus because it is difficult to express out-of-vocabulary (OOV) words in a continuous vector space. To solve the OOV problem in dependency parsing, we explored the proper noun embedding method according to the embedding unit. Before representing words in a continuous vector space, we replace the proper nouns with a special token and train them for the contextual features by using the multi-layer bidirectional LSTM. Two models of the syllable-based and morpheme-based unit are proposed for proper noun embedding and the performance of the dependency parsing is more improved in the ensemble model than each syllable and morpheme embedding model. The experimental results showed that our ensemble model improved 1.69%p in UAS and 2.17%p in LAS than the same arc-eager approach-based Malt parser.

Dependency Parser Integration using Word Level Sentence Routing (단어 단위 문장 분배기를 사용한 의존 구조 분석기 통합)

  • Lee, Jimin;Lee, Jinsik;Lee, Gary Geunbae
    • Annual Conference on Human and Language Technology
    • /
    • 2010.10a
    • /
    • pp.73-77
    • /
    • 2010
  • 본 논문은 의존 구조 분석기를 통합하기 위해 입력 문장의 단어 특성을 활용하는 단어 단위 분배기를 제안한다. 본 모델은 기존의 문장 수준 분배기와는 달리 입력 문장의 단어 특성에 따라 가장 적절한 의존 구조 분석기를 선택하고, 선택된 의존 구조 분석기의 결과를 최종 결과로 사용한다. 기존의 문장 단위 분배기보다 단어 수준의 풍부한 특질을 활용할 수 있다는 장점과 큰 크기의 코퍼스를 사용할 수 있다는 장점이 있다. 총 6개 언어의 LAS를 측정했는데, MALT 보다는 평균 1.98%, MST 보다는 0.54%의 성능 향상이 있었다.

  • PDF