• Title/Summary/Keyword: 의미 사전

Search Result 1,039, Processing Time 0.023 seconds

Bayesian Model based Korean Semantic Role Induction (베이지안 모형 기반 한국어 의미역 유도)

  • Won, Yousung;Lee, Woochul;Kim, Hyungjun;Lee, Yeonsoo
    • Annual Conference on Human and Language Technology
    • /
    • 2016.10a
    • /
    • pp.111-116
    • /
    • 2016
  • 의미역은 자연어 문장의 서술어와 관련된 논항의 역할을 설명하는 것으로, 주어진 서술어에 대한 논항 인식(Argument Identification) 및 분류(Argument Labeling)의 과정을 거쳐 의미역 결정(Semantic Role Labeling)이 이루어진다. 이를 위해서는 격틀 사전을 이용한 방법이나 말뭉치를 이용한 지도 학습(Supervised Learning) 방법이 주를 이루고 있다. 이때, 격틀 사전 또는 의미역 주석 정보가 부착된 말뭉치를 구축하는 것은 필수적이지만, 이러한 노력을 최소화하기 위해 본 논문에서는 비모수적 베이지안 모델(Nonparametric Bayesian Model)을 기반으로 서술어에 가능한 의미역을 추론하는 비지도 학습(Unsupervised Learning)을 수행한다.

  • PDF

Using Thesaurus for Disambiguation and if's limit (동사의 애매성 해소를 위한 시소러스의 이용과 한계)

  • 송영빈;최기선
    • Proceedings of the Korean Society for Cognitive Science Conference
    • /
    • 2000.06a
    • /
    • pp.255-261
    • /
    • 2000
  • 동사의 애매성 해소는 언어학의 여러 부문 중에서도 가장 실체가 불명확한 의미를 다루는 것이기 때문에 언어학뿐만 아니라 자연언어처리에 있어서도 가장 해결하기 어려운 문제 중에 하나이다. 애매성은 언어학에서 말하는 동음이의어와 다의어를 동시에 포괄하는 개념으로 정의된다. 단일어를 대상으로 한 이와 같은 분류는 비교적 명확한 반면 두 개의 언어 이상의 다국어를 대상으로 하는 기계번역용 사전과 같은 대역사전에 있어서는 동음이의어와 다의어의 구별은 경계가 불명확하여 의미에 기반한 대역어의 작성에 도움이 되지 않는다. 그 원인은 의미를 구성하는 세 가지 요소인 [실체], [개념], [표현]의 관점에서 [실체]와 [개념]은 어느 언어를 막론하고 보편적인 반면 [실체]와 [개념]을 최종적으로 실현하는 형태인 [표현]의 경우 각각의 언어에 따라 그 형태가 다르게 표출된다고 하는 사실 때문이다. [나무]라는 [실체]가 있다고 할 때 [나무]에 대한 [실체]와 [개념]은 언어를 초월해서 공통적이라고 할 수 있다. 한편 [개념]을 표현하는 실체인 [표현]은 언어에 따라 [namu](한국어_, [ki](일본어),[tree](영어) 등과 같이 언어에 따라 자의적으로 [개념]을 표현하고 있다. [namu], [ki], [tree]가 같은 뜻을 나타낸다고 인식할 수 있는 것은 [개념]이 같기 때문이지 이들 각각의 [표현]이 의미적 연관성을 갖고 있기 때문은 아니다. 지금까지 의미를 다루는 연구에서는 이와 같은 관점이 결여됨으로 인해 의미의 다양성을 정확히 파악하는 데 한계가 있었으며 애매성 해소에 관한 연구도 부분적 시도에 그친 면이 적지 않다. 본고에서는 다국어를 대상으로 한 대역사전의 구축에 있어서 다의어와 동음이의어에 대한 종래의 분류의 문제점을 지적하고 나아가 애매성 해소의 한 방법론으로 활발히 이용되고 있는 시소러스의 분류체계의 한계를 지적한다. 나아가 이의 해결책을 한국어와 일본어의 대역사전의 구축에서 얻어진 경험을 바탕으로 제시한다.

  • PDF

Using Thesaurus for Disambiguation and it's limit (동사의 애매성 해소를 위한 시소러스의 이용과 한계)

  • Song, Young-Bin;Choi, Key-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 2000.10d
    • /
    • pp.255-261
    • /
    • 2000
  • 동사의 애매성 해소는 언어학의 여러 부문 중에서도 가장 실체가 불명확한 의미를 다루는 것이기 때문에 언어학뿐만 아니라 자연언어처리에 있어서도 가장 해결하기 어려운 문제 중에 하나이다. 애매성은 언어학에서 말하는 동음이의어와 다의어를 동시에 포괄하는 개념으로 정의된다. 단일어를 대상으로 한 이와 같은 분류는 비교적 명확한 반면 두 개의 언어 이상의 다국어를 대상으로 하는 기계번역용 사전과 같은 대역사전에 있어서는 동음이의어와 다의어의 구변은 경계가 불명확하여 의미에 기반한 대역어의 작성에 도움이 되지 않는다. 그 원인은 의미를 구성하는 세 가지 요소인 [실체], [개념], [표현]의 관점에서 [실체]와 [개념]은 어느 언어를 막론하고 보편적인 반면 [실체]와 [개념]을 최종적으로 실현하는 형대인 [표현]의 경우 각각의 언어에 따라 그 형태가 다르게 표출된다고 하는 사실 때문이다. [나무]라는 [실체]가 있다고 할 때 [나무]에 대한 [실체]와 [개념]은 언어를 초월해서 공통적이라고 할 수 있다. 한편, [개념]을 표현하는 실체인 [표현]은 언어에 따라 [namu](한국어), [ki](일본어), [tree](영어) 등과 같이 언어에 따라 자의적으로 [개념]을 표현하고 있다. [namu], [ki], [tree]가 같은 뜻을 나타낸다고 인식할 수 있는 것은 [개념]이 같기 때문이지 이들 각각의 [표현]이 의미적 연관성을 갖고 있기 때문은 아니다. 지금까지 의미를 다루는 연구에서는 이와 같은 관점이 결여됨으로 인해 의미의 다양성을 정확히 파악하는 데 한계가 있었으며 애매성 해소에 관한 연구도 부분적 시도에 그친 면이 적지 않다. 본고에서는 다국어를 대상으로 한 대역사전의 구축에 있어서 다의어와 동음이의어에 대한 종래의 분류의 문제점을 지적하고 나아가 애매성 해소의 한 방법론으로 활발히 이용되고 있는 시소러스의 분류체계의 한계를 지적한다. 나아가 이의 해결책을 한국어와 일본어의 대역사전의 구축에서 얻어진 경험을 바탕으로 제시한다.

  • PDF

Rule Construction for Determination of Thematic Roles by Using Large Corpora and Computational Dictionaries (대규모 말뭉치와 전산 언어 사전을 이용한 의미역 결정 규칙의 구축)

  • Kang, Sin-Jae;Park, Jung-Hye
    • The KIPS Transactions:PartB
    • /
    • v.10B no.2
    • /
    • pp.219-228
    • /
    • 2003
  • This paper presents an efficient construction method of determination rules of thematic roles from syntactic relations in Korean language processing. This process is one of the main core of semantic analysis and an important issue to be solved in natural language processing. It is problematic to describe rules for determining thematic roles by only using general linguistic knowledge and experience, since the final result may be different according to the subjective views of researchers, and it is impossible to construct rules to cover all cases. However, our method is objective and efficient by considering large corpora, which contain practical osages of Korean language, and case frames in the Sejong Electronic Lexicon of Korean, which is being developed by dozens of Korean linguistic researchers. To determine thematic roles more correctly, our system uses syntactic relations, semantic classes, morpheme information, position of double subject. Especially by using semantic classes, we can increase the applicability of the rules.

A Study on the Factors Influencing Semantic Relation in Building a Structured Glossary (구조적 학술용어사전 데이터베이스 구축에 있어서 용어의 의미관계 형성에 영향을 미치는 요인에 관한 연구)

  • Kwon, Sun-Young
    • Journal of the Korean Society for Library and Information Science
    • /
    • v.48 no.2
    • /
    • pp.353-378
    • /
    • 2014
  • The purpose of this study is to find factors to affect on the formation of semantic relation from terminology and what is to be affected by these factors to build the database scheme of terminology dictionary by a structural definition. In this research, 826,905 keywords of 88,874 social science articles and 985,580 keywords of 125,046 humanities science articles in the KCI journals from 2007 to 2011 were collected. From collected data, subject complexity, structural hole, term frequency, occurrence pattern and an effect between the number of nodes and the number of patterns which were derived from the semantic relation of linked terms of established 'STNet' System were analyzed. The summarized results from analyzed data and network patterns are as follows. Betweenness Centrality, term frequency, and effective size affect the numbers of semantic relation node. Among these factors, betweenness centrality was the most effective and effective size. But term frequency was the least effective. Betweenness Centrality, term frequency, and effective size affect the numbers of semantic relation type. Term frequency is the most effective. Therefore, when building a terminology dictionary, factors of betweenness centrality, term frequency, effective size, and complexity of subject are needed to select term. As a result, these factors can be expected to improve the quality of terminology dictionary.

The Interpretation of Noun Sequences Using Semantic Relation and Subcategorization Information (의미관계와 문형정보를 이용한 복합명사 해석)

  • Kim, Do-Wan;Lee, Kyung-Soon;Kim, Gil-Chang
    • Annual Conference on Human and Language Technology
    • /
    • 1999.10e
    • /
    • pp.310-315
    • /
    • 1999
  • 본 논문에서는 기계가독형사전과 말뭉치로부터 명사의 의미관계정보를 추출하고, 추출된 의미관계정보와 명사에서 파생된 용언의 문형정보를 이용하여 복합명사를 해석하는 방법을 제안한다. 의미관계정보는 상 하위관계, 목적관계, 위치관계, 시간관계, 소유관계, 원인관계 등 11개에 대해서 정규식 패턴을 정의하여 기계가독형 사전과 말뭉치로부터 추출한다. 복합명사 해석은 한국어 복합명사의 대부분을 차지하는 '수식명사 + 핵심명사' 형태를 해석 대상으로 하며, 핵심명사의 특성에 따라 의미관계정보와 문형정보를 이용하여 해석한다.

  • PDF

The Lexical Sence Tagging for Word Sense Disambiguation (어휘의 중의성 해소를 위한 의미 태깅)

  • 추교남;우요섭
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.201-203
    • /
    • 1998
  • 한국어의 의미 분석을 위해서 의미소가 부여된 말뭉치(Sense-Tagged Corpus)의 구축은 필수적이다. 의미 태깅은 어휘의 다의적 특성으로 인해, 형태소나 구문 태깅에서와 같은 규칙 기반의 처리가 어려웠다. 기존의 연구에서 어휘의 의미는 형태소와 구문적 제약 등의 표층상에서 파악되어 왔으며, 이는 의미 데이터 기반으로 이루어진 것이 아니었기에, 실용적인 결과를 얻기가 힘들었다. 본 연구는 한국어의 구문과 의미적 특성을 고려하고, 용언과 모어 성분간의 의존 관계 및 의미 정보를 나타내는 하위범주화사전과 어휘의 계층적 의미 관계를 나타낸 의미사전(시소러스)을 이용하여, 반자동적인 방법으로 의미소가 부여된 말뭉치의 구축을 위한 기준과 알고리즘을 논하고자 한다.

  • PDF

Semantic Clustering of Predicates using Word Definition in Dictionary (사전 뜻풀이를 이용한 용언 의미 군집화)

  • Bae, Young-Jun;Choe, Ho-Seop;Song, Yoo-Hwa;Ock, Cheol-Young
    • Korean Journal of Cognitive Science
    • /
    • v.22 no.3
    • /
    • pp.271-298
    • /
    • 2011
  • The lexical semantic system should be built to grasp lexical semantic information more clearly. In this paper, we studied a semantic clustering of predicates that is one of the steps in building the lexical semantic system. Unlike previous studies that used argument of subcategorization(subject and object), selectional restrictions and interaction information of adverb, we used sense tagged definition in dictionary for the semantic clustering of predicate, and also attempted hierarchical clustering of predicate using the relationship between the generic concept and the specific concept. Most of the predicates in the dictionary were used for clustering. Total of 106,501 predicates(85,754 verbs, 20,747 adjectives) were used for the test. We got results of clustering which is 2,748 clusters of predicate and 130 recursive definition clusters and 261 sub-clusters. The maximum depth of cluster was 16 depth. We compared results of clustering with the Sejong semantic classes for evaluation. The results showed 70.14% of the cohesion.

  • PDF

Construction of Korean Verb Wordnet Using Preexisting Noun Wordnet and Monolingual Dictionary (명사 워드넷과 단일어 사전을 이용한 한국어 동사 워드넷 구축)

  • Lee, Ju-Ho;Bae, Hee-Suk;Kim, Eun-Hye;Kim, Hye-Kyong;Choi, Key-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 2002.10e
    • /
    • pp.92-97
    • /
    • 2002
  • 의미기반 정보 검색, 자연어 질의 응답, 지식 자동 습득, 담화 처리 등 높은 수준의 자연언어처리 시스템에서 의미처리를 위한 대용량의 지식 베이스가 필요하다. 이러한 지식 베이스 중에서 가장 기본적인 것이 워드넷이다. 이러한 워드넷을 이용함으로써 여러 의미 사이의 의미 유사도를 구할 수 있고, 속성을 물려받을 수 있기 때문에 비슷한 속성을 가진 의미들을 한꺼번에 다루는 데 유용하다. 본 논문에서는 기본 어휘를 바탕으로 기존의 명사 워드넷과 단일어 사전을 이용하여 한국어 동사 워드넷을 구축하는 방법을 제시한다. 본 논문에서 1차 작업을 통하여 구축한 동사 워드넷에는 동사 1,757개에 대한 4,717개의 의미(중복을 포함하면 모두 5,235개의 의미)를 포함하고 있으며 특별히 의미가 많이 편중된 14개의 개념에 속한 571개의 의미를 53개의 세부 개념으로 재분류하여 최종적으로 모두 767개의 계층적 개념으로 구성된 동사 워드넷이 만들어 졌다.

  • PDF

Layerwise Semantic Role Labeling in KRBERT (KRBERT 임베딩 층에 따른 의미역 결정)

  • Seo, Hye-Jin;Park, Myung-Kwan;Kim, Euhee
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.617-621
    • /
    • 2021
  • 의미역 결정은 문장 속에서 서술어와 그 논항의 관계를 파악하며, '누가, 무엇을, 어떻게, 왜' 등과 같은 의미역 관계를 찾아내는 자연어 처리 기법이다. 최근 수행되고 있는 의미역 결정 연구는 주로 말뭉치를 활용하여 딥러닝 학습을 하는 방식으로 연구가 이루어지고 있다. 최근 구글에서 개발한 사전 훈련된 Bidirectional Encoder Representations from Transformers (BERT) 모델이 다양한 자연어 처리 분야에서 상당히 높은 성능을 보이고 있다. 본 논문에서는 한국어 의미역 결정 성능 향상을 위해 한국어의 언어적 특징을 고려하며 사전 학습된 SNU KR-BERT를 사용하면서 한국어 의미역 결정 모델의 성능을 살펴보였다. 또한, 본 논문에서는 BERT 모델에서 과연 어떤 히든 레이어(hidden layer)에서 한국어 의미역 결정을 더 잘 수행하는지 알아보고자 하였다. 실험 결과 마지막 히든 레이어 임베딩을 활용하였을 때, 언어 모델의 성능은 66.4% 였다. 히든 레이어 별 언어 모델 성능을 비교한 결과, 마지막 4개의 히든 레이어를 이었을 때(concatenated), 언어 모델의 성능은 67.9% 이였으며, 11번째 히든 레이어를 사용했을 때는 68.1% 이였다. 즉, 마지막 히든 레이어를 선택했을 때보다 더 성능이 좋았다는 것을 알 수 있었다. 하지만 각 언어 모델 별 히트맵을 그려보았을 때는 마지막 히든 레이어 임베딩을 활용한 언어 모델이 더 정확히 의미역 판단을 한다는 것을 알 수 있었다.

  • PDF