• Title/Summary/Keyword: subcategorization

Search Result 31, Processing Time 0.028 seconds

Korean Semantic Role of subcategorization (한국어 서술어와 논항들 사이의 의미역)

  • Kim, Yun-Jeong;Ock, CheolYoung
    • Annual Conference on Human and Language Technology
    • /
    • 2014.10a
    • /
    • pp.143-148
    • /
    • 2014
  • 본 논문은 한국어 문장의 서술어와 공기관계에 있는 논항들의 의미관계를 결정하는 데에 목적이 있다. 본 논문에서는 의미역을 결정하기 위해 기존에 구축된 세종구구조말뭉치를 모단위로 하여 표준국어대사전의 문형을 적용하였다. 또한 의미역을 결정하기 위해 기존 언어학 이론에서의 의미역을 정리하여 광범위한 의미역 판별기준을 세우고 이를 실제 말뭉치에 적용함으로써 자연언어적 처리가 가능하도록 정리하였다.

  • PDF

Two-Level Clausal Segmentation using Sense Information (의미 정보를 이용한 이단계 단문분할)

  • Park, Hyun-Jae;Woo, Yo-Seop
    • The Transactions of the Korea Information Processing Society
    • /
    • v.7 no.9
    • /
    • pp.2876-2884
    • /
    • 2000
  • Clausal segmentation is the method that parses Korean sentences by segmenting one long sentence into several phrases according to the predicates. So far most of researches could be useful for literary sentences, but long sentences increase complexities of the syntax analysis. Thus this paper proposed Two-Level Clausal Segmentation using sense information which was designed and implemented to solve this problem. Analysis of clausal segmentation and understanding of word senses can reduce syntactic and semantic ambiguity. Clausal segmentation using Sense Information is necessary because there are structural ambiguity of sentences and a frequent abbreviation of auxiliary word in common sentences. Two-Level Clausal Segmentation System(TLCSS) consists of Complement Selection Process(CSP) and Noncomplement Expansion Process(NEP). CSP matches sentence elements to subcategorization dictionary and noun thesaurus. As a result of this step, we can find the complement and subcategorization pattern. Secondly, NEP is the method that uses syntactic property and the others methods for noncomplement increase of growth. As a result of this step, we acquire segmented sentences. We present a technique to estimate the precision of Two-Level Clausal Segmentation System, and shows a result of Clausal Segmentation with 25,000 manually sense tagged corpus constructed by ETRl-KONAN group. An Two-Level Clausal Segmentation System shows clausal segmentation precision of 91.8%.

  • PDF

The Construction of Predicate Subcategorization Using Tree Tagged Corpus (구문구조부착 말뭉치를 이용한 술어의 하위범주화 정보 구축)

  • Ryu, Pum-Mo;Jang, Myung-Gil;Park, Soo-Jun;Park, Jae-Deuk;Park, Doing-In
    • Annual Conference on Human and Language Technology
    • /
    • 1997.10a
    • /
    • pp.116-121
    • /
    • 1997
  • 한국어 문장에서 술어의 역할이 매우 중요하기 때문에 술어의 하위범주화 정보는 한국어 분석 및 생성에서 필수적이다. 그러나 기존의 한국어 술어의 하위범주화 사전은 전문가의 사전지식이나 직관에 의존하여 만들어졌기 때문에 주관적이고 오류의 가능성이 높으며 많은 수작업이 필요했다. 또 영역에 독립적인 하위범주화 정보를 구축하는 작업은 매우 어렵기 때문에 응용영역에 맞는 하위범주화 정보를 쉽게 구축하는 방법이 요구되었다. 본 논문에서는 구문구조부착 말뭉치를 이용하여 전문가의 제한된 개입만으로 통계정보와 명사의 의미정보를 포함하는 술어의 하위범주화 정보 구축 방법을 제안한다.

  • PDF

Argumentness and Probabilistic Case Structures

  • Yang, Dan-Hee;Lee, Ik-Hwan
    • Proceedings of the Korean Society for Language and Information Conference
    • /
    • 2002.02a
    • /
    • pp.447-454
    • /
    • 2002
  • This paper proposes that the argument structures be stated in a way that uses probabilities derived from a corpus to replace a Boolean-value system of subcategorization. To do this, we make a cognitive model from a situation to an utterance to explain the phenomena of arguments'ellipsis, though the traditional term ellipsis is not suitable under our new concepts. We claim that the binary distinction is neither rational nor suitable for a real syntactic analysis. To solve this problem, we propose two new concepts argumentness and probabilistic Case structures by adapting the prototype theory. We believe that these concepts are effective in the syntactic analysis of NLP.

  • PDF

Korean Dependency Parser Using Subcategorization Information of Predicates (술어 하위범주화 정보를 이용한 한국어 의존 파서)

  • Jang, Myung-Gil;Lee, Hyun-A;Park, Jae-Deuk;Park, Dong-In;Hwang, Do-Sam
    • Annual Conference on Human and Language Technology
    • /
    • 1996.10a
    • /
    • pp.452-463
    • /
    • 1996
  • 의존 문법을 사용한 의존 파싱에서 기본적인 단어(품사정보)들 사이의 의존 관계 검사에 의한 파싱 방법은 불필요한 의존 관계의 생성을 가져온다. 이러한 과생성을 해결하기 위하여 파싱 단계에서 보다 정교한 의존 파싱을 통해서 불필요한 의존 관계의 생성을 최소한으로 줄이는 방법에 대한 연구가 필요하다. 본 논문은 의존 파싱에서 최소한의 의존 관계를 생성하기 위하여 후보 의존소가 지배가능경로 상에서 술어 지배소와의 의존 관계 검사 시에 술어의 하위범주화 정보를 이용하는 효율적인 의존 파싱 방법을 제안한다. 이것은 의존 파싱의 다음 처리 단계인 의존 제약의 적용에 훨씬 부담을 덜어 줄 수 있다.

  • PDF

Parallels between Korean Verbs and Nouns in Subcategorization (한국어 동사와 명사사이의 하위범주화에 있어서의 평행성)

  • 노용균
    • Language and Information
    • /
    • v.1
    • /
    • pp.27-65
    • /
    • 1997
  • Nouns in the Korean language are subcategorized for various frames(called SUBCAT lists) in much the same way as verbs are. Assuming a monostratal grammar and building on analyses of various 'little elements' as clitics, such as the ones given by No(1991), Chae(1995,1996), and Oh(1991), I delineate the ranges of SUBCAT lists for the Korean verbs and nouns and show that the two word-classes have heavily overlapping frames. Twenty five SUBCAT lists are identified for verbs, and twenty four for nouns, of which twenty three find associated lexical items in both. By the way of justification, I offer analyses of noun--verb collocations in terms of the new five-valued syntactic feature COLLOC along with SUBCAT, which subsume 'light verb' constructions. It is hoped that this work will have given clear syntactic underpinnings to those who are concerned with practical lexicography.

  • PDF

Phonological Constraints in English Morphology (영어 형태론에서의 음운 제약)

  • 김영석
    • Korean Journal of English Language and Linguistics
    • /
    • v.3 no.4
    • /
    • pp.547-570
    • /
    • 2003
  • There are a fair number of suffixes in English whose conditions on attachment refer to stress and/or segmental information contained within the words they attach to (see Siegel 1974, Jespersen 1942 and Marchand 1969). Through a wide study of relevant data, we will delve deeply into such phonological restrictions on the bases, which may as well be divided into four distinct types: haplological constraints; segmental constraints; prosodic constraints; and mixed types. We will further assume here that the category/ subcategorization requirements of affixes are subject to the Projection Principle (PP) as conceived in Kiparsky (1983). It will be shown how this PP interacts with phonological constraints placed upon the affix in question, especially in the treatment of-ful (inventful/mournful) or -en (longen/lengthen). Our account of problematic affixations in English is based on a number of violable constraints in OT.

  • PDF

The Interpretation of Noun Sequences Using Semantic Relation and Subcategorization Information (의미관계와 문형정보를 이용한 복합명사 해석)

  • Kim, Do-Wan;Lee, Kyung-Soon;Kim, Gil-Chang
    • Annual Conference on Human and Language Technology
    • /
    • 1999.10e
    • /
    • pp.310-315
    • /
    • 1999
  • 본 논문에서는 기계가독형사전과 말뭉치로부터 명사의 의미관계정보를 추출하고, 추출된 의미관계정보와 명사에서 파생된 용언의 문형정보를 이용하여 복합명사를 해석하는 방법을 제안한다. 의미관계정보는 상 하위관계, 목적관계, 위치관계, 시간관계, 소유관계, 원인관계 등 11개에 대해서 정규식 패턴을 정의하여 기계가독형 사전과 말뭉치로부터 추출한다. 복합명사 해석은 한국어 복합명사의 대부분을 차지하는 '수식명사 + 핵심명사' 형태를 해석 대상으로 하며, 핵심명사의 특성에 따라 의미관계정보와 문형정보를 이용하여 해석한다.

  • PDF

Development and Automatic Extraction of Subcategorization Dictionary (하위범주화 사전의 구축 및 자동 확장)

  • 이수선;박현재;우요섭
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.179-181
    • /
    • 2000
  • 한국어의 통사적, 의미적 중의성 해결을 위해 하위범주화 사전을 구축하였다. 용언에 따라 제한될 수 있는 문형 패턴과 의미역(semantic roles) 정보의 표준을 정하여 이를 부가하였고 구축한 하위범주화 사전이 명사에 대한 의미를 갖고 있는 계층 시소러스 의미사전과 연동하도록 용언과 명사와의 의미적 연어 관계에 따라 의미마커를 부여했다. 논문에서 구현된 하위범주화 사전이 구문과 어휘의 중의성을 어느 정도 해소하는지 확인하기 위해 반자동적으로 의미 태깅(Sense Tagging)된 말뭉치와 구문분석된 말뭉치를 통해 검증 작업을 수행했다. 이 과정에서 자동으로 하위범주 패턴에 대한 빈도 정보나, 연어정보, 각 의미역과 용언의 통계적 공기 정보 등을 추출하여 하위범주화사전에 추가시켰다. 또한 여기서 얻은 정보를 기준으로 하위범주화 사전을 자동으로 확장하는 알고리즘을 적용하여 확장시켰다.

  • PDF

Why Are Sentential Subjects Not Allowed in Seem-type Verbs in English?

  • Jang, Youngjun
    • Journal of English Language & Literature
    • /
    • v.55 no.6
    • /
    • pp.1245-1261
    • /
    • 2009
  • The purpose of this paper is to show the internal structure of the socalled sentential subject constructions in English. The constructions that we examine in this paper are such as It seems that John failed in the syntax exam vs. *That John failed in the syntax exam seems and It really stinks that the Giants lost the World Series vs. That the Giants lost the World Series really stinks. As seen above, the English verb seem does not tolerate the sentential subject. This is in sharp contrast to other English verbs such as suck, blow, bite, and stink, which do allow the sentential subject. There are several issues regarding these constructions. First, where is the sentential subject located? Second, is the sentential subject assigned structural Case? Third, is the sentential subject extraposed or does it remain in its base-generated complement position? Fourth, is the sentential subject a base-generated topic in the specifier position of CP, as Arlenga (2005) claims? In this paper, we argue that sentential subjects are base-generated in the specifier of the verbal phrase in case of stink-type verbs, while they are licensed as a complement to verbs like seem. We also argue that a sentential subject can be raised in the seem-type verbal constructions, if it were part of the complement small clause.