• Title/Summary/Keyword: 단위명사

Search Result 82, Processing Time 0.022 seconds

Method of making a conception class from problem description using sentence analysis (문제기술서의 문장 분석을 통한 개념클래스 도출 방법 제안)

  • Park, Ga-Young;Lee, Yong-Hun;Lee, San-Bum
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.04a
    • /
    • pp.958-961
    • /
    • 2010
  • 본 논문에서는 고객의 초기 요구 문서인 문제 기술서로부터 문장 분석을 통하여 개념클래스를 도출하는 방법에 대하여 제안한다. 문제기술서는 개발할 시스템에 대한 고객의 요구사항을 개괄적으로 작성된 문서로서 요구사항을 분석하고 설계할 때 이용되는 초기 문서 역할을 한다. 개발자는 이 문서의 내용을 바탕으로 시스템에 중요한 개념클래스를 도출하는 작업을 시작한다. 시스템 개발에 사용될 개념클래스들을 도출하는 것은 객체지향적인 설계에서 중요한 과정이다. 문서 기술서로부터 개념클래스 도출 과정은 주로 개발자의 경험과 직관에 의존하는 경향이 있으며 경험이 많은 전문 개발자들은 문제 기술서로부터 개념클래스들을 올바르게 도출할 수 있지만 초보 개발자의 경우 도출에 어려움이 따른다. 이러한 문제점의 개선 방법으로 기술서의 문서에서 문장 단위로 형태소 분석을 통하여 명사와 동사를 추출한다. 추출된 명사를 통하여 2가지 분류 기준에 따라 개념클래스 도출하고, 이후 동사를 이용하여 개념클래스 간의 관계 설정하는 방법을 제안한다.

Using Syntactic Unit of Morpheme for Reducing Morphological and Syntactic Ambiguity (형태소 및 구문 모호성 축소를 위한 구문단위 형태소의 이용)

  • Hwang, Yi-Gyu;Lee, Hyun-Young;Lee, Yong-Seok
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.7
    • /
    • pp.784-793
    • /
    • 2000
  • The conventional morphological analysis of Korean language presents various morphological ambiguities because of its agglutinative nature. These ambiguities cause syntactic ambiguities and they make it difficult to select the correct parse tree. This problem is mainly related to the auxiliary predicate or bound noun in Korean. They have a strong relationship with the surrounding morphemes which are mostly functional morphemes that cannot stand alone. The combined morphemes have a syntactic or semantic role in the sentence. We extracted these morphemes from 0.2 million tagged words and classified these morphemes into three types. We call these morphemes a syntactic morpheme and regard them as an input unit of the syntactic analysis. This paper presents the syntactic morpheme is an efficient method for solving the following problems: 1) reduction of morphological ambiguities, 2) elimination of unnecessary partial parse trees during the parsing, and 3) reduction of syntactic ambiguity. Finally, the experimental results show that the syntactic morpheme is an essential unit for reducing morphological and syntactic ambiguity.

  • PDF

Translation Method of '-hada' verb in a Korean-to-Japanese Machine Translation (한-일 기계번역에서 '하다'용언의 번역 방법)

  • Moon, Kyong-Hi
    • Journal of the Korea Society of Computer and Information
    • /
    • v.10 no.4 s.36
    • /
    • pp.181-189
    • /
    • 2005
  • Due to grammatical similarities, even a one-to-one mapping between Korean and Japanese morphemes can usually result in a high quality Korean-to-Japanese machine translation. So most of Korean-to-Japanese machine translation are based on a one-to-one mapping relation. Most of Korean '-hada' verbs, which consist of a noun and '-hada', also correspond to Japanese '-suru' verbs, which consist of a noun and '-suru', so we generally use one-to-one mapping relation between them. However, the applications only by one-to-one mapping may sometimes result in incorrect Japanese correspondences in some cases that Korean 'hada' verbs don't correspond to Japanese 'suru' verbs. In these cases, we need to handle a noun and '-hada' as one translation unit. Therefore, this paper examined the characteristics of Korean '-hada' verb and proposed transfer rules of Korean 'hada' verb, applying for various states of input sentences such as discontinuity due to inserted words between a noun and '-hada', passivization, and modification of '-hada' verb. In an experimental evaluation, the proposed method was very effective for handling '-hada' verb in a Korean-to-Japanese machine translation, showing high quality of translation results.

  • PDF

Pre-Processing of Korean Syntactic Analyzer for Korean to English MT (한영 자동 번역을 위한 한국어 구문 분석 전처리)

  • 김영길;양성일;서영애;김창현;홍문표;최승권
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10b
    • /
    • pp.175-177
    • /
    • 2001
  • 형태소 해석 결과 생성되는 형태소 옅은 구문 분석을 수행하기에는 적절하지 않은 구문 단위로 구성되어 있는 경우가 많으며 이로 인해 구문 분석기가 불필요한 연산을 수행하여 과도한 구문 트리를 생성하는 원인이 된다. 따라서 본 논문에서는 한영 자동 번역의 한국어 구문 분석기 성능 향상 및 자연스러운 대역문 생성을 위하여 시간 부사구와 명사구에 대한 구묶음을 위한 구문 분석 전처리 방법을 제안하며 이를 위한 각 구 단위의 대역 패턴을 정의한다. 방송자막 및 매뉴얼 문장을 대상으로 실험한 결과, 각 문장 구문 단위를 평균적으로 26% 정도 감소시킴으로써 불필요한 파스 트리의 생성을 배제하여 구문 분석기의 성능을 향상시킬 수 있었다.

  • PDF

Chunking Annotation Corpus Construction for Keyword Extraction in News Domain (뉴스 기사 키워드 추출을 위한 구묶음 주석 말뭉치 구축)

  • Kim, Tae-Young;Kim, Jeong Ah;Kim, Bo Hui;Oh, Hyo Jung
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.595-597
    • /
    • 2020
  • 빅데이터 시대에서 대용량 문서의 의미를 자동으로 파악하기 위해서는 문서 내에서 주제 및 내용을 포괄하는 핵심 단어가 키워드 단위로 추출되어야 한다. 문서에서 키워드가 될 수 있는 단위는 복합명사를 포함한 단어가 될 수도, 그 이상의 묶음이 될 수도 있다. 한국어는 언어적 특성상 구묶음 개념이 적용되는 데, 이를 통해 주요 키워드가 될 수 있는 말덩이 추출이 가능하다. 따라서 본 연구에서는 문서에서 단어뿐만 아니라 다양한 단위의 키워드 묶음을 태깅하는 가이드라인 정의를 비롯해 태깅도구를 활용한 코퍼스 구축 방법론을 고도화하고, 그 방법론을 실제로 뉴스 도메인에 적용하여 주석 말뭉치를 구축함으로써 검증하였다. 본 연구의 결과물은 텍스트 문서의 내용을 파악하고 분석이 필요한 모든 텍스트마이닝 관련 기술의 기초 작업으로 활용 가능하다.

  • PDF

The Layered Structural Tagging Program for Seaching (언어자료 검색을 위한 계층구조형 형태소 분석 프로그램)

  • Kang, Yong-Hee
    • Annual Conference on Human and Language Technology
    • /
    • 2001.10d
    • /
    • pp.89-96
    • /
    • 2001
  • 1999년 제1회 형태소 분석기 및 품사태거 평가 워크숍 이후 표준안에 대한 새로운 대안이나 문제제기등을 제시한 논문은 전무하다. 본 연구에서는 평가대회 참가 이후 표준안을 수정한 새로운 유형의 형태소 분석 프로그램을 제작하여 그 실용성과 앞으로의 발전 가능성과 문제점을 밝혀, 계층구조형의 형태소분석 시스템을 채택하고 있는 일본의 JUMAN을 참조 새로운 유형의 형태소 분석형식을 제시한다. 본 연구는 일본방송협회 방송기술연구소(이하 NHK기술 연구소)의 의뢰에 인한 것이며 어절단위의 표준안과 다른 형태소 단위를 기본요소로 삼고 있으며 활용형을 갖고 있는 용언에 대해서는 활용형의 전개를 하고 있다. 어절단위로 탈피한 이유는 형태소 분석의 기본요소로써 어절단위 보다는 형태소 단위를 기준으로 삼는 것이 생산성이 높다고 생각된다. 어절정보와 문장정보는 XML(extensible makrup language)등의 별도의 정보를 주는 방법을 채택했다. 음절말음이 자음인지 모음인지의 음운 정보에 따라 활용형을 차별했으며 표준안과 달리 명사의 종류와 개념을 세분화했다. 아울러 조사와 어미등의 검색어와 함께 음절을 형성하고 있는 비검색어 대상은 배제하는 프로그램과 표준안의 어절방식으로 출력하는 3가지 프로그램을 작성했다. 본 연구에서는 계층구조의 형태소분석 프로그램의 가능성과 한국어의 특성을 고려한 출력항목등을 고찰하는 것을 목적으로 한다.

  • PDF

Maximally Efficient Syntactic Parsing with Minimal Resources (최소자원 최대효과의 구문분석)

  • Shin, Hyo-Pil
    • Annual Conference on Human and Language Technology
    • /
    • 1999.10e
    • /
    • pp.242-248
    • /
    • 1999
  • 이 논문은 지역적 동사구 분할에 바탕을 두고 서술어가 문말에 위치하는 언어에 특성에서 기인하는 속성을 반영하는 부분적 그러나 빠른 구문분석에 관해 논한다. 즉 완벽성 보다는 신속함 그리고 신뢰에 바탕을 둔 새로운 한국어 구문분석에 대해 논의한다. 기존의 문법이론 대신 한국어의 형태적 통사적 특성에 기인한, 성분들의 분할(partitions)에 의한 단위 (chunks) 분석방법을 제안한다. 근간은 동사구 장벽(VP-barrier) 알고리즘이며, 이 알고리즘은 한 문장안에서의 다양한 동사의 파생접사에 의해 형성되는 관형화, 명사화, 부사화 등의 파생구조와 내포된 동사구(인용문, 종속문 등)에 의해 형성되는 지역적 동사구내에서 그 성분들의 논리적인 분할을 구성하고 다시 그 다음 요소와 체계적으로 결합하는 관계로 확장하여 가능한 구조들을 생성한다. 다시 언어의존적인 발견적 규칙(heuristics)들을 점수화하여 가장 높은 점수의 단위구조를 적격한 구조로 선택한다. 이 방법은 하위범주화 및 의미정보를 사용하지 않는, 빠른 구문분석이 요구되는 시스템을 위해 고안되었으며, 집단적인 노력이 아닌 개인적인 노력 및 최소의 자원으로도 최대의 효과를 얻을 수 있다는데 그 의의가 있다.

  • PDF

A Geo-Historical Research on the Unit of the Ship′s Size (배의 크기 단위에 관한 역사지리학적 연구)

  • Kim, Sung-June;Hugh, Ihl;Cui, Yun-Feng
    • Journal of Navigation and Port Research
    • /
    • v.28 no.5
    • /
    • pp.339-345
    • /
    • 2004
  • The term ton is widely used as the unit of the ship's size. Before people used the term ton as the unit of the ship's size, the various terms had been used for indicating the ship's size. For examples, the term ton was used in Western Europe, last in Northern Europe, cantara in Geneva, milliaria in Venice, and carra in Naple respectively. In Asia the rice had been the most important cargo for many centuries. So the term SEOK in Korean or SHI in Chinese was used as the unit of the ship's size. Especially the Chinese used the term LIAO in Chinese or RYO in Korean for indicating the ship's size. As above seen, the different terms had been used for showing the ship's size from places to places. But with the introduction of Moorsom's Tonnage Measurement in the middle of the 19th century and its spread to all over the world, the term ton was become the only unit of ship's size.

Korean Word Segmentation and Compound-noun Decomposition Using Markov Chain and Syllable N-gram (마코프 체인 밀 음절 N-그램을 이용한 한국어 띄어쓰기 및 복합명사 분리)

  • 권오욱
    • The Journal of the Acoustical Society of Korea
    • /
    • v.21 no.3
    • /
    • pp.274-284
    • /
    • 2002
  • Word segmentation errors occurring in text preprocessing often insert incorrect words into recognition vocabulary and cause poor language models for Korean large vocabulary continuous speech recognition. We propose an automatic word segmentation algorithm using Markov chains and syllable-based n-gram language models in order to correct word segmentation error in teat corpora. We assume that a sentence is generated from a Markov chain. Spaces and non-space characters are generated on self-transitions and other transitions of the Markov chain, respectively Then word segmentation of the sentence is obtained by finding the maximum likelihood path using syllable n-gram scores. In experimental results, the algorithm showed 91.58% word accuracy and 96.69% syllable accuracy for word segmentation of 254 sentence newspaper columns without any spaces. The algorithm improved the word accuracy from 91.00% to 96.27% for word segmentation correction at line breaks and yielded the decomposition accuracy of 96.22% for compound-noun decomposition.

KorLexClas 1.5: A Lexical Semantic Network for Korean Numeral Classifiers (한국어 수분류사 어휘의미망 KorLexClas 1.5)

  • Hwang, Soon-Hee;Kwon, Hyuk-Chul;Yoon, Ae-Sun
    • Journal of KIISE:Software and Applications
    • /
    • v.37 no.1
    • /
    • pp.60-73
    • /
    • 2010
  • This paper aims to describe KorLexClas 1.5 which provides us with a very large list of Korean numeral classifiers, and with the co-occurring noun categories that select each numeral classifier. Differently from KorLex of other POS, of which the structure depends largely on their reference model (Princeton WordNet), KorLexClas 1.0 and its extended version 1.5 adopt a direct building method. They demand a considerable time and expert knowledge to establish the hierarchies of numeral classifiers and the relationships between lexical items. For the efficiency of construction as well as the reliability of KorLexClas 1.5, we use following processes: (1) to use various language resources while their cross-checking for the selection of classifier candidates; (2) to extend the list of numeral classifiers by using a shallow parsing techniques; (3) to set up the hierarchies of the numeral classifiers based on the previous linguistic studies; and (4) to determine LUB(Least Upper Bound) of the numeral classifiers in KorLexNoun 1.5. The last process provides the open list of the co-occurring nouns for KorLexClas 1.5 with the extensibility. KorLexClas 1.5 is expected to be used in a variety of NLP applications, including MT.