1997.10a
-
본 논문에서는 인지적 텍스트 이해 모형을 제시하고 이에 기반한 자동 요약 시스템을 구현하였다. 문서는 정보의 단순한 집합체가 아닌 정형화된 언어 표현 양식으로서 단어의 의미적 정보와 함께 표현 양식, 문장의 구조와 문서의 구성을 통해 정보를 전달한다. 요약 목적의 텍스트 이해 및 분석 과정을 위해 경제 분야 기사 1000건에 대한 수동 요약문을 분석, 이해 모델을 정립하였고. 경제 분야 기사 1000건에 대한 테스트 결과를 토대로 문장간의 관계, 문서의 구조에서 요약 정보 추출에 사용되는 정보를 분석하였다. 본 텍스트 이해 모형은 단어 빈도수에 의존하는 통계적 모델과 비교해 볼 때, 단어 간의 관련성을 찾아내고, 문서구조정보에 기반한 주제문 추출 및 문장간의 관계를 효과적으로 사용함으로서 정보를 생성한다. 그리고 텍스트 이해 과정에서 사용되는 요약 지식과 구조 분석정보의 상관관계를 체계적으로 연결함으로서 자동정보 추출에서 야기되는 내용적 만족도 문제를 보완한다.
-
문서 범주화에서 문서의 내용에 따라 적합한 범주의 종류와 수를 찾는 문제를 해결하기 위해서는 문서 당 하나의 범주를 할당할 경우에 가장 좋은 성능을 보이는 모델이 효과적일 것이다. 그러므로, 본 논문에서는 문서 당 하나의 범주를 할당할 경우에 좋은 결과를 보이는 k-nearest neighbor 방법을 이용한다. 그리고 k-nearest neighbor 방법을 이용한 문서 범주화의 성능을 향상시키기 위해서, 문서 표현에 사용하는 단어들을 범주 자질의 성격을 갖는 단어들로 제한하는 방법을 제안한다. 제안한 방법은 Router 신문 일년치로 구성된 Router-21578 테스트 집합에서 breakeven point 82%라는 좋은 결과를 보였다.
-
인터넷과 정보 서비스 기술의 발달로 일반 대중에게 제공되는 정보의 양은 기하급수적으로 증가하고 있는 추세지만 사용자가 원하는 정보를 얻기는 더욱 어려워지고 있으며, 필요한 정보를 찾은 경우에도 그 양이 많기 때문에 전체적인 내용을 파악하는 데 많은 시간을 소비하게 된다. 이러한 문제를 해결하고자 본 연구에서는 통계적 모델을 사용하여 문서로부터 문장을 추출한 후 요약문을 작성하여 사용자에게 제시하는 시스템을 개발하였다. 문서 요약 시스템의 구축을 위하여 사용된 방법은 문서 집합으로부터 중요 문장을 추출한 후 이로부터 요약문에 나타날 수 있는 특성(feature)과 중요 단어를 학습하여 학습된 내용을 이용하여 요약문을 하는 방법이다. 시스템 개발 및 평가를 위해 사용된 문서는 정보 과학 분야의 논문 모음이며 이를 학습 데이터와 실험 데이터로 구분한 후 학습 데이터로부터 필요한 정보를 얻고 실험 데이터로 평가하였다.
-
정보검색 시스템이나 웹(Web)이 방대해지고 초보적 수준의 사용자들이 늘어남에따라 간단한 조작만으로 원하는 정보를 얻어 낼 수 있는 도구의 개발이 점점 중요해지고 있다. 일반적으로 정보검색 시스템 (검색엔진 포함)의 검색되는 결과의 수는 정보검색 시스템 별로 다양하고 많은 시스템들이 검색을 못하거나 방대한 결과를 제시한다. 본 논문은 방대한 결과를 여러가지 다양한 view로 볼 수 있고 사용자의 피드백에 의해 정보를 재 검색함으로서 검색하고자 하는 문서를 보다 정확하게 검색할 수 있도록 도와주는 결과 렌즈 (Results Lens: RL)를 제안한다. 본 논문에서 제시한 결과 렌즈는 다양한 view로의 결과를 수정(refine) 할 수 있으며 웹을 기반으로하는 플러그인(plug-in)으로 제공함으로써 유용성 및 확장성이 크다.
-
이 논문에서는 문장 유사도 측정 기법과 말뭉치 정보를 이용한 문서요약 시스템을 구현하였다. 문서 요약은 문서에서 문장 단위로 단어를 추출하여 문장을 단어의 벡터로 표현하고, 문서 내 단어의 출현빈도와 말뭉치 내 단어의 사용빈도를 이용하여 각 문장의 중요도를 계산한다. 그리고 중요도가 높은 상위 몇 위의 문장을 요약문장으로 추출한다. 실험 결과, 문서내 단어빈도의 중요도를 낮추고, 말뭉치내 일반 사용빈도를 단어의 가중치에 추가했을 때 가장 좋은 효율을 보였다. 또 요약하고자 하는 문서와 유사한 말뭉치를 사용 했을 때 높은 효율을 보였다.
-
본 논문에서는 기존의 키워드 검색 시스템의 불편함과 비효율성을 지적하고 이를 극복하기 위해 한국어 의문문 자체를 질의어로 채택하여 정보를 검색하는 자연어 기반의 정보검색 시스템을 제안하였다. 본 시스템은 주격 주제어와 서술격 주제어는 물론 의문의 초점과 초점 관련 어구에 대해서도 질의어 분석단계에서 분석하여 검색자의 요구에 부응하는 응답문 검색이 가능하도록 설계하였다. 본 논문에서는 의문문 질의 시스템에 적합하도록 의문사를 5형태로 분류하고 실제 한국어 문장에서 이들 각각에 대한 처리를 규칙화시켜 질의어의 체계적인 분석을 시도하였다. 한편, 후보 문장 검색을 위한 색인어로 사용되는 주격 주제어와 서술격 주제어를 정해진 규칙을 통해 추출함으로써 체계적이고 정확도 높은 질의어 분석이 이루어지도록 했다. 뿐만 아니라 의문의 초점과 초점 관련 어구또한 정해진 규칙을 통해 분석 추출함으로써 응답문 검색의 정확성을 높였다.
-
사용자 프로파일(user profile)은 사용자 개개인의 관심 분야를 기술한 것이다. 정보 시스템이 사용자 개개인의 관심 분야를 알고 있다면, 사용자의 관심 분야에 속하는 문서만을 사용자에게 제시해 줌으로써 정보검색의 효율을 높일 수 있다. 사용자 프로파일 관리 시스템은 시간이 지날수록 개인 사용자의 관심분야를 더욱 잘 나타내어야 하고(Specialization), 사용자의 관심 분야가 변화해도 그에 대응해야 하며(Adaptation), 사용자가 흥미있어할 만한 관련 분야도 제시할 수 있어야 한다(Exploration). 본 논문은 기존에 연구되어 왔던 정보여과 시스템에서 사용되는 사용자 프로파일 관리 시스템들의 단점을 보완하고 정보검색 시스템에서도 사용될 수 있는 범용성을 지닌 사용자 프로파일 관리 시스템을 제안한다. 제안하는 사용자 프로파일 관리 시스템은 사용자의 관심분야의 변화를 유전자 알고리즘을 이용하여 모델링하고, 여러 유전자군(群)으로 사용자의 다양한 관심분야를 기술한다.
-
정보 검색에서는 질의문과 문서를 동일한 표현으로 변환시켜 관련성을 비교하게 된다. 특히 질의문과 문서의 언어가 서로 다른 교차 언어 문서 검색 (CLTR : Cross-Language Text Retrieval) 에서 이러한 변환 과정은 언어 변환을 수반하게 된다. 교차 언어 문서 검색의 기존 연구에는 사전, 말뭉치, 기계 번역 등을 이용한 방법들이 있다. 일반적으로 언어간 변환에는 필연적으로 의미의 중의성이 발생되며 사전에 기반한 기존 연구에서는 다의어의 중의성 의미해소를 고려치 않고 있다. 본 연구에서는 질의어의 언어 변환시 한-일 대역어 사전 및 카도가와 시소러스 (각천(角川) 시소러스) 에 기반한 질의어 중의성 해소 방법과 공기하는 대역어를 갖는 문서에 가중치를 부여하는 방법을 제안한다. 제안된 방법들은 일본어 특허 문서를 대상으로 실험하였으며 5 %의 정확도 향상을 얻을 수 있었다.
-
복합명사로부터 적절한 색인어를 추출하는 것은 한국어 정보검색 시스템의 성능 향상에 중요한 역할을 한다. 본 논문에서는 복합명사로부터 색인어 추출을 하기 위해 복합명사 구문 구조 분석 결과를 활용한다. 단일명사가 3개 이상 결합된 복합명사의 경우 각 단일명사의 구문적 관계를 파악하여 적절한 괄호치기를 한 후 색인어를 추출하면 보다 좋은 결과를 얻을 수 있다. 이러한 복합명사 구문 구조 분석을 위해 말뭉치로부터 구조적 중의성이 없는 연어 관계의 완전 복합명사와, 서술성 명사와 공기하는 명사쌍을 추출한 결과를 이용한다. 또한 서술성 명사는 이와 공기하는 명사와 결합되어 복합명사를 이를 가능성이 많고, 복합명사의 형태로 인식되어야만 정확한 의미 파악이 가능하다. 서술성 명사와 공기하는 명사를 파악하여 복합명사를 추출하기 위해서 부분 파서로 공기쌍을 찾아 복합명사 후보를 생성한 후, 이 후보 가운데 적합한 복합명사만을 선택하기 위해 말뭉치에서 추출한 완전 복합명사 사전을 통해 검증한다. 이러한 방법으로 서술성 명사에서 복합명사 형태의 색인어를 추출한다.
-
이 논문은 부산대학교 전자계산학과 인공지능 연구실에서 개발한 정보검색 시스템 "미리내"의 적합성 피드백 방법을 분석하고, 그 방법들의 검색 효율을 비교 분석하였다. "미리내"에서 질의문은 자연언어 질의문을 사용하고 재검색을 위한 적합성 피드백은 원질의문에서 검색된 문서 중 이용자가 직접 선택한 적합 문서에서 추출한다. 적합성 피드백은 크게 단어 확장(Term Expansion)을 위한 단어 선택 방법과 추가될 단어에 가중치를 부여하는 단어 가중치 부여(Term Weighting)의 2가지 요소로 이루어진다. 단어 선택을 위해서는 적합 문서에 나타난 단어 빈도합(tf), 역문헌빈도(idf), 적합 문서 중에서 해당 단어가 있는 적합 문서의 비율(r/R) 등의 정보를 이용한다. 단어 가중치 부여 방법으로는 정규화 또는 코사인 함수를 이용하여 부여하였다. 단어확장에는 tfidf가 tfidf(r/R)보다 정확도 면에서 나은 향상율을 보였으나, 30위 내 검색된 적합문서의 수를 비교해 보았을 때 tfidf(r/R)의 정확도가 높았다. 단어 선택 방법에서 계산된 값을 정규화하여 가중치를 부여하였을 때 보다 코사인 함수를 이용하여 가중치를 부여하였을 때 정확도가 높았다. 실험은 KT-Set 2.0 (4391 건), 동아일보 96 년 신문기사(70459 건)를 대상으로 수행하였다.
-
이글은 한국어 형태소 분석시 발생하는 중의성의 유형에 대해서 논의하고, 그와 같은 여러 유형의 중의성의 발생율을 감소시키기 위한 방법으로써 '어절 정보 사전 시스템'의 구축을 강조하였다. 한국어 문서에 대한 형태소 분석시 발생하는 중의성은, 영어나 유럽어와는 달리, 어휘 형성 정보 뿐아니라 어절 형성 정보, 구문 구조에 관한 부분적인 정보까지도 제공되어야 비로소 해소될 수 있는 경우가 많아 이와 같은 정보를 얻어내기 위해서는 체계적으로 고안된 범용의 사전 (Lexicon)이 필요하다. 여기에서는 접사가 동반되어 구성될 수 있는 '파생 명사(Affixed Noun)'들의 경우에 논의의 범위를 제한하였다. 실제로, 체계적으로 구성된 하나의 파생어 사전은. 주어진 어절에 대한 형태소 분절시 발생할 수 있는 엄청난 수의 중의적 가능성을 해소해 줄 수 있는데. 이와 같은 사전을 구축하기 위해서는 단순어와 접사 사전이 모듈화되어 완성되어야 한다. 같은 방법으로 모든 합성어 유형에 대한 사전이 구축되고, 그러한 기본 형태들에 대한 '변화형' 사전이 결합되면 어절 정보를 갖춘 대용량의 한국어 MRD의 구현이 가능해질 것이다.
-
한국어는 실질형태소와 형식형태소가 결합되는 교착어라는 특성 때문에 품사 모호성을 비롯한 여러 가지 유형의 형태론적 모호성이 발생한다. 형태론적 모호성 해결의 관점에서 형태론적 모호성을 한국어의 특성에 따라 어근 유형 모호성, 형태소 분리 모호성, 형태소 길이 모호성, 불규칙 용언의 원형 복원 모호성, '아/에/이' 탈락 모호성 등으로 분류한다. 이 때 임의의 두 분석 결과에서 발생하는 모호성이 특정 유형에만 속하도록 모호성 유형들을 서로 독립적으로 정의한다. 또한 품사 모호성을 계층적 품사 분류 체계에 따라
$1{\sim}3$ 차적 품사 모호성으로 구분하고 국어사전에서 발견되는 품사 모호성을 분석한다. 이를 기반으로 형태론적 모호성의 유형을 단어 내에서 해결 가능한 것과 그렇지 않은 것으로 구분하여, 단어 내에서 해결 가능한 모호성을 해결하는 방법을 제안한다. -
본 논문에서는 품사 태깅을 위해 여러 통계 모델을 실험을 통하여 비교하였으며 이를 토대로 통계적 모델을 구성하였다. 형태소 패턴 사전을 이용하여 미등록어의 위치와 개수에 관계없는 일반적인 방법의 미등록어 처리 방법을 개발하고 통계모델이 가지는 단점을 보완할 수 있는 오류 수정 규칙을 함께 이용하여 혼합형 품사 태깅 시스템인
$POSTAG^{i}$ 를 개발하였다. 미등록어를 추정하는 형태소 패턴 사전은 한국어 음절 정보와 용언의 불규칙 정보를 이용하여 구성하고 다어절어 사전을 이용하여 여러 어절에 걸쳐 나타나는 연어를 효과적으로 처리하면서 전체적인 태깅 정확도를 개선할 수 있다. 또 오류 수정 규칙은 Brill이 제안한 학습을 통하여 자동으로 얻어진다. 오류 수정 규칙의 자동 추출시에 몇 가지의 휴리스틱을 사용하여 보다 우수하고 일반적인 규clr을 추출할 수 있게 하였다. 10만의 형태소 품사 말뭉치로 학습하고 학습에 참여하지 않은 2만 5천여 형태소로 실험하여 97.28%의 정확도를 보였다. -
한국어의 언어분석을 위한 가공코퍼스의 하나인 품사부착 코퍼스는 형태소 언어분석의 기초가 되는 자료로서 각종 언어분석 모델의 학습자료와 관측자료 또는 검증자료로서 중요한 역할을 한다. 품사부착 코퍼스의 구축은 많은 노력과 시간이 요구되는 어려운 작업이다. 기존의 구축방법은 자동 태거의 결과를 일일이 사람이 확인해 가면 오류를 발견하고 수정하는 단순 작업이었다. 이러한 단순 작업은 한번 수정된 자동태거의 반복적 오류, 미등록어에 의한 오류 들을 계속적으로 수정해야하는 비효율성을 내포하고 있었다. 본 논문에서는 HMM기반의 자동 태거를 사용하여 1차적으로 한국어 문서를 자동 태깅한다. 자동 태깅 결과로부터 규칙기반의 오류 수정을 추가적으로 행한다. 이렇게 구축된 결과를 사용자에게 제시하여 최종 오류를 수정하고 이를 앞으로의 태깅작업에 반영하는 품사부착 워크벤치에 대해 기술한다.
-
기존의 품사 태깅 방법에서 독립적으로 사용해온 언어 지식과 통계 정보는 품사 태깅의 정확도와 처리 범위의 향상을 위해서 상호 보완적인 특성을 갖는다. 이에 본 논문은 언어 지식과 통계 정보의 보완적 특성을 이용한 규칙 우선 직렬 품사 태깅 방법을 제안한다. 제안된 방법은 언어 지식에 의한 품사 태깅 결과를 선호함으로써 규칙 기반 품사 태깅의 정확도를 유지하며, 언어 지식에 의해서 모호성이 해소되지 않은 어절에 통계 정보에 의한 품사 태깅 결과를 할당함으로써 통계 기반 품사 태깅의 처리 범위를 유지한다. 또한, 수정 언어 지식에 의해 태깅 결과의 오류를 보정함으로써 품사 태깅의 정확도를 향상시킨다. 약 2만 어절 크기의 외부 평가 코퍼스에 대해 수행된 실험 결과, 규칙 우선 직렬 품사 태깅 시스템은 통계 정보만을 이용한 품사 태깅의 정확도보다 32.70% 향상된 95.43%의 정확도를 보였다.
-
자연언어를 처리하는 응용시스템에서는 의미적으로 유사한 집합으로 분류된 단어들을 이용하는 것이 필요하다. 특히 한국어에서는 명사마다 함께 쓰이는 용언들이 제한되어 있다. 이 논문에서는 문장에서 용언과 명사의 구문 관계로 추출되는 정보를 이용하여 명사를 분류하는 방법을 제시한다. 또한 실제 코퍼스에서 추출된 명사들을 중심으로 의미적 집합으로 묶는 작업을 하고, 각 의미군마다 특징적인 구문 정보를 적용하여 자동 명사 추출에서 나타나는 모호성 해소에도 이용하였다. 용언의 구문관계 추출은 기존 연구된 용언 하위 분류 연구를 이용하였고, 코퍼스를 통해 얻은 명사와 용언을 이용하여 수정 및 보완하였다. 실험 코퍼스는 1만 문장 가량의 구문 구조가 부착된 코퍼스(Tree Tagged Corpus)를 이용하였다.
-
한국어 문장에서 술어의 역할이 매우 중요하기 때문에 술어의 하위범주화 정보는 한국어 분석 및 생성에서 필수적이다. 그러나 기존의 한국어 술어의 하위범주화 사전은 전문가의 사전지식이나 직관에 의존하여 만들어졌기 때문에 주관적이고 오류의 가능성이 높으며 많은 수작업이 필요했다. 또 영역에 독립적인 하위범주화 정보를 구축하는 작업은 매우 어렵기 때문에 응용영역에 맞는 하위범주화 정보를 쉽게 구축하는 방법이 요구되었다. 본 논문에서는 구문구조부착 말뭉치를 이용하여 전문가의 제한된 개입만으로 통계정보와 명사의 의미정보를 포함하는 술어의 하위범주화 정보 구축 방법을 제안한다.
-
대부분의 한국어 형태소 분석기는 파생명사나 합성명사가 포함된 어절을 오분석 또는 과분석하는 경향이 있다. 이는 하나의 어절에서 오분석이나 과분석을 방지하기 위하여 획득할 수 있는 정보가 제한적이기 때문이다. 이에 본 논문은 파생명사나 합성명사 후보가 포함된 어절뿐만 아니라 주변 및 전문에서 분석에 필요한 정보를 수집하여 이용하는 방법을 제시한다. 제안한 방법은 오분석된 파생명사나 합성명사에만 나타나는 저빈도 단어를 제거하고, 파생명사나 합성명사 후보의 주변 어휘들을 실마리로 이용하며, 문서 전역에서 동일한 파생명사나 합성명사 후보가 포함된 둘 이상의 어절을 비교분석하여 파생명사 및 합성명사 후보가 포함된 어절을 처리한다. 실험 결과 제안한 방법은 99.8%의 정확도와 95.3%의 재현율로 파생명사나 합성명사 후보가 포함된 어절을 올바르게 분석할 수 있었다.
-
한국어 명사들을 의미별로 분류하여 계층화시킨 '한국어 명사 의미 계층 구조'는, 한국어 문장을 처리할 때 한국어의 의미 정보를 제공할 수 있는 매우 중요한 정보들 중의 하나이다. 본 논문에서는, 국어 사전의 명사에 대한 뜻풀이말을 이용하여 bottom-up 방식으로 '한국어 명사 의미 계층 구조'를 구축하였다. 본 논문에서 구축한 '한국어 명사 의미 계층 구조'는, tree가 43개, node가 12,833개, terminal node가 10,347 개이며, 깊이가 17인 하나의 forest이다. 이것의 제 1, 2 계층(level 1,2)에서의 분류 형태는 top-down 방식에 의한 기존의 분류들과 매우 다른 모습인 반면에, 제 3 계층 이하에서의 분류 형태는 의미소성(意味素性)에 의한 기존의 분류와 거의 일치하는 모습을 나타낸다.
-
의존 명사와 이를 꾸미는 관형어는 통사적으로 긴밀한 언어학적 단위를 이루므로 의존 명사에 대한 하위 범주 분류는 한국어 자연어 처리에 있어서 중요하다. 그러나 기존 국어 문법에서는 이 문제가 일관성 있게 다루어지지 않았다. 이 논문에서는 국어 사전(조재수 1997)에 올라 있는 의존 명사 600여 개를 허웅(1996)의 분류 기준을 보완하여 일관성 있게 하위 범주 분류를 시도하였다. 또 수량 단위 명사는 앞에 오는 수사의 종류에 따라 더 세분하였다.
-
기존의 맞춤법 검사기의 단점인 오류 수정 작업과 처리 시간을 감소시키면서, 높은 오류 교정의 정확률을 보장하는 자동 오류 교정 시스템의 개발을 위한 첫 단계로써 한국어 오류의 80% 이상을 차지하는 띄어쓰기 오류에 대한 자동 교정 시스템을 개발하였다. 본 논문에서는 우리가 사용하는 일반 문서에서 띄어쓰기가 잘못된 단어에 대한 교정과 오류 단어에 대한 검색을 행하기 위하여, 띄어쓰기 교정 시스템의 개발 단계에서 현실적으로 고려해야 할 사항과 교정 정확률 및 처리 속도를 높이기 위한 본 시스템의 띄어쓰기 오류 루틴을 제시한다. 본 시스템의 처리 결과, 올바른 어절을 제외한 띄어쓰기가 잘못된 오류 단어(띄붙 오류와 붙띄 오류 포함)에 대해 약 98.7%의 띄어쓰기 교정 성공률을 보였다.
-
최근 들어 인쇄체 문자 인식 기술의 발전에 힘입어 필기체 한글 인식에 관한 연구가 활발히 진행되고 있다. 인쇄체 문자와는 달리 자연스럽게 필기된 한글 글씨는 동일한 문자라 하더라도 같은 모양을 가지고 있다고 단정하는 것이 불가능할 정도로 필기자의 필기 유형에 따른 다양한 변형을 내포하고 있다. 따라서 효과적인 한글 글씨 인식기를 개발하기 위해서는 다양한 변형을 포함하는 대용량의 한글 글씨 영상 데이터베이스가 필수적이다. 본 논문에서는 시스템공학연구소 주관 국어 정보 베이스 개발 사업의 일환으로 고려대학교에서 구축 중인 오프라인 한글 글씨 영상 데이터베이스, KU-1에 대해 간략히 소개하고자 한다. 본 데이터베이스는 KS C 완성형 한글 사용 빈도순 상위 1,500자에 대하여 다양한 계층, 직업, 연령, 지역 분포를 고려한 1,000명 이상의 필기자가 정서체와 본인의 평소 자유 필체로 필기한 1,000벌의 명도 한글 글씨 영상으로 구성되어 있다.
-
본고는 우리말에서 빈번하게 일어나는 축약 및 생략 현상을 언어학적으로 규명하기 위한 노력의 일환으로,. 이를 위해 실제 대화체에서 나타나는 격조사 생략현상에 대한 관찰결과를 기술적으로 분석하고, 이를 토대로 향후 대화체 이해 시스템 구현을 위한 생략된 격조사 복원연구의 방향을 제시한다. 연구를 위해 녹취한 약 한시간 분량의 2인 흑은 3인의 자연스런 라디오 대담 프로그램 전화대화들을 전사한 자료를 중심으로, 실제 대화에서 실현되거나 생략된 격조사들을 유형별로 분석한 격과를 보고하고, 기존의 연구 및 관찰에 경험적 타당성을 제공함과 동시에 그들의 분석을 대화이해 시스템에 구현하고자 할 때 발생할 수 있는 문제점을 지적한다. 나아가 격조사가 생략된 명사구들이 나타나는 환경을 통사 및 담화적 특성에 따라 분류함으로써, 대화이해 시스템 구현을 목적으로 하는 격조사 생략현상 연구 및 이를 토대로 한 명사구와 용언 사이의 문법적 의미적 관계 규명을 위한 향후 연구에서 어휘 부의 확장 필요성을 논한다.
-
효율적인 정보전달이란 글꼴 자체의 모양뿐만 아니라 본문 배치에 함께 사용되는 여러 요인에 의해 영향을 받는다. 본문의 가독성에 대한 연구는 주로 글자모양, 글줄길이, 글자크기, 글줄간격 등을 조작하여 읽기 시간을 측정한 것이거나 시각적 이미지 및 선호도 조사였다. 본 논문에서는 컨조인트 분석을 사용하여 가독성에 영향을 미치는 요인들이 본문 선호도판단에 미치는 상대적 중요도를 살펴보았다. 글자넓이가 가장 중요한 요인이었고, 글자크기, 글자모양, 글줄간격, 글자간격 순서로 나타났다. 글줄길이는 그다지 중요하지 않은 것으로 나타났다. 이런 결과는 전달수단으로서의 기능적인 한글 타이포그라피에서 인간의 선호를 어떻게 고려해야 하는지에 대한 이해에 도움을 줄 것이다.
-
지금까지의 한글 문자인식 후처리 연구분야에서 미등록어와 비문맥적 오류 문제는 아직까지 잘 해결하지 못하고 있는 문제이다. 본 논문에서는 단어로서 가능한지를 결정하는 기준으로 확률적 음절 결합 정보를 사용하여 형태소 분석 기법만을 사용했을 때 발생할 수 있는 미등록어 문제를 해결하고, 통사적 기능의 어말 어휘를 고려한 문맥 결합 정보를 이용함으로써 다수의 후보 어절 가운데에서 최적의 후보 어절을 선택하는 방법을 제안한다. 제안된 시스템은 인식기에서 내보낸 후보 음절과 학습된 혼동 음절을 조합하여 하나 이상의 후보 어절을 생성하는 모듈과 통계적 언어 정보를 이용하여 최적의 후보 어절을 선정하는 모듈로 구성되었다. 실험은 1000만 원시 코퍼스에서 추출한 음절 결합 정보와 17만 태깅된 코퍼스에서 추출한 어절 결합 정보를 사용하였으며, 실제 인식 결과에 적용한 결과 문자 단위에서는 94.1%의 인식률을 97.4%로, 어절 단위에서는 87.6%를 96.6%로 향상시켰다. 교정률과 오교정률은 각각 문자 단위에서 56%와 0.6%, 어절 단위에서 83.9%와 1.66%를 보였으며, 전체 실험 어절의 3.4%를 차지한 미등록어 중 87.5%를 올바로 인식하는 한편, 전체 오류의 20.3%인 비문맥 오류에 대해서 91.6%를 올바로 교정하는 후처리 성능을 보였다.
-
세금계산서나 영수증등의 형식문서를 처리하기 위해서는 일반문서와는 달리 형식문서에서 인식의 대상이 되는 특정 셀에 대한 추출이 필요하다. 본 논문에서는 정형화된 형식문서에서 원하는 특정 셀의 내용만을 추출하는 방법을 제시하고자 한다. 제안된 방법은 지정된 셀을 이루고 있는 라인을 제거하는 것과, 라인제거시 손상된 문자를 복원하는 과정으로 나뉜다. 우선 라인들의 평균적인 두께를 구한 후 라인을 트레이스(trace)하면서 이 두께 범위내에 있는 라인은 지운다. 트레이스하는 과정에서 두께보다 큰 라인은 문자와 접촉된 것으로 판단하여 이 접촉된 좌표를 저장한 후 미리 정의된 접촉유형을 이용하여 문자의 복원 작업을 수행한다.
-
한국어 문자 인식 후처리는 인식기가 제공하는 후보 음절을 바탕으로 후처리를 하였다. 이 논문은 문자 인식기가 제공하는 후보 음절 대신에 인식기의 인식 결과를 분석하여 인식기의 오인식 통계 정보에 따라 인식 결과 음절의 후보 음절을 생성한다. 여기서 생성된 후보 어절을 각 음절의 확률 값을 이용하여 확률이 가장 놓은 어절을 선택한다. 이때 한국어 대용량 말뭉치에서 추출한 어절의 통계정보를 이용하여 그 어절의 확률 값을 구한다. 이 기법의 장점은 후보 음절의 조합으로 생성된 어절의 확률 값과 그 어절의 말뭉치상의 확률 값을 이용한 결과 말뭉치에 포함된 미등록어 정보에 따라 형태소 분석이 되지 않는 미등록어 처리가 가능하다. 또한 후보 어절 중 형태소 분석이 성공하는 어절이 두개 이상 있을 경우 실제 거의 쓰이지는 않지만 단지 음절의 확률 값이 높아 우선으로 선택되는 경우를 방지하였다. 실험은 약 1,000page 분량의 실험을 통해 오인식 결과를 수집하고, 4000만 원시 말뭉치에서 구한 어절의 통계정보를 이용하였다. 그 결과 문자 인식기의 98.05%의 어절 인식률을 후처리 결과 99.52%로 향상시켰다.
-
본 논문에서는 글꼴의 변화와 잡영을 흡수할 수 있도록 자소의 탐색 영역을 정의 하였으며 이 영역에 나타나는 횡모음과 종모음의 주획을 추출하는 방법을 기술하였다. 종모음 영역에서 추출한 수직획들과 횡모음 영역에서 추출한 수평획들을 각각 종모음과 횡모음의 주획이 될 수 있는 후보들로써 이들로 부터 종모음과 횡모음의 존재를 파악하는 것이 한글 유형 분류의 주된 내용이다. 그러나 다양한 글꼴에 나타나는 수평획들로부터 곧바로 횡모음의 존재를 파악하는 것은 쉬운 문제가 아니다 본 논문에서는 기존의 트리 분류기를 확장하여 복잡하고 다양한 특징을 단계별로 단순화시키고 트리 분류기의 상위 노드에서 결정된 정보와 제약 조건을 이용하여 유형을 분류하는 방법을 제안하였다. 제안된 방법은 한글 상위 빈도 1405자, 3가지 글꼴에 대하여 99.8 %의 유형 분류율을 보이고 있다.
-
본 논문에서는 계층적 랜덤 그래프를 이용한 필기 한글 인식 방법론을 제안한다. 한글은 다른 문자와 달리 기본 자소의 조합으로 이루어진 문자로서 2차원 평면상에 표현된다. 이러한 한글의 특성과 필기된 한글에서 나타나는 다양한 변형을 통계적으로 모델링하기 위해서 계층 그래프를 이용하였다. 특히, 계층 그래프의 최 하위 계층에서는 필기된 획의 변형을 흡수할 수 있도록 확장된 랜덤 그래프를 적용하였다. 제안된 모델은 통계적 모델이기 때문에 필기 데이터베이스로부터 모델의 파라미터를 구할 수 있다는 장점이 있다. 실험에서 제안된 모델을 필기 한글 인식 문제에 적용하여 자소간 접촉된 문자나 어느 정도의 흘려 쓴 문자도 잘 인식할 수 있음을 보였다.
-
웹검색엔진은 색인되는 웹문서가 많아질수록 시스템 확장성(scalability)이라든지, 데이터베이스 유지 관리의 용이성, 데이터의 안전성 문제, 등의 많은 문제가 웹검색엔진에 부담으로 주어지게 된다. 반면에 인트라넷(intranet)용 검색엔진의 경우는 확장성보다는 검색엔진 자체의 개발의 용이성이 더욱 중요하다. Oracle
$ConText^{TM}$ 는 오라클 사(社의) RDBMS인$Oracle7^{TM}$ 의 정보검색 확장 옵션으로 텍스트를 Oracle7의 기본 데이터 타입으로 사용될 수 있게 한다. Oracle7+ConText는 대용량의 문서 베이스와 개발의 용이성을 동시에 보장할 수 있는 매우 훌륭한 웹검색엔진 개발 도구이다. 우리는 이를 검증하기 위하여 Oracle7+ConText에 기반한 WEBSECT(Web Search Engine With ConText)라는 웹검색엔진을 개발하였다. 본 논문은 WEBSECT의 개발과 시험 운영을 통해 데이터베이스에 기반한 웹검색엔진의 우수한 확장성과 텍스트 애플리케이션 개발의 용이성 등을 소개한다. -
에이전트는 분산 환경에서 작업을 수행하는 지적인 특성을 갖는 응용 프로그램으로 정의되며, 연구 분야에 따라 다양한 의미로 해석이 가능하다. 그중에서 로봇 에이전트는 전세계에 산재된 방대한 양의 정보를 스스로 추적하며 새로운 정보를 찾는다. 로봇 에이전트에 대한 기존의 연구는 대부분 통계적인 목적이나 검색엔진을 위한 데이터의 수집을 목적으로 사용되었다. 많은 정보를 수집하기 위해 더 높은 성능의 로봇 에이전트들이 제작되었고, 이러한 프로그램들이 팽창하면서 네트워크를 과부하시키는 현상을 초래하게 되었다. 재귀적인 방법으로 수행되는 로봇 에이전트의 사용을 억제하기 위한 연구들이 많이 발표되었으나, 수동적인 방법에 의존하는 연구가 대부분이며 대표적인 것이 로봇 배제를 위한 표준안 정도이다. 본 연구에서는 이러한 로봇 에이전트의 문제점을 개선하여, 서버와 클라이언트간에 대화형으로 수행되는 인덱스 로봇 에이전트를 제안하며, 사용자의 요구에 따라 수행되는 로봇 에이전트에 의한 정보 획득의 방법을 시도하여 네트워크의 과부하를 억제하면서도 정보의 신뢰성과 정확성을 보장한다.
-
이 논문은 인터넷 홈페이지를 검색하는 정보검색시스템인 미리내 시스템을 제시한다. 웹 문서의 특성을 고려하여 로봇의 기능을 확장하고, 색인, 등록, 수정, 삭제, 분류의 자동화를 구현하여 관리효율을 높인다. 자동화에 따른 문제점과 해결방법을 제시하고, 불리언질의검색 외에 자연언어질의 검색에서 질의어 확장의 방법으로 웹페이지 링크속성검색, Relevance feedback을 통한 검색효율을 높인다.
-
일반적으로 전제는 상황에 의해서 취소되지 않는 한, 투사되는 경향이 있다는 것이 관찰되어 왔다. 만족 이론 (satisfaction theory)은 이 경향을 포착하지 못하고. 지시 조응 분석(anaphora analysis)은 이 경향을 설명하려고 했지만 설명이라기 보다는 규정에 가깝다. 본 논문에서는 전제가 정보전달의 한 방법으로서 문장의 다양한 해석을 야기하고, 그 중 정보성이 높은 해석이 선호된다는 주장을 함으로써 이 경향을 설명한다. 이를 위해 어떻게 다양한 해석이 도출되는가를 보여주고, 정보성의 척도를 소개하며, 문장 해석의 정보성을 결정하는 연산자들의 정보성에 관련된 특성을 살핀다. 이로부터 관찰된 전제의 투사 현상을 설명한다. 끝으로 정보성이 높은 해석을 선호하는 것은 경제성과 합리성에 근거한다는 것을 지적한다.
-
본 논문은 다국어 자동번역시스템에서 다국어의 번역지식(사전,규칙,정보)구축을 위해 언어유형론을 도입하는 방법론을 제안한다. 다국어 번역지식의 구축과 관련하여 기존 다국어 자동번역 시스템들에서 항상 문제가 되고 있는 것은 번역지식의 구축, 관리, 재활용의 문제이다. 번역지식의 구축은 다국어를 위한 번역지식의 크기, 다국어의 수용정도와 관련되며, 번역지식의 관리는 번역지식의 단순화 정도와 관련되며, 번역지식의 재활용은 기존에 구축된 번역지식을 새로운 언어들에 재사용 정도와 관련된다. 이러한 문제점들을 해결하기 위해 본 논문에서는 한국어를 포함한 다국어의 언어 친족성에 따라 번역지식을 공유하도록 하는 언어유형론에 기반한 다국어 공용 번역지식 구축 방법론을 제안하고자 한다.
-
An, Dong-Un;Ryu, Hong-Jin;Seo, Jin-Won;Lee, Young-Woo;Jeong, Sung-Jong;Yuh, Sang-Hwa;Kim, Tae-Wan;Park, Dong-In 249
영어 웹 문서를 한국어로 기계번역을 하기 위해서는 HTML 태그를 번역 대상 문장과 분리하는 처리가 필요하다. HTML 태그를 단순히 제거하는 것이 아니라 대상 문장의 기계번역이 종료된 후에 같은 형태의 한국어 웹 문서로 복원하기 위한 방안이 마련 되어야 한다. 또한 문서 전처리기에서는 영어 형태소해석기의 성능을 높이기 위하여 번역 단위가 되는 문장의 인식 및 분리, 타이틀의 처리, 나열된 단어의 처리, 하이픈 처리, 고유명사 인식, 특수 문자 처리, 대소문자 정규화, 날짜 인식 등을 처리하여 문서의 정규화를 수행한다. -
일반적으로 한국어는 띄어쓰기 단위인 어절이 형태소 분석의 입력 단위로 쓰이고 있다. 그러나 실제 영역(real domain)에서 사용되는 텍스트에서는 띄어쓰기 오류와 같은 비문법적인 형태도 빈번히 쓰이고 있다. 따라서 형태소 분석 과정에 선행하여 적합한 형태소 분석의 단위를 인식하는 과정이 이루어져야 한다. 본 연구에서는 한국어의 음절 특성을 이용한 형태소분석을 위한 어절 인식 방법을 제안한다. 제안하는 방법은 사전에 기반하지 않고 원형코퍼스(raw corpus)로부터의 필요한 음절 정보 및 어휘정보를 추출하는 방법을 취하므로 오류가 포함된 문장에 대하여 견고한 분석이 가능하고 많은 시간과 노력이 요구되는 사전구축 및 관리 작업을 필요로 하지 않는다는 장점이 있다. 한국어 어절 인식을 위하여 본 논문에서는 세가지 확률 모텔과 동적 프로그래밍에 기반한 인식 알고리즘을 제안한다. 제안하는 모델들을 띄어쓰기 오류문제와 한국어 복합명사 분석 문제에 적용하여 실험한 결과 82-85%정도의 인식 정확도를 보였다.
-
일본어에서 조동사 "-reru, -rareru"는 '피동', '가능', '자발', '존경' 등의 의미로 두루 쓰이고 있다. 일한 번역에서 이들은 여러 가지 대역어로 나타나며 일정한 규칙이나 패턴을 취하지 않으므로, 기계 번역시 조동사 "-reru, -rareru"는 그 처리가 쉽지 않다. 더구나, 조동사 "-reru, -rareru"는 일본어에서 높은 빈도로 등장하여 무시하기 어렵고 의미별 분포가 고루 퍼져 있어, 대표적 대역어인 "-아/어/여 지다. -되다" 등으로만 대응시킬 경우의 번역 에러는 의외로 치명적이다. 따라서, "-reru, -rareru"의 번역을 고려한 특수 처리를 행할 필요가 있다. 먼저, 본 논문에서는 조동사 "-reru, -rareru"가 포함된 아사히 신문 가사의 5,800여 문장을 대상으로 각각의 의미에 대한 분포 및 한국어 대역어의 빈도를 조사하였다. 대역어는 크게 8종류의 형태로 나누었으며 각 동사별로 "-reru, -rareru"와 결합된 경우의 의미 출현 빈도를 참고하여 대응 가능한 대역어 형태들을 미리 결정하였다. 그리고, 대역어가 여러 개 존재하는 경우는 패턴 매칭을 통하여 적절한 대역어를 선택할 수 있도록 하였다. 그 결과, 약 87%의 "-reru, -rareru"가 적절한 대역어로 번역되어, 본 논문에서 제시한 의미 출현 빈도에 기반한 각 동사별 대역어 형태 결정 방법이 "-reru, -rareru"의 다의성 해소에 유효하다고 판단된다.
-
대화체는 문어체와는 달리 화자와 청자 사이의 질의/응답으로 이루어진 형태의 문장들을 가지며, 생략과 대용어가 빈번히 발생하는 특징을 갖는다. 이러한 대화 형태에서 어떠한 한 문장에는 화자가 전달하고자 하는 의도를 포함하고 있다. 이러한 대화체 문장들을 번역하는 것은 단순한 언어적 분석에 의한 번역으로서는 많은 번역상의 오류가 발생하게 된다. 따라서 대화체 문장들의 올바른 번역을 위해서는 대화의 상황을 반영하는 문맥 정보가 부가적으로 요구된다. 본 연구에서는 이러한 문맥 정보로서 화행을 사용하여 대화체 기계번역을 수행하고자 한다. 화행(Speech Act)이란 화자에 의해 의도되어 발화 속에 포함된 언어적 행위를 나타내며, 이러한 화행을 분석함으로써 화자의 의도를 파악하고 이를 통해 올바른 번역을 수행할 수 있게 된다. 본 기계번역 시스템에 포함된 화행 분석 과정에서는 대화를 화행으로 모델링한 담화 문법과 유사한 형태의 재귀적 대화 전이망(Recursive Dialog Transition Network)을 사용하게 된다. 본 논문에서는 호텔 예약 영역에서의 기계번역 시스템에 대한 간단한 소개와 화행의 종류 및 분석 방법과 이를 통한 기계번역 방식에 대해 살펴보도록 하겠다.
-
최근 들어 웹 상의 문서를 번역해 주는 번역 시스템이 상용화되고 있다. 일반 문서와 달리 웹 문서는 HTML 태그를 포함하고 있어 번역 시스템에서 문장 단위로 분리하는데 어려움이 있다. 또한 그 대상 영역이 제한되지 않으므로 미등록어 및 구문 분석 실패에 대한 대처 기능이 필요하다. 따라서 웹 문서의 번역 품질이 일반 문서 번역에 비해 현저히 떨어지게 된다. 이 논문에서는 HTML 태그를 보유한 영어 웹 문서를 대상으로 하는 번역 시스템인 "에서로-웹/EK"에 대해 기술한다. 에서로-웹/EK는 HTML 문서의 특성을 고려하여 태그를 분리, 복원하는 태그 관리자를 별도로 가진다. 또한 태그를 유지하면서 영어에서 한국어로 변환되는 과정에서 발생하는 어휘 분리, 어휘 통합, 어순 변환 둥의 다양한 변환 현상을 처리한다. 이 시스템은 변환 방식에 기반한 번역 시스템으로서 영어 해석, 영한 변환, 한국어 생성의 단계를 거친다. 구현된 시스템은 Netscape와 DDE(Dynamic Data Exchange) 방식으로 연동하여 HTML 문서를 번역한다.
-
본 논문에서는 당 연구소 주관으로 연구개발정보센터(KORDIC), 서울대와 공동으로 개발중인 한영 기계번역 시스템, '에서로/KE'의 prototype system을 설명한다. 에서로/KE는 KORDIC에서 한국어 형태소 분석기와 Tagger를 개발하고, 서울대에서 한국어 구문해석기와 한영 변환기를 개발하고, SERI에서 영어 구문 생성기와 영어 형태소 생성기를 개발한다. 한국어 Tagger는 HMM에 기반하여 제작되었으며 sample 200문장에 대해 98.9%의 정확률을 보인다. 한국어 구문 해석기는 의존 문법에 기반하여 CYK 알고리즘을 사용하여 제작되었으며 중의성 해결을 위해 29개의 최적 parse 선택 규칙이 구현되어 있다. 한영 변환기는 collocation과 idiom에 기반하여 한영 변환을 수행한다. 영어 구문 생성기는 Tree 변환 언어인 GWL(Grammar Writing Language)를 사용하여 작성되었으며, 영어 형태소 생성기는 최종적으로 자연스러운 영어 표층문을 생성한다. 에서로/KE는 현재 1차년도 Prototype system이 Unix 환경에서 구현되어 있으며, 현재 각 모듈별 성능 개선과 대량 사전 구축을 통해 상용화될 예정이다.
-
본 논문은 복합 단위 정보를 이용하여 모호성을 감소시키고 자연스러운 대역어 정보를 제공할 수 있는 차트파서를 기술한다. 복합 단위 정보를 사용하는 파싱은 태깅과 구문 분석 과정 사이에서 여러 단어들을 하나의 단위로 만들어서 형태론적/구문적 모호성과 파스 트리의 수를 감소시킨다. 우리는 Bottom-up 차트 파싱을 사용하는데, 이는 모호성 있는 태깅 결과가 많을수록 파스 트리의 생성 시간과 수의 증가를 초래하므로 복합 단위를 사용하여 파서에 대한 입력 단어의 수 및 모호성을 감소시켜 안정적인 파싱 결과를 얻을 수 있게 한다. 실험 결과는 복합 단위 정보를 사용한 차트 파싱이 차트들의 크기와 파스 트리의 수를 50%까지 감소시킴을 보여준다.
-
본 논문은 일본어 작문지원시스템에 관한 것으로서, 사용자가 일본어에 대한 언어지식이 전혀 없더라도 한국어 작성 능력만으로 일본어를 작문할 수 있도록 지원하는 일본어 작문지원 시스템 개발 방법에 관한 것이다. 본 논문에서 제안하는 일본어 작문지원 시스템은, 사용자가 일어로 작문하고자 하는 문장을 한 국어의 어절단위 또는 연속된 문자열로 작성해 나가면, 시스템이 자동개입하여 한국어 분석기술과 일본어로의 변환/생성 기술로 일본어의 대응 문자열을 생성해 준다. 따라서 한국어 작성능력만으로 일본어를 작문할 수 있도록 지원한다. 특히, 한국어 분석의 중의성과 일본어 변환시 대응어 선택의 중의성 문제가 있을 경우에는, 사용자가 시스템이 사용자 대화창에 제공하는 한국어 도움말 정보를 참조하여 선택함으로서 문제점을 해소하여 정확한 작문을 유도한다.
-
일본의 한일(韓日) 기계번역(機械飜譯) 시스템을 평가한 결과 각기 다른 번역 시스템임에도 불구하고 오역(誤譯)의 패턴에 있어서는 유사(類似)한 점이 많았다. 이는 사전(辭典)의 입력 단위와 구문(構文)분석의 해석단계에서 오역(誤譯)의 언어환경에 대비하지 못한 점을 지적할 수 있다. 본 연구는 오역(誤譯)의 TYPE을 언어적 환경과 기계적 환경으로 구분하여 그 영향관계를 밝혀서 오역(誤譯)의 환경에 대비한 사전(辭典)과 그 모듈의 작성을 목적으로 삼는다.
-
한국어 의존 파싱에서는 불필요한 의존관계의 과다한 생성과 이에 따른 다수의 구문분석 결과 생성에 대처하는 연구가 필요하다. 본 논문에서는 한국어 의존 파싱 과정에서 생기는 불 필요한 의존관계에 따른 다수의 후보 의존 트리들에 대하여 통계/의미 정보를 활용하여 최적 트리를 결정하는 구문 분석 방법을 제안한다. 본 논문의 구문 분석에서 사용하는 통계/의미 정보는 구문구조부착 말뭉치(Tree Tagged Corpus)를 이용하여 구축한 술어 하위범주화 정보 사전에서 얻었으며, 이러한 정보를 활용한 구문 분석은 한국어 구문 분석의 모호성 해소에 적용되어 한국어 구문 분석의 정확도를 높인다.
-
자연어 정보처리 분야의 거듭된 발전은 다양한 언어처리 도구들의 출현을 가져왔다. 그러나 객관적인 성능 평가 기준의 부재로 인해, 개발된 도구들은 임의의 기준에 따라 평가될 수 밖에 없었다. 그 결과 성능 평가 결과는 평가자와 평가자가 제안한 기준에 따라 다를 수 밖에 없었고 따라서 평가 결과 자체 역시 설득력을 갖을 수가 없었다. 이와 같은 문제에 대한 해결책을 찾고자 하는 노력의 일환으로, 본 연구에서는 한국어처리 도구들 중 특히 구문분석기의 체계적이고도 객관적인 성능 평가를 목적으로 제작된 문장들과 관련 주석 정보들로 구성된 SERI Test Suites '97을 소개한다.
-
본 논문에서는 기계번역과 의미분석의 전단계로서의 구문분석에 대하여 논한다. 의존 문법에 기반을 둔 구문분석의 효율성을 위하여 한국어 어절에 대한 새로운 해석을 시도하며, 이를 기반으로 한국어 의존관계 파서의 새로운 기본 단위(SynN: Syntactic Node)를 제시한다. 또한 새로운 기본 단위를 구문분석 과정에 적용하는 방법과 그 결과를 보인다. 마지막으로, 구현된 구문분석기를 중간언어 방식 시스템인 한-중 기계번역 시스템에 채용하여 그 성능을 검증한다.
-
어휘 정보는 구문 구조의 중의성을 해결하는데 중요한 정보원으로서 작용할 수 있다. 본 논문에서는 입력 문장에 대한 구조적 중의성을 해결하는데 확률 구문 규칙뿐만 아니라, 어휘간에 발생할 수 있는 공기 정보를 사용할 수 있는 확률 모델을 제안한다. 제안된 확률 모델에 대하여 실험 데이타에 대해 평가한 결과 약 84%정도의 구문 분석 정확도를 얻을 수 있었다.
-
개념기반 분석방법은 발화문에서 발화자가 전달하고자 하는 중요한 부분만을 추출하여 개념어로 대표하여 분석하기 때문에 문장에서 발생하는 불필요한 여러 언어현상을 무시하고 주요 의미만 추출할 수 있는 강건함을 가장 큰 장점으로 갖는다. 한국어는 영어권 언어와는 달리 교착어와 부분 자유 어순의 특징을 가지기 때문에 구문정보를 이용하지 않는 순수 개념 기반의 분석기법을 한국어에 그대로 적용하면 문법의 복잡도가 증가하여 시스템 성능이 크게 저하된다. 본 논문에서 제시하는 구문정보를 이용한 개념기반의 분석방법은 순수 개념 기반의 분석기법이나 구문정보만을 사용하는 방법보다 모호성이 적고, 문법의 기술이 용이하며, 대화체 처리의 어려운 점들을 상당수 극복할 수 있다. 또한 분석루틴의 skip기능은 자연 발화문의 분석률을 높여주며, 어근으로부터 분리한 어미를 일정한 개념으로 분류함으로써 교착어의 특성으로 인한 문법의 복잡도를 해소하였고, 분석문법으로 부분 자유 어순에 따른 다양한 문장들을 수용할 수 있다.
-
대용(anaphora)과 생략(.ellipsis)지을 포함한 지시 해결(reference resolution)은 자연어 처리에 있어서 꼭 해결하고 넘어가야 할 문제이며 지시어가 가리키는 피지시어를 올바르게 찾아내는가의 여부가 자연어처리 시스템의 성패를 가름하는 중요한 요소가 된다해도 과언이 아니다. 본 논문에서는 한국어 대용과 생략을 해결하기 위한 기제로서 센터링 이론이 적합한가를 검토하고 나아가 언어에 따라서 다르게 제안된 Cf 목록의 순서를 한국어의 언어특성에 맞게 결정하는 기법을 제안한다. 센터링 이론에서 각 개별언어 간의 차이가 가장 두드러지게 나타나는 부분은 Cf 목록을 구성하는 요소들의 순서이다. 여기에서는 한국어와 언어적인 특성이 유사한 일본어를 대상으로 제안된 순서를 한국어에도 그대로 적용될 수 있는지 검토하고 문제점을 지적함과 동시에 개선 방안을 아울러 살펴보고자 한다.
-
주로 영어, 불어 등의 형상적 언어(configurational languages)의 구문 분석을 위해 개발된 범주 문법은 문장 구성 성분의 문장 내의 위치가 대체적으로 고정적이며 통사 기능이 그 위치로서 할당 되는 형상적 언어의 통사적인 특성에 따라 방향성의 개념을 도입하였다. 그러나 이 방향성 개념은 문장 구성 성분의 문장 내의 위치가 비교적 자유로운 한국어 등의 비형상적 언어(non-configurational languages)에 그대로 적용하기에는 많은 무리가 따른다. 심지어 형상적 언어에 적용하는 경우에도 도치나 외치된 문장 또 격리된 구조(unbounded dependency constructions)가 있는 문장들도 적절히 분석해 내지 못한다. 이런 이유로 본고에서는 범주 문법에 도입되어 있는 방향성을 재고하고 아울러 한국어 구문 분석과 문장 생성을 위한 범주 문법 적용상의 다섯 원칙을 제안한다.
-
코퍼스 속의 언어적 규칙을 직접적으로 사용하여 한국어 의존 구조를 분석하기 위해, 본 한국어 의존 구조 분석기는 의존 구조가 나타나 있는 코퍼스로부터 변환 규칙 학습기로 규칙을 자동적으로 학습하고 그 규칙을 적용함으로써 한국어 의존 구조를 분석한다. 이를 위해 기존의 연구된 구구조 문법의 규칙 틀과는 다른 한국어 의존 구조에 맞는 규칙 틀을 연구하였고 또 의존 구조에서 발생할 수 있는 교차구조(Crossing structure)를 방지하는 연산을 고안하였다.
-
This paper attempts to analyze Korean proverbs with pap 'rice' which plays an important role in the Korean community. I examine to analyze the data under the various frameworks: Grice, lakoff and Langacker. Proverbs use the contrast in order to focus the speaker's intention and to get the convince from hearers. I limited to analyze coordinate sentences since these distinctively show the contrast and the relation. In terms of the contrast and the relation, the semantic interpretations of pap can be easily taken. These semantic interpretations are classified under the Lakoff's metaphors.
-
"모든 사람은 죽는다"라는 믿음을 내용으로 하는 마음의 상태가 "그 사람도 죽는다"라는 믿음을 내용으로 하는 마음의 상태를 인과적으로 야기하는가? 두 믿음 사이의 미시적 얼개가 인과 관계를 골자로 하고 있다는 사실에서 그 미시적 얼개에 수반하는 거시적 얼개도 인과 관계라는 사실이 함축되는가? 거시적 얼개를 물리적 관점에서 보자면 두 믿음 사이의 관계는 인과적이다. 그러나 거시적 얼개의 포인트는 미시적 얼개와는 달리 물리적 인과성에만 맞춰져 있지 않다. 한 믿음에서 다른 믿음으로의 이행에서 그 포인트는 믿음의 신경생리학적 토대가 아니라 믿음의 의미에 있다. 따라서 양자 사이의 이행 관계는 추론이나 바램 등과 같은 인간의 해석적 의미 연관의 관점에서 서술되는 것이 더 자연스럽고 이치에 맞는다.
-
말이라는 표현이 곧 약속인 것으로 쓰는 경우에 이 약속의 형성에 대한 고찰이 말의 형성에 대표적인 단면이 되리라고 믿는다. 여기에서는 약속의 경우를 통하여 우리의 입에서 내뿜는 공기가 어떻게 약속이나, 인사나 선언이 되는가를 말하는 "언화 행위 이론"이라고 불리워 지는 고찰을 시도한다. 먼저 이러한 언어 속의 법칙은 이 언어를 사용한다는 사실만으로 자생적으로 형성된다고 보고 또 이러한 관점에서 단순한 언어적인 사실에서부터 당위가 추론된다는 것을 따른다. 그래서 언화 행위도 분명한 역사(歷史)적인 사실(事實)을 형성(形成)하기 때문에 역사적인 사실에서 오는 어떠한 주어진 시점에서 그 주어진 상황 때문에 우리는 록 어떠한 일을 할 수 밖에 없는 역사(歷史)적인 당연(當然) 처방(處方)이 있다는 것을 말하고자 한다.
-
한국어 문법 연구에서 뿐만 아니라, 현대 언어학에서는 일반적으로 대명사들은 재귀적 대명사와 비재귀적 대명사라는 두 개의 구분된 통사 범주로 분류된다는 대명사의 이분법적 통사 분류 가설이 지배적이다. 그러나 최근 [Hertz 92ab]가 제시한 조응성의 등급(anaphoric scale)이라는 개념에 의거한 본 연구에서는 한국어 대명사들을 두 개의 구분된 통사 범주로 이분하지 않으며 오직 서로 다른 조응도(anaphoric degree)에 의해서만 구분하는 스칼라식 관점을 제안하였다. 한국어 대명사들의 조응도를 기술하기 위해 본 연구에서는 몇 가지 통사 의미적 준거 항목들을 제시하였다. 본 연구의 접근 방법은 그간 많은 연구들에 의해 밝혀진 바와 같은 대명사들의 다양하고도 이질적인 통사 의미 특성들을 자연스럽게 설명하여 줄 수 있다는 장점이 있다. 반면, 이와 같은 대명사들의 통사 의미적 다양성은 전통적인 이분법적 분류의 관점에서는 풀기 어려운 숙제로 남게 된다.
-
본 논문에서는 Reichenbach(1947), Partee(1973, 1984) 및 Klein(1994)이 발전시킨 지시적 시제 이론 (Referential Theory of Tense)을 의미/통사론적으로 형식화 함으로써 이 이론의 의미론적, 통사론적 응용 가능성을 보여준다. 또한 이 논문에서는, 의미/통사론적으로 형식화된 지시적 시제 이론을 종속 문장의 시제와 상의 의미 및 구조 해석을 위하여 도입함으로써 이 이론의 장점과 문제점을 구체적으로 보여주려고 시도한다.
-
언어의 내적 특성을 반영하는 의미 문체의 검사 및 교정은 언어의 형태적인 면과 관련있는 단순한 철자 검사 및 교정에 비해 더 난해하고 복잡한 양상을 띤다. 본 논문이 제안하는 의미 정보를 이용한 명사 분류 방법은 의미와 문체 오류의 포착과 수정 기능을 향상시키기 위한 방법의 하나이다. 이 논문은 문맥상 용법이 어긋나는 서술어를 교정하기 위해 명사 의미 분류방법을 서술어/논항의 통사 의미적 관계 분석에 이용하여 의미 규칙을 세우는 과정을 서술한다. 여기서 논항인 명사의 의미 정보를 체계적으로 분류하기 위해 시소러스 기법과 의미망을 응용한다. 서술어와 논항 사이의 통사 의미적 관계에 따라 의미 문체 오류를 검사하고 교정함으로써 규칙들을 일반화하여 구축하게 하고 이미 존재하고 있는 규칙을 단순화함으로써 한국어 문법 검사기의 기능을 보완한다.
-
형태소 분석기의 처리 속도는 분석 알고리즘과 형태소 사전의 탐색 기법에 따라 크게 좌우된다. 형태소 분석 성능의 향상을 위하여 많은 형태소 분석 방법이 제안되었으며, 음절 정보를 이용하는 형태소 분석기는 한국어 음절의 통계적 특성 정보를 이용함으로써, 분석 후보의 개수를 최대한 적게 하여 처리 속도를 향상시켰다. 본 논문은 형태소 분석시 발생하는 분석 후보들의 특성을 고려하여 사전 탐색 요구시 가장 많은 처리 시간을 필요로 하는 디스크 읽기 횟수를 줄일 수 있도록 음절별 블록 인덱싱한 사전 구성 방법을 제안한다. 이 방법은 형태소 사전을 첫 음절별로 블록화하고 인덱싱하여 3개의 추가적인 인덱스 테이블을 구축하는 사전 구성 방법으로, 인덱스 테이블을 모두 주기억장치에 적재하였을 때에는 평균 61.6%, 크기가 작은 두 개의 인덱스 테이블만 주기억장치에 적재하였을 때에는 평균 25%의 디스크 읽기 횟수를 줄일 수 있다.
-
다양한 응용 목적의 대규모 실용적 언어지식 구축을 위해서는 한국어의 모든 언어현상을 수용할 수 있는 이상적인 언어지식(optimal linguistic knowledge) 획득을 목표로 연구해 나가야 한다. 본 연구에서 언어지식의 획득은 주어진 말뭉치의 분석을 통해 이루어진다. 주어진 말뭉치에서 새로운 언어현상이 발견되었을 경우, 기존의 언어지식은 새로운 언어현상을 수용할 뿐만 아니라 기존에 발견되었던 언어현상도 함께 수용할 수 있도록 바뀌어져야 한다. 이러한 변화의 원칙이 보장되어야만 언어지식의 양적 확장과 함께 질적 확장을 이룰 수 있다. 본 연구에서는 언어지식의 질적 확장을 언어지식의 수렴성이라고 정의하고 수렴성 보장을 위한 방법론을 연구한다. 수렴성 보장을 위해서는 먼저 언어지식 획득과정이 공정화, 자동화되어야 하고 언어지식이 변화할 때 수렴을 확인하는 과정이 필요하다. 수렴을 확인하기 위하여 구문구조 데이터베이스와 역사전(Inverted Dictionary)을 이용하는 방법을 제안한다. 지금까지는 언어지식의 양적 확장에만 치중해 왔으나 본 연구에서 제안된 방법으로 언어지식이 구축된다면 질적 확장도 함께 도모할 수 있을 것으로 기대된다.
-
한국어 구문 트리 태깅 코퍼스는 한국어 문장의 구문 구조가 구문 트리 형태로 태깅된 코퍼스이다. 코퍼스 구축은 사람(annotator)에 의하여 수작업으로 이루어지므로, 많은 시간과 인력을 소모하는 작업이다. 그렇기 때문에 코퍼스 구축을 도와주는 구문 트리 태깅 워크벤치는 코퍼스 구축에 필수적인 요소이다. 본 논문에서는 대량의 구문 트리 태깅 코퍼스를 일관되고 빠르게 구축하기 위한 워크벤치 설계시의 고려 사항을 제시한다. 이러한 고려 사항을 기반으로, 다소 정확한 부분에 대한 태깅만을 수행하는 부분 구문 분석, 태깅한 결과에 대한 검증 과정인 일관성 검사, 편한 구문 트리 태깅을 고려한 사용자 인터페이스, 플랫폼 독립적인 구현 등과 같은 워크벤치의 실제 구현에 대하여 설명한다. 또한, 구문 트리 태깅 워크벤치의 앞으로의 연구 방향을 제시한다.
-
통계적인 방법으로 병렬 코퍼스(parallel corpus)로부터 사전정보를 추출해 내는 정렬 시스템에 대한 연구가 세계 여러곳에서 진행되고 있다(신중호 1996; Dagan 1996; Fung 1995; Kupiec 1993). 그 결과로 만들어진 사전정보는 유용한 대역어와 대역 확률을 포함하고 있지만, 불필요하거나 잘못된 요소들도 많이 포함되어 있어 재조정 작업이 필요하다. 이는 사전정보를 직관적으로 확인함으로써 조정을 할 수도 있지만, 좀 더 정확한 조정을 위해 각각의 사전정보(정렬의 결과)가 코퍼스의 어떤 문장에서 나온 것인가 등을 확인할 필요가 있다. 정렬 워크벤치는 이와 같은 작업을 효율적으로 처리할 수 있도록 만들어졌으며, 현재 구현되어 작동되고 있다. 본 논문에서는 정렬 워크벤치를 위해 필요한 정렬시스템의 변형과 사전작업의 편의를 위해 제공되어져야 하는 기능 등에 관하여 설명하고, 간단한 평가 결과를 설명한다.
-
한글 워드프로세서의 한자 사용이 필수적인 요소이다. 일상 생황에서 의사를 전달하기 위해서는 한국어로 사용하지만, 글이나 작문을 이용하여 의사를 전달할 때는 한글이 주를 이루고 문맥 안에 함축된 의미로 한자를 사용하면 정확하게 의사가 전달된다. 현재의 한글 워드프로세서에서는 한자 순위 변환 시스템의 키의 검색 횟수가 많고 또한 복합한자 변환 시스템에서는 실행 횟수가 많은 단점을 가지고 있다. 본 논문에서는 보다 효율적인 키의 검색 횟수를 줄이기 위해 효율적인 한자 순위 변환 알고리즘과 실행횟수를 줄이기 위해 개선된 복합한자 변환 알고리즘을 사용한다. 이러한 알고리즘은 검색과 실행 속도를 빠르게 함은 물론 한글 한자 변환시스템 처리에 도움을 줄 수 있다.
-
정보화 시대에 한국어의 활발한 보급을 위해서는 다양한 모국어 사용자들의 학습 요구를 충족 시키는 한국어 코스웨어의 개발 및 통신망을 이용한 제공이 필요하다. 하지만, 외국어로서 한국어를 학습하고자 하는 학습자들을 위한 한국어 코스웨어는 영어와 일본어에 국한되어 있어서 유럽어를 모국어로 하는 학습자들의 한국어 학습 효율을 저하시키므로, 그들의 모국어로 된 한국어 코스웨어의 개발이 요구된다. 이러한 개발 단계에서 제일 처음 부딪히는 문제로 한글 윈도우(Windows)나 통신망(net-work) 환경에서 영어의 알파벳을 제외한 유럽어(European Languages) 특수문자의 입 출력이 불가능하다는 것이다. 따라서 비전산 전문가들이 손쉽게 코스웨어를 만들 수 있도록 개발된 기존의 저작 도구(authoring tool)로는 유럽어와 한글을 동시에 사용하는 한국어 학습 내용을 기술할 수 없다. 본 논문에서는 한국어 학습을 위한 원격 교육의 필요성 및 문제점을 알아보고 이를 바탕으로 설계한 유럽어 지원 한국어 코스웨어 개발 도구(developing tool)인 반디(BANDI)의 시스템 구성, 사용자 인터페이스 및 비전산 전문가인 학습 내용 개발자를 위한 스크립트 언어를 소개하였다.
-
여러 응용 분야에 따라 많은 공동작업 시스템이 있다. 이러한 시스템들은 각 응용 영역에 따라 요구되는 문제가 다르다. 이 논문에서는 공동작업객체의 개념을 제시한다. 이 개념은 어떠한 멀티미디어 공동작업 시스템에도 적용할 수 있는 시스템 소프트웨어의 구조적인 모델이다. 이 모델은 지식베이스에서 이벤트를 자동으로 공유하고 각 이벤트에 대한 동작을 비동기적 동기적으로 수행한다. 이 논문에서의 공동작업객체는 멀티미디어 객체의 집합인데, 개념 그래프와 지식 쉘로 표현된다. 이 공동작업객체에서 수행되는 한글 공동텍스트 편집기는 한글 편집 지식에 의하여 공동으로 편집할 수 있다. 또한 한글 공동텍스트 편집기는 공동작업을 위하여 공동작업 객체를 관리, 유지하는 기능을 제공한다. 앞으로는 일반적인 공동작업 객체의 이론적 모델을 연구한다.
-
자연언어 대화는 사람들이 사용하는 가장 자연스러운 의사소통 수단이다. 따라서, 자연언어 대화 인터페이스를 통해서 사용자와 시스템이 편리하고 자연스러운 방법으로 의사를 교환할 수 있다. 본 논문에서는 대화 인터페이스의 필요성과 폼에 기반한 대화 인터페이스 기법에 대해서 설명한다, 폼 기반 인터페이스란 데이터베이스 검색을 위해서 질의어를 생성할 때 검색에 대한 제한 조건을 폼(form)의 형태로 나타내어, 사용자와의 대화를 통해서 폼 정보를 추출하고, 이렇게 완성된 폼을 이용하여 질의어를 생성하는 것을 말한다. 본 논문에서는 이러한 폼 기반 대화 인터페이스에서 시스템이 대화를 적절히 유도하고 사용자의 응답이나 질문에 대해 적절히 대응하기 위한 폼과 재귀적 대화 전이망(recursive dialogue transition networks)을 이용한 대화 모델에 대해 제안한다.
-
본 연구는 한글 전용과 한자 혼용이 글의 이해 속도, 이해 정도, 내용의 기억에 어떤 영향을 미치는 가를 조사하기 위해 실시되었다. 한글 전용론과 한자 혼용론은 각각 나름대로의 논리를 가지고 서로 논쟁을 펼쳐왔다. 먼저 한글전용론의 주장을 살펴보면, 한자는 배우기 어렵고 쓰기도 불편해 쉽게 익힐 수 있는 한글을 사용해야 하며, 한자를 사용함으로 인해서 순 우리말의 발전이 방해를 받고, 글자 생활의 기계화와 출판 문화의 발달에 있어 한자는 이것을 어렵게 한다는 것이다. 반면에, 한자혼용론의 주장에 따르면, 한자말은 한자로 적을 때 그 의미의 파악이 빠르고 정확하고, 우리말 어휘의 절반 이상을 한자어가 차지하고 있으므로 한자를 가르치는 것이 국어교육의 지름길이고, 우리말에는 동음이의어가 많아서 한글로만 적을 경우 그 뜻을 식별하기 어렵고, 한자는 각 글자가 모두 뜻을 가지고 있으므로, 각각을 조합하여 새로운 의미의 단어를 쉽게 만들 수 있음은 물론이고 한글로 쓸 경우 길게 쓰여져야만 하는 것을 짧게 쓸 수 있다는 장점을 가지고 있으며, 한자를 쓰지 않으면 우리의 전통 문화를 이어 받을 수 없으며 한자를 공통으로 쓰고 있는 동양문화권에서도 고립을 초래할 수 있다는 것이다. 이렇게 한글전용과 한자혼용에 대한 의견이 다양한 만큼 우리나라의 한자에 대한 정책도 그 갈피를 잡지 못하고 계속 바뀌어 왔다. 독립이후 정부에서는 법령과 훈령 등으로 모든 공문서에서의 한자사용을 금지하고 일반 사회의 문자 생활에도 한글을 전용할 것을 권고하지만 이 지침은 결국 공문서에만 한정되어 왔고 후에는 이것조차도 유명무실해졌다. 또한 중고등학교의 한자교육 정책도 수차례 변화되어 한글만을 배운 세대가 사회에 나와 여전히 한자가 사용되고 있어 적응에 문제점을 가지기도 하였다. 본 연구에서는 그 동안 계속되어 온 한글과 한잔의 사용에 관한 논쟁을 언어심리학적인 연구 방법을 통해 조사하였다. 즉, 글을 읽는 속도, 글의 의미를 얼마나 정확하게 이해했는지, 어느 것이 더 기억에 오래 남는지를 측정하여 어느 쪽의 입장이 옮은 지를 판단하는 것이다. 실험 결과는 문장을 읽는 시간에서는 한글 전용문인 경우에 월등히 빨랐다. 그러나. 내용에 대한 기억 검사에서는 국한 혼용 조건에서 더 우수하였다. 반면에, 이해력 검사에서는 천장 효과(Ceiling effect)로 두 조건간에 차이가 없었다. 따라서, 본 실험 결과에 따르면, 글의 읽기 속도가 중요한 문서에서는 한글 전용이 좋은 반면에 글의 내용 기억이 강조되는 경우에는 한자를 혼용하는 것이 더 효율적이다.
-
본 연구에서는 한국어 대화체에 사용되는 담화표지와 부 대화의 유형을 분석하였다. 한국어 대화체에 사용되는 각종 담화표지에 대한 기존의 언어학적 연구를 정리하였고, 실제 한국어 대화자료를 녹취, 전사하여 연구에 필요한 데이터를 만들었으며, 이 데이터를 분석하여 한국어 대화체에서 관찰되는 부 대화의 유형을 분류하고자 하였다. 또한 각 부 대화와 담화표지들간의 관계를 규명하려는 시도를 하였다. 이것은 인간과 컴퓨터간의 특정 목적 대화를 구현하는 데도 중요한 역할을 한다. 특히 인간과 컴퓨터가 예약, 상담 등 특정 목적을 달성하기 위한 대화를 수행할 수 있는 프로그램을 구축하는 데 있어서, 인간이 실제로 사용하는 담화표지 및 의사소동 책략 등을 반영할 수 있게 해줄 것이다. 담화분석 연구자들이 실제 대화 자료를 분석하여 한국어 대화체의 기저에 흐르는 대화의 메카니즘을 다방면에서 종합적으로 정리하면 그 결과를 토대로 전산학 연구자들이 한층 바람직한 한국어 대화인지 모형을 만들어낼 수 있을 것으로 기대된다.
-
컴퓨터의 사용이 보편화됨에 따라 컴퓨터와 사용자 사이의 쉽고 자연스러운 의사 소통을 위한 자연어 인터페이스에 대한 연구가 활발히 진행되고 있다. 이 중에서 특히, 음성인식 분야는 음성명령, 받아쓰기 시스템 등 일반적인 컴퓨터 사용자의 요구를 충족시켜 줄 수 있는 분야로 주목을 받고 있다. 그러나 음성인식은 인식 자체만으로는 인식률에 한계가 있으며, 인식 결과를 향상시키기 위해서는 후처리 단계가 필요하다. 본 논문에서는 음성 인식의 성능을 향상시키기 위해 음성 인식의 결과로 들어온 연속된 한국어 음성을 올바른 음절로 복원시켜 주는 시스템을 구현하였다. 이 시스템에서는 어절단위의 연속된 한국어 음성을 입력으로 받아 한국어 발음 규칙을 역으로 적용하여 원래의 음절로 복원시키고, 형태소 분석기를 이용하여 복원된 음절이 올바른지를 확인하고 수정한다. 초등학교 교과서에 나오는 문장을 대상으로 본 시스템의 성능을 실험한 결과, 90.42%의 복원율을 나타내었다. 현재 정확하게 복원이 되지 않는 것 중에는 동음이의어가 차지하는 비중이 크며, 이 문제는 구문분석이나 의미분석을 이용하여 어느 정도 개선할 수 있을 것으로 보인다.
-
본 논문에서는 형태소 그래프를 정의하고 이를 한국어 연속 음성 인식의 결과로서 사용함과 동시에 한국어의 자연어 처리를 위한 지식 표현 방법으로 사용한다. 또한 형태소 그래프를 연속 음성 인식과정에서 효율적으로 생성하는 알고리즘으로서 Tree-Trellis 탐색 알고리즘을 소개한다. 한국어 연속 음성 인식기는 HMM 인식기를 사용하며 탐색 알고리즘 또한 HMM 음소 인식기의 사용을 전제로 한다. 실험 DB로는 한국과학기술원 통신연구실에서 제작한 3000 단어급의 무역상담관련 DB를 사용하였다.
-
문자로 표기된 단어의 의미를 파악 과정에 음운 정보가 개입하는지를 결정하기 위해 3 개의 실험을 실시하였다. 예컨대, [동닙 신문]과 [목립 신문]을 제시하고 이들이 구(句)가 성립되는지를 판단케 한 실험 1에서는 [동닙 신문]을 "독립 신문"으로 오판한 확률이 [목립 신문]을 "독립 신문"으로 오판한 확률보다 낮았다. [국립]과 [공립] 그리고 [궁닙]과 [공립]을 각각 차례로 제시하고, 두 번째 제시된 단어("공립")를 명명하는 데 소요된 시간을 측정한 실험 2에서는, 앞서 제시된 [궁닙]이 뒤에 제시되는 [공립]의 명명을 다소 용이하게 하였지만 그 정도는 미미하였으며, 앞서 제시된 [국립]이 [공립]의 명명을 촉진시킨 것에 크게 못 미쳤다. 실험 2에서와 동일한 자극 재료에다, 명명과제 대신 어휘판단 과제를 이용한 실험 3에서는 "국립"과 동음인 비단어 [궁닙]이 [정립]보다는 [공립]의 인식을 촉진시켰지만, [국립]이 [공립]인식을 촉진시진 정도에는 크게 못미쳤다. 이들 결과를 종합하면, 음운 정보는 의미 파악에 부수적인 도움 정도만 제공한다는 결론이 도출된다.