1998.10c
-
한국어 품사 태깅 모델은 어절 단위 모델과 형태소 단위 모델로 나눌 수 있다. 이들 중 형태소 단위 모델은 자료 부족 문제가 별로 심각하지 않고 비교적 풍부한 태깅 결과를 내어 준다는 점에서 선호되나 어절 단위로 띄어쓰기를 하는 한국어의 특성을 제대로 반영하지 못한다는 단점이 있다. 이에 본 논문에서는 한국어의 어절 띄어쓰기 정보를 활용하는 형태소 단위 품사 태깅 모델을 제안한다. 어절 띄어쓰기 정보는 복잡도가 매우 작기 때문에 모델 구축에 드는 추가 비용이 그리 크지 않다. 그림에도 불구하고 실험 결과는 어절 띄어쓰기 정보가 한국어 품사 태깅에 유용한 정보임을 보여준다.
-
주어진 문자열에 품사를 정해주는 방법으로 현재 많이 사용되고 있는 것 중의 하나로 통계적 방법을 들 수 있다. 대부분의 통계적 방법은 품사 태깅을 위해 주변 품사열만으로 이뤄진 단순한 정보를 사용하고 있는데, 품사 태깅 문제는 본래 품사열 정보 뿐 아니라 단어에 대한 어휘 정보, 통사 정보, 연어 정보 등 다양한 정보들이 종합되어야 하는 문제이다. 이에 본 논문에서는 품사 태깅에 유용한 정보를 정형화하여 성능 향상을 얻어내는 방법을 제안한다. 제안된 방법은 먼저 품사열 정보만을 이용한 품사 태깅의 주된 오류인 조사, 용언, 연결어미의 구분 문제와 복합어의 형태소 분석 문제를 해결하기 위한 정보를 품사 분류 기준으로부터 얻어낸다. 얻어낸 정보들은 정형화 과정을 거쳐 최대 엔트로피 모델의 자질로 사용된다. 이렇게 얻어낸 모델을 가지고 수행된 실험 결과, 품사열 정보만을 이용한 품사태깅보다 좋은 성능을 얻을 수 있었다.
-
기계 번역 시스템에서 품사 태거의 오류는 전체번역 정확률에 결정적인 영향을 미친다. 따라서 어휘 단계의 정보만으로는 중의성 해소가 불가능한 단어에 대해서는 중의성 해소에 충분한 정보를 얻을 수 있는 구문 분석이나 의미 분석 단계까지 완전한 중의성 해소를 유보하는 N-best 품사 태거가 요구된다. 또한 N-best 품사 태거는 단어에 할당되는 평균 품사 개수를 최소화함으로써 상위 단계의 부하를 줄이는 본연의 역할을 수행하여야 한다. 본 논문은 통계 기반 품사 태깅 방법을 이용하여 N-best 후보를 선정하고, 선정된 N-best 후보에 언어 규칙을 적용하여 중의성을 감소시키거나 오류를 보정하는 혼합형 N-best 품사 태깅 방법을 제안한다 제안된 N-best 품사 태거는 6만여 단어의 영어 코퍼스에서 실험한 결과, 단어 당 평균 1.09개의 품사를 할당할 때 0.43%의 오류율을 보인다.
-
기존의 어휘규칙기반 품사태거는 품사문맥이나 어휘확률만을 사용하는 통계적 품사태거에 의해 해결되지 않는 형태론적 중의성을 어휘문맥을 참조하는 어휘규칙을 사용함으로써 효과적으로 해결할 수 있었다. 그러나 어휘규칙을 수작업으로 획득하기 때문에 규칙 획득에 많은 시간이 소요되어 소량의 규칙만이 사용되었다. 본 논문에서는 품사부착말뭉치로부터 어휘규칙을 자동으로 획득하는 방법을 제안한다. 제안된 방법으로 자동획득된 어휘규칙을 사용하여 실험말뭉치의 66.1%를 98.8%의 정확률로 태깅하였다. 이로써 통계적 품사태거만을 사용할 때(95.43% 정확률) 보다 어휘규칙과 결합할 때(96.12% 정확률) 통계적 품사태거의 성능이 약 15.1%(0.69% 정확률)만큼 향상되었다. 또한 제안된 방법은 영어 품사태깅에 대해서도 효과적임이 실험을 통해 증명되었다.
-
한국어에서 많이 사용되는 조사는 앞 명사의 종성에 따라 그 형태가 다르게 표기된다. 그런데 앞의 단어가 한글이 아닌 영어나 특수기호 등일 경우, 그 단어의 종성을 알아내는 일은 단순하지 않다. 본 논문에서는 영어가 명사로 쓰였을 경우, 그 단어 종성의 종류를 파악하여 적합한 형태의 조사를 자동으로 붙이는 방법을 제안하고, 실험한다. 제안된 방법은 기본적으로 결정트리(decision tree)와 같은 방법으로 영어 단어의 뒷글자부터 차례로 결정의 단서로 사용하였고, 분야에 맞도록 학습가능하다. 1,500단어로 학습한 후, 미학습 데이터에 대해 실험한 결과, 약 96%의 정확도를 보였고, 학습 데이터가 많아지면 정확도가 더 증가할 것으로 보인다.
-
전문 분야의 세분화로 인한 신조어 발생이 늘어나고 있다. 또한, 이러한 단어를 우리말로 표현이 불가능한 경우 우리 발음으로 풀어 기록하지 않고 그대로 적는 경우도 늘어나고 있는 추세이다. 특히 전문 서적일수록 두드러진다. 그러나 한글과 영어를 혼용하여 기록할 경우 부적절한 조사의 쓰임으로 인하여 매끄럽지 못함을 가끔 볼 수 있다. 본 논문에서는 영단어의 발음특성정보를 이용하여 한글 조사의 오류를 정확하게 검출하고 교정을 할 수 있다.
-
교정 시스템에 나타나는 오류 유형들 중에는 전체적인 교정률에 차지하는 비중은 적지만 출현할 때마다 틀릴 가능성이 아주 높은 오류들이 있다. 기존의 교정 시스템에서는 이러한 오류들에 대한 처리가 미흡한데, 철자 오류와 띄어쓰기 오류 중 형태가 비슷하거나 같은 형태가 다른 기능을 함으로써 발생하는 오류들이다. 이러한 오류는 일반 문서 작성자뿐만 아니라 한글 맞춤법에 대해 어느 정도 지식을 가진 사람의 경우에도 구분이 모호하다. 복합 명사와 미등록어를 제외한 오류 중 약 30%가 여기에 속한다. 따라서 본 논문에서는 이러한 오류 유형들을 분류하고, 이 중에서 빈번하게 출현하는 오류에 대한 교정을 시도하고, 오류 유형들이 문장 내에서 어떤 분포를 가지는지 알아본다. 약 617만 어절의 말뭉치를 이용하여 해당 형태와 다른 성분들과의 관련성을 조사하여 교정 방법을 제시하고, 형태소 분석을 하여 교정을 행한다. 코퍼스 655만 어절 대상으로 실험한 결과 84.6%의 교정률을 보였다. 본 논문에서 제시한 교정 방법은 기존의 교정 시스템에 추가되어 교정 시스템의 전체 교정률을 향상시킬 수 있다. 또한 이와 비슷한 유형의 다른 어휘 교정에 대한 기초 자료로 사용될 수 있을 것이다.
-
분단 이후 북한은 우리와는 다른 언어정책을 추진해 왔고, 그 결과로 지금은 남북한 언어 정책에서 많은 차이를 드러내게 되었다. 본 논문은 북한 문화어 형태소 분석 시스템(NKMA)의 구축을 위한 어절 구조를 제시한다. 북한 문화어의 형태소 분절 및 분석을 위해 사용된 어절 구조는 대체로 말토막 단위와 일치하므로, 음성언어의 인식을 위한 분절 방법에 응용될 수도 있으리라 기대한다.
-
본 논문은 변형된 한국어 문장에 대해 변형 이전의 문장과의 의미적 동일성을 분석하여 한국어 의문문 질의어의 문형과 상이한 문형의 한국어 문장도 정보검색시 검색 대상문에 포함시켜 검색 정확도를 높임으로써 의문문 질의 시스템의 성능을 향상시키는 것에 연구의 초점을 맞추고 있다. 한국어 문장에서 주로 나타나는 피동화에 의한 변형, 분열문에 의한 변형, 명사화에 의한 변형, 어순 재배치에 의한 변형 등의 특성에 대해 알아보고 의문문 질의 시스템에서 그들 각각의 변형을 인식하여 변형 이전의 문장과 동일한 의미의 문장으로 처리하는 방법에 대해서 자세히 살펴보았다.
-
인터넷 정보 검색에서 이용자들이 주로 사용하는 질의는 2-3개의 용어로 이루어진 짧은 질의이다. 또만 동음이의어를 갖는 용어를 사용하기도 한다. 짧은 질의를 처리하는 일반적인 방법은 시소러스[8]나 Wordnet[1]을 이용한 질의 확장이다. 그러나 시소러스나 Wordnet과 같은 지식 베이스는 구축하기가 용이하지 않으며, 도메인 종속적인 면과 단어의 회귀(sparseness) 문제를 극복하기 어려운 단점이 있다. 또한 동음이의어 용어로 인하여 검색의 정확성이 털어지는 문제점이 있다. 한편, 사용자의 질의를 주의 깊게 살펴보면, 질의로부터 관련 용어 분류 정보를 추출할 수 있다. 본 논문은 사용자의 질의가 관련 용어 분류 정보에 의해 유기적으로 관계를 가지고 있다는 사실에 기인하여 관련 용어 분류 정보에 따라 자동으로 용어 확장 및 한정을 수행하며 적절한 용어 가중치를 부여하는 자동 질의 용어 정련기를 제안한다. 자동 질의 용어 정련기는 용어의 확장, 한정 및 가중치 부여를 통하여 사용자의 정보 검색 요구를 명확히 하여 검색의 정확성을 향상시킨다.
-
본 연구는 자연어 질의의 형태 및 구문 정보를 바탕으로 불리언 질의를 생성하는데 그 목적을 둔다. 일반적으로 대부분의 상용정보검색시스템은 입력형식을 검색성능이 종은 불리언 형태로 하고 있으나, 일반 사용자는 자신이 원하는 정보를 불리언 형태로 표현하는데 익숙하지 않다. 그러므로 본 정보검색시스템은 자연어 질의를 기본 입력형태로 하여 사용자의 편의성을 높이고, 이 질의를 범주문법에 기반한 구문분석 결과에 의해 복합명사를 고려한 불리언 형태로 변환하여 검색을 수행함으로써 시스템의 검색 성능의 향상을 도모하였다. 정보검색 실험용 데이터 모음인 KTSET2.0으로 실험한 결과 본 논문에서 제안한 자연어 질의로부터 자동 생성된 불리언 질의의 검객성능이 KTSET2.0에서 제공하는 수동으로 추출한 불리언 질의보다 8% 더 우수한 성능을 보였고, 기존 자연어질의 시스템이 수용해온 방법인 형태소 분석을 거쳐 불용어를 제거한 후 Vector 모델을 적용하여 검색을 수행한 경우보다는 23% 더 나은 성능을 보였다.
-
본 연구에서는 정보검색시스템의 모델로 문서 클러스터를 이용한 재순위화 모델을 제시한다. 이 방법은 검색단계와 분석단계로 이루어지는데, 검색단계에서는 역화일기법을 이용해서 질의어를 포함하는 문서들을 검색하여 질의어-문서 유사도에 따라 순위를 결정한다. 분석단계에서는 이미 구축된 문서 클러스터를 이용해서 검색되어진 문서들의 분석을 통해 질의어-클러스터 유사도를 계산한다. 질의어-문서 유사도와 질의어-클러스터 유사도를 결합하고, 이 유사도에 기반해서 문서들을 재순위화한다. 이때 이용하는 클러스터는 정적 클러스터이고, 질의어에 따라 서로 다른 클러스터를 생성하는 동적인 뷰를 제공한다. 재순위화 모델은 역화일 기법과 클러스터 분석기법이 가지는 장점을 결합하여 질의어 뿐만 아니라 문서에 포함된 모든 단어들을 분석함으로써 문서의 문맥을 고려할 수 있다. 제안하는 모델은 역화일 기법을 이용한 검색 결과에 비해서 우수한 성능 향상을 나타내고 있다.
-
본 논문에서는 주제범주 체계를 이용한 웹 검색이 가지는 장점을 이용 할 수 있도록 인터넷 웹 페이지들을 주제범주 체계에 따라 자동으로 분류하는 모델을 제시한다. 특히 웹 페이지 작성자들의 의도를 범주화에 반영할 수 있는 방법으로 HTML 태그를 이용한다. 즉 웹 페이지의 표현에 있어서 벡터 스페이스 모델에서의 색인어 빈도 가중치에 태그 가중치를 추가 하여 보다 좋은 성능을 얻도록 하였다. 그리고 주제범주를 표현하는데 사용되는 자질의 선정에는 기대상호정보, 상호정보 척도를, 문서간 유사도 비교에는 최근린법을 사용하였다. 전북대에서 정보탐정용으로 분류한 웹 페이지를 대상으로 실험하였으며, 기본 모델 대비 약 7%의 정확도 향상을 얻을 수 있었다.
-
인터넷의 사용자가 폭발적으로 증가함에 따라, 인터넷을 이용한 다양한 정보 서비스가 생성되었으며, 이로 인해 일반 사용자들이 접할 수 있는 디지털 문서의 양은 기하 급수적으로 증가 되었다. 본 논문에서는 유사한 정보를 갖는 다량의 문서들로부터 사용자가 원하는 정보만을 추출하는 정보 추출 시스템의 개발 과정 및 결과를 기술한다. 개발된 시스템은 필요한 정보를 포함하는 문장들을 걸러 낸 후, 필요한 사실정보의 출현을 나타내는 패턴을 사용한 유한 오토마타를 통하여 사용자가 원하는 정보를 추출한다. 관광지 안내 텍스트를 대상으로 한 실험 및 분석 결과를 기술한다.
-
SGML/XML은 임의 형태 문서, 임의 응용에 대해 일반화 마크업을 정의하기 위한 방법을 기술하는 메타언어이다. 즉 문서의 작성시에 고려되는 문서의 논리적 정보를 표현 가능하다. 이러한 논리적 구분을 이용하여 정보사용자에게 좀 더 정확한 검색을 제공할 수 있다. SGML/XML을 이용하여 표현된 계층적 논리정보를 이용하여 다양한 문서 접근점을 제공할 수 있으며, 문서의 재사용 및 동적인 문서제시를 가능케 한다. 본 논문에서는 SGML/XML 정보검색의 장점과 이러한 시스템을 구현하기 위한 구현 단계 및 구성요소를 알아보고자 한다. 아울러 구현사례로 STEER-SGML/XML 검색 시스템을 알아본다.
-
자연어 처리 응용 분야에서 다양하게 이용할 수 있는 용어들을 자동적으로 획득하고, 나아가 이 과정을 점진적으로 반복하여 수행함으로써 획득할 수 있는 용어의 수를 증가 시키고 그 용어들 간의 의미적 관계도 얻을 수 있다. 점진적인 용어 획득을 위하여 용어의 형태에 변이 규칙을 적용하여 새로운 용어를 획득하는 과정을 반복한다. 우리는 변이의 종류를 단어간의 변이 뿐만 아니라 단어 내의 변이 그리고 이 둘을 결합한 복합 변이로까지 확장하여 새로운 용어 획득 과정을 더욱 다양화하는 기법을 제시한다. 실험은 확장된 변이 규칙으로부터 얻은 용어들 중에서 기존의 단어간의 변이로부터 획득한 용어들의 비율이 전체의 38.6%라는 사실로부터 변이의 종류 및 규칙의 확장이 획득할 수 있는 용어들의 수를 증가 시킬 수 있다는 것을 보여준다.
-
정보검색이나 자동색인 시스템에서는 정확한 색인어의 추출이 시스템의 성능을 좌우하게 된다. 따라서 정확한 색인어의 추출이 매우 중요하다. 본 논문에서는 정보 검색시에 보다 정확한 문서를 찾아줄 수 있도록, 출현 고빈도어를 이용하여 효율적인 색인어 추출을 위한 합성 명사 생성방안을 제시한다. 이를 위하여 문서 내에서 출현 빈도가 높은 명사, 즉 상위
$30%{\sim}40%$ 의 고빈도 명사에 합성 및 분해 규칙을 적용하여 합성명사 색인어를 추출한다. 또한 본 논문에서 제시한 상위$30%{\sim}40%$ 고빈도 명사합성에 대한 타당성을 검증하기 위하여 적절한 명사합성 빈도를 구한다. 제안한 방법을 적용한 결과 300어절 이하의 짧은 문서는 출현빈도 상위 30%까지의 명사를 합성했을 경우 저빈도 누락이 작았고 300어절 이상의 문서는 출현빈도 40%까지 합성하면 저빈도 누락이 상당히 줄어듦을 알 수 있었다. 그리하여 전체 색인어의 개수를 줄였고 색인어의 정확률을 높였다. -
한국어 정보검색에서 복합명사의 불규칙한 표기 형태로 인하여 발생하는 색인과 질의의 불일치 문제는 단순명사 단위로 색인하고 질의함으로써 해결할 수 있지만 원래의 복합명사가 가지고 있던 정보를 상실함으로써 정확도의 하락이 예상된다. 따라서 보다 정교한 문서검색을 위해서는 복합명사를 색인으로 사용하는 것이 필요하다. 본 논문에서는 단순한 패턴을 이용한 복합명사 색인 방법으로부터 정교한 명사구 구문분석을 통한 복합명사 색인 방법까지 그 동안 연구되었던 대표적인 복합명사 색인 방법을 실험을 통하여 비교 평가하여 복합명사 색인의 검색성능에 대한 효과성을 검증한다.
-
자동 띄어쓰기는 띄어쓰기가 무시된 한글 문서의 자동색인이나 문자인식에서 줄바꿈 문자에 대한 공백 삽입 문제 등을 해결하는데 필요하다. 이러한 문서에서 공백이 삽입될 위치를 찾아 주는 띄어쓰기 알고리즘으로 어절 블록에 대한 문장 분할 기법과 양방향 최장일치법을 이용한 어절 인식 방법을 제안한다. 문장 분할은 한글의 음절 특성을 이용하여 어절 경계가 비교적 명확한 어절 블록을 추출하는 것이며, 어절 블록에 나타난 각 어절들을 인식하는 방법으로는 형태소 분석기를 이용한다. 4,500여 어절로 구성된 두 가지 유형의 문장 집합에 대하여 제안한 방법의 띄어쓰기 정확도를 평가한 결과 '공백 재현율'이 97.3%, '어절 재현율'이 93.2%로 나타났다.
-
한국어 정보검색에서 복합명사와 명사구로 발생하는 색인어와 질의어간의 구문적 용어 불일치는 많은 문제를 일으켜왔다. 본 논문에서는 복합명사 분해와 명사구 정규화를 함께 수행하여 유사도 측정값을 적당히 유지함으로써 재현율을 저하시키지 않고서 정확률을 향상시킬 수 있는 구문적 용어불일치 완화방안을 제시하고자 한다 색인모듈에서는 통계정보를 이용하여 복합명사를 분해하고, 의존관계를 이용하여 명사구를 정규화한다. 분해되고 정규화된 키워드에 경계정보 '/'가 할당되고, 가중치가 계산된다. 검색모듈에서는 경계정보를 이용하여 부분일치를 고려하는 유사도 계산을 수행한다. KTSET 2.0으로 실험한 결과, 제안한 방법은 구문적 용어불일치를 완화할 수 있으며, 재현율을 저하시키지 않고서 정확률을 향상시킬 수 있음을 보인다.
-
본 논문에서는 한일 양국어의 연결어미에 관한 문법적 연구결과를 이용하여 효율적인 연결어미 번역방법을 제안한다. 특히, 일본어 연결어미 가운데서 가장 빈번히 사용되고 있으나 한국어로 기계번역할 경우 심각한 중의성을 보여온 [-아/-고]를 이에 상응하는 대표적 한국어 연결어미 [아/-고] 와 문법적 차원에서 비교 분석하여 자연스럽게 번역하는 방법을 제안한다. 기존의 일한기계번역 시스템에서는 일본어 연결어미 [-아/-고]의 한국어 번역 정확률이 약 54% 정도에 불과하였으나 제안하는 번역방법을 적용하면 73% 이상으로 개선됨을 보인다.
-
다국어 대화체 번역 시스템은 미국의 카네기 멜론 대학과 일본의 ATR 및 한국의 전자통신연구원 등이 가입한 CSTAR의 99년 국제간 음성언어번역 시스템 데모를 위한 한국어측 번역 시스템이다. CSTAR-IF는 국제간 데모를 위해 각 국의 시스템끼리 주고 받는 정보의 단위 혹은 형태로서, 중간언어 표현의 한 가지 방법으로 간단하면서도 단순한 표현으로 특정 영역 내에 나타나는 의미를 표현할 수 있도록 정의되었다. 다국어 번역 시스템은 크게 두 가지로 나누어진다. 하나는 한국어 음성인식 결과를 IF로 변환하는 해석 시스템이고, 다른 하나는 IF로부터 한국어 문장을 생성하여 음성으로 들려주는 생성 시스템이다. 한국어 해석 시스템은 현재 92%의 해석 성공률을, 생성 시스템은 98%의 생성 성공률을 보이고 있다.
-
영어 웹문서를 한국어로 기계번역을 하기 위해서는 웹문서에 있는 HTML 태그들을 처리하여야 한다. 본 논문에서는 웹문서의 태그들을 처리해 주는 태그 관리기를 제안한다. 태그 관리기는 영한기계번역의 대상이 되는 영어 웹문서에서 태그를 분리하고, 번역이 완료된 후에는 분리된 태그들을 올바른 위치에 복원시키는 기능을 갖는다. 태그 관리기는 태그들의 위치정보에 따른 태그들의 분류와 이를 분리하고 복원하는 기능을 가지고 태그의 내용에 따른 문장 분리기능도 가진다.
-
한국어(韓國語)의 격조사(格助詞)와 일본어(日本語)의 격조사(格助詞)의 유사성(類似性)과 상이성(相異性)에 관한 연구(硏究)는 많지만 격조사(格助詞)와 단문(單文)의 통사적(統辭的) 제약(制約)에 관한 연구(硏究)는 미비하다. 본 연구(硏究)에서는 이중대격구문(二重對格構文)의 관점(觀点)에서 양국언어(兩國言語)의 통사적(統辭的) 상이점(相異点)과 분포(分布)의 차이(差異)를 명백(明白)히 밝히며, 일본(日本)의 한국(韓日) 기계번역(機械飜譯) 시스템에서의 처리(處理)와 오역(誤譯)의 처리(處理)를 고찰(考察) 하는 것을 목적(目的)으로 한다.
-
한글의 가로쓰기와 세로쓰기 체계의 상대적 효율성을, 글을 읽을 때 관찰되는 시선 이동을 측정하여 비교하였다. 실험 1에서는 동일한 글을 가로와 세로 방향으로 제시하고, 글을 읽는 동안 시선 운동(머리 운동과 안구 운동의 합)을 공막탐지코일법(scleral search coil method)으로 측정하였다. 가로글 읽기의 경우, 시선도약(saccade)의 크기가 더 컸으며, 동일한 크기의 도약운동을 비교할 때, 세로글 읽기에 비해 상대적으로 도약운동의 속도가 높았다. 평균 고정기간(fixation duration)은 글의 읽기 방향에 따른 유의미한 차이를 보이지 않았다. 시선 도약크기와 도약운동 속도에서의 차이는 가로글을 읽는 속도를 높여 글을 읽는 시선 이동의 효율성이 가로글에서 상대적으로 높았다. 실험 2에서는 팔의 읽기 방향에 따른 시선 이동 변수에서의 차이가 글자극의 독특한 자극 특성에 기인한 것인지 혹은 시각 및 안구 운동 체계에서의 차이를 반영하는 것인지를 결정하고자 하였는데, 의미정보가 없는 점자극을 수평과 수직방향으로 제시하고, 방향에 따른 시선 이동의 차이가 글자극을 사용한 경우와 동일하게 나타나는지를 보았다. 점자극에서도 수평 방향의 시선도 약 운동이 보다 크고 정확한 경향성이 있었다. 이 결과는 사람의 시각 운동 체계가 수평 방향의 시선 이동에 대해 선호성을 보이고 있으며, 이러한 시각 및 안구 운동 체계에서의 차이가 글을 읽는 행동에도 반영되고 있음을 보여준다.
-
정상 피험자에 있어서 수행 성적의 차이를 보이는 음소적 단어 생성과 의미적 단어생성에 관련한 대뇌 피질의 활동양상의 차이를 밝히기 위해 피험자에게 단어 생성의 과제를 주면서 기능적 자기공명 영상술(functional magnetic resonance imaging, fMRI)을 시행하였다. 모두 7명의 정상인에서 음소 단서에 의한 단어생성은 의미 범주 단어에 의한 단어생성보다 광범위한 피질 영역의 활성화를 보였는데, 특히 bilateral posteroinferior temporal cortices, left premotor cortex, right cerebellum, bilateral superior parietal lobules에서 더 높은 활성화를 보였다. 이에 반하여 의미적 단어생성은 주로 bilateral posterior cingulate gyri에서 더 높은 활성화를 보였다. 이런 결과는 음소적 생성은 가능한 자모를 조합하여 어휘를 생성한 후 작업기억에 일시 저장시켜 놓고 verbal rehearsal 과정을 사용하여 단어 여부를 판별하는 것을 시사하며, 의미적 생성은 mental imagery를 통하여 시각적 인출 단서를 찾은 후, 의미 기억으로부터 단어를 직접 인출하는 것으로 보인다.
-
은유와 환유에 의해 생성된 문장들은 합성성의 원칙(compositionality principle)에 맞지 않기 때문에 전통적인 언어학에서 많이 다루어지지 않았다. 그러나, Lakoff(Lakoff & Johnson 1980; Lakoff 1987, 1993)와 그의 동료들에 의해서 은유에 대한 인지언어학적인 접근이 시도되면서 활발히 연구되기 시작했다. 그들에 의하면 인간의 일상언어의 많은 표현들이 은유에 의해서 생성되며, 인간의 인지체계가 개념적 은유 (conceptual metaphor)로 이루어져 있다고 주장한다. 본 논문은 화(anger)의 감정을 나타내기 위한 한국어 표현들을 분석하여 인간의 인지체계의 은유적인 양상을 밝혀보고자 한다.
-
인터넷은 다양한 언어로 구성된 정보를 사용자들에게 제공해 준다. 따라서 인터넷 환경상의 정보 다국어화는 앞으로도 점차 가속화될 것으로 보인다. 그러나 각 국가별 지역 코드는 다국어 정보화를 가로막는 하나의 걸림돌이 되고 있다. 본 논문에서는 실사용자(end-user)와 개발자(developer) 환경에서 발생하는 다국어 지원의 문제점에 대해 알아보고, 이를 부산대학교 언어 정보 연구실에서 연구중인 다국어 지원 방법과 연관하여 특히 웹 환경에서 다국어가 동시에 지원될 수 있는 방안에 관해 연구하였다. 한글 환경에서 다국어가 원활히 지원되기 위해서는 유니코드 도입과 함께 다국어 입력 알고리즘이 개발되어야 하며, 이에 따른 다국어 입력 컨트롤 및 라이브러리 개발이 선행되어야 한다. 또한 웹 환경에서도 KS-C-5601 기반이 아닌 Unicode 기반 웹 환경 구축이 진행되어야 할 것이다.
-
본 논문에서는 한국어 구문 해석을 위해 동사 중심의 구문 틀 정보를 구축하고, 나아가 결합 빈도가 높은 명사와의 결합 관계를 하나의 네트워크로 구성하는 구문 해석의 방법을 제안한다. 동사 중심의 구문 틀과 명사의 의미 자질은 구문 해결에서 아주 중요한 역할을 하는 것으로, 구문의 비문 여부를 가리는 데 도움을 준다. 그러나 명사의 의미 자질은 경계가 모호하여 구문의 적격성(wellformedness)을 가리기에는 부족한 점이 많다. 따라서 동사와 명사의 결합 관계를 이용하면 구문의 의미적 적격성을 좀 더 명시적으로 가릴 수 있다. 한국어에서 기본 동사이고, 초등학교 교과서에서 사용된 빈도가 아주 높은 동사 '가다'를 가지고 구체적으로 구문 틀 정보와 결합 명사의 의미 자질 및 결합 관계를 정리하였다.
-
본 논문에서는 한국어의 전산처리를 위한 문법 모형 개발의 일부분으로 HPSG에 기반한 문법 모형의 개발을 시도한다. 문법 모형의 개발에는 ALE(Attribute Logic Engine)를 이용하며, 보문 구조와 보조 용언 구문을 분석하기 위한 사전구조 및 문법 규칙을 제시한다. 그리고 문의 종류 (Sentence Type:ST)와 문계(Sentence Level: SL), 시제, 존대 등을 분석해서 표상하기 위한 유형 계층 및 어휘부, 문법 규칙, 문법 원리 등을 제시한다.
-
본 논문에서는 X-바 이론을 한국어에 적용하여 서로 다른 범주들간의 구조적 일반성을 파악하고, 한국어에 가능한 규칙만을 허용하여 불가능한 규칙을 배제시킬 수 있는 틀을 제시하고자 한다. 한국어가 비중심어간 어순이 자유롭고 기능어가 발달했다는 점을 고려하여, 중심어와 보충어 관계 중심의 기존 X-바 이론을 통사적 파생과 의미적 파생, 수식 및 하위범주의 관계를 중심으로 변형한다. 또한, 한국어의 빈번한 생략현상과 부분 자유 어순에 효과적으로 대응할 수 있도록 이진결합 중심의 CNF(Chomsky Normal Form)를 따른다. 제안하는 자질기반의 한국어 구구조 문법은 직관적이고 간단하면서도 대부분의 문장을 처리할 수 있을 만큼 표현력이 뛰어나다는 장점이 있다. 신문기사에서 454문장을 추출하여 실험한 결과, 약 97%의 문장에 대해 올바른 구문 분석 결과를 생성할 수 있음을 보였다.
-
한국어 구문 분석에 적용되어 왔던 의존 문법이나 구구조 문법들은 각각의 장점들만큼 구문 중의성 해결의 어려움과 구구조 기술 한계성 등의 문제점들을 내포하고 있다. 따라서 본 연구는 LTAG(lexicalized tree adjoining grammar)을 기반으로 기존 문법들의 장점들을 수용하는 새로운 구구조 문법 시스템을 제안한다. 이는 기본 트리 프레임, 기본 트리 명시 규칙, 기본 연산 제약 규칙으로 구성되어 있으며 역방향 구문 분석 기법을 이용한다. 끝으로 실험을 통하여 제안하는 시스템의 한국어 구문 분석에 대한 타당성을 보이고자 한다.
-
확률적 언어모델링은 일련의 단어열에 문장확률값을 적용하는 기법으로서 음성인식, 확률적 기계번역 등의 많은 자연언어처리 응용시스템의 중요한 한 요소이다. 기존의 접근방식으로는 크게 n-gram 기반, 문법 기반의 두가지가 있다. 일반적으로 n-gram 방식은 원거리 의존관계를 잘 표현 할 수 없으며 문법 기반 방식은 광범위한 커버리지의 문법을 습득하는데에 어려움을 가지고 있다. 본 논문에서는 일종의 단순한 의존문법을 기반으로 하는 언어모델링 기법을 제시한다. 의존문법은 단어와 단어 사이의 지배-피지배 관계로 구성되며 본 논문에서 소개되는 의존문법 재추정 알고리즘을 이용하여 원시 코퍼스로부터 자동적으로 학습된다. 실험 결과, 제시된 의존관계기반 모델이 tri-gram, bi-gram 모델보다 실험코퍼스에 대해서 약 11%에서 11.5%의 엔트로피 감소를 보임으로써 성능의 개선이 있었다.
-
본 논문에서는 확률문맥자유문법의 규칙확률을 추정하여 주는 새로운 알고리즘을 제시한다. 이 알고리즘은 이미 잘 알려진 인사이드-아웃사이드 알고리즘에 비하여 개념적으로 이해하기 쉽다는 장점을 가지고 있으며 속도면에서 훨씬 빠르다는 것이 실험으로 입증되었다.
-
한국어 문서에는 여러 어절을 검증해야만 처리할 수 있는 의미 오류와 문체 오류가 있다. 다수 어절 사이에 있는 오류는 부분 문장 분석을 한다. 논문에서는 의미 오류와 문체 오류를 처리할 때 어휘적 중의성 때문에 생기는 문제점을 제시하고 해결방법을 제안한다. 어휘적 중의성이란 한 단어가 두 가지 이상의 형태소 정보를 가짐을 뜻한다. 철자검사기와는 달리 문법 검사기에서는 어휘적 중의성을 제거하지 않으면 여러 가지 검사 오류가 발생한다. 이 논문에서는 의미, 문체 시스템에서 어휘적 중의성 때문에 검사 오류가 발생할 수 있는 과정을 크게 세 단계로 분류하였다. 연어 오류가 발생할 수 있는 검사단어가 어휘적 중의성을 가지면 표제어가 다른 규칙이 여러 개 존재한다. 이 때 규칙 선택 문제가 생긴다. 중의성 문제는 부분 문장분석 과정에서도 지배소와 의존소 사이의 의존관계를 정확하게 설정하기 어렵게 한다. 본 논문에서는 각 단계에서 발생한 문제를 최소화하여 문법 검사기의 성능을 향상시킨다.
-
본 논문은 보조사로 인해 야기되는 한국어 미지격의 구문관계 중의성 해소를 위한 새로운 기법을 제안한다. 기존의 연구는 수작업으로 얻어진 동사의 의미적 선택 제약을 사용하는 방식과 단어 간의 공기패턴과 빈도를 어휘 레벨에서 추출하여 중의성을 해소하는 방식으로 나뉠 수 있다. 본 논문은 말뭉치에서 어휘 레벨이 아닌 개념패턴과 격의 분포 값을 자동으로 추출하여 미지격의 구문관계를 결정한다. 개념패턴과 용언의 격 분포 정보를 적용하여 구문분석 단계에서 실험한 결과, 본 논문이 제안한 방법은 92%의 미지격 결정 정확율을 보였다. 개념패턴은 지식의 저장공간을 줄이고 격 결정 범위를 확장할 수 있기에 범용 구문분석 시스템으로의 확장을 가능하게 한다.
-
구문 분석에서의 중의성을 해결하는 데 어휘정보가 유용하다는 것은 잘 알려져 있다. 그러나 기존의 어휘정보 구축 방법들은 많은 수작업을 요구하거나, 자동으로 구축하는 경우에는 어휘 자체를 그대로 사용함에 따라 심각한 자료 회귀성 문제가 발생했다. 본 논문에서는 구문 분석에서의 중의성 해소를 위해 원시 코퍼스와 시소러스를 이용하여 개념 수준(conceptual-level)의 일반화된 술어-인자 어휘정보를 자동으로 구축하고, 이를 파서에 적용하는 방법을 제안하고자 한다. 제안한 방법으로 구축한 일반화된 어휘정보를 파서를 이용하여 명사구의 지배소 결정 실험에 적용하여 본 결과, 정확도가 85.9%에서 91.5%로 향상되었다. 또, 미지격 결정 실험에 대해서는 86.32 %의 격 결정 성공률을 보여주었다.
-
구문 분석에 있어서 어휘 정보는 구문적 중의성을 해결하는 데 매우 중요한 역할을 한다. 본 논문에서는 대량의 말뭉치로부터 추출된 공기 정보가 구문 분석에서 효과적으로 이용될 수 있음을 보인다. 첫째, 공기 정보로부터 보다 의미있는 연어를 추출하고 이를 구문 분석에 이용함으로써 보다 효율적인 파서의 구축이 가능함을 밝힌다. 둘째로는 대량의 말뭉치로부터 추출한 공기 정보가 구문 분석시 보조사나 조사 생략에 의한 격 중의성 혹은 관계 관형절에서 발생하는 명사구 이동에 따른 격 중의성의 해결에 적용될 수 있음을 보인다. 이를 위해 본 연구에서는 연세대학교 한국어 사전 편찬실의 연세 말뭉치 3,000만 어절과 KAIST 말뭉치 중 1,000만 어절로부터 <서술어, 명사, 격관계> 공기 정보를 추출하였다.
-
구문분석(syntactic analysis)은 형태소 분석된 결과를 입력으로 받아 구문단위간의 관계를 결정해 주는 자연어 처리의 한 과정이다. 그러나 구문분석된 결과는 많은 중의성(ambiguity)을 갖게 되며, 이러한 중의성은 이후의 자연어 처리 수행과정에서 많은 복잡성(complexity)를 유발하게 된다. 지금까지 이러한 문제를 해결하기 위한 여러 가지 연구들이 있었으며, 그 중 하나가 대량의 데이터로부터 추출된 통계치를 이용한 방법이다. 그러나, 생성된 모든 구문 트리(parse tree)에 통계치를 부여하고, 그것들을 순위화하는 것은 굉장히 시간 소모적인 일(time-consuming job)이다. 그러므로, 생성 가능한 트리의 수를 효과적으로 줄이는 방법이 필요하다. 본 논문에서는 이러한 문제를 해결하기 위해 개선된 beam search 알고리즘을 제안하고, 기존의 방법과 비교한다. 본 논문에서 제안된 beam search 알고리즘을 사용한 구문분석기는 beam search를 사용하지 않은 구문분석기가 생성하는 트리 수의 1/3정도만으로도 같은 구문 구조 정확률을 보였다.
-
실용적인 격틀(Case frame) 정보를 말뭉치로부터 자동구축하기 위해서는 대량의 홀문장이 필요하다. 그리고 국어 문장 형식은 영어와 많은 차이점이 있다. 또한 기존의 격틀 구축 연구에서 전제했던 광범위한 학습 데이터와 언어학적 지식은 국어에 대해 현재 존재하지 않는다. 그러므로 본 연구는 그러한 문제점들을 밝히고 현실적인 접근 방법을 제시한다. 그리고 겹문장을 홑문장 형태의 문장들로 바꾸기 위한 알고리즘을 제시한다.
-
이 논문은 한국어와 일본어의 대역문형사전 구축 시에 동사의 대역어 선정을 위한 구체적인 방법을 실증적으로 제시하는데 목적이 있다. 현재 자연언어 처리에서의 동사의 의미기술은 동사의 중의성(重義性)을 해소하려는데 초점이 맞추어져 있다. 그 주된 방법론은 동사와 결합하는 명사 의미속성의 기술에 의해 중의성을 해소하려는 것이다. 이 논문에서는 개별언어에 있어서의 명사의 의미속성의 분류가 다국어를 대상으로 하는 경우 어떻게 다루어져야 하는가에 대해 언어학적인 조명을 하는데 목적이 있다. 아울러 현재까지 일본에서 구축된 동사의 의미사전 들을 비교, 명사 의미속성 분류의 기준이 어떻게 설정되어야 하는가에 대해 검증한다. 특히 외국어와의 대조는 동사와 명사의 공기관계가 각 언어마다 독특한 결합관계를 갖으며 문법체계의 차이로 인해 개별언어를 대상으로 했을 때보다 의미기술의 양상이 상당히 달라짐을 보여줄 것이다.
-
정보 검색 시스템에서 가장 문제가 되는 어휘 클라스는 소위 '고유 명사'와 '합성 명사'로 분류되는 명사 유형이다. 이들 클라스는, 기존 대사전 및 전자 사전 (MRD)류에서, 그 어휘 목록을 체계적으로 제공하지 못하는 가장 대표적인 부류들인데, 실제 검색 시스템에서는 많은 경우 정보의 핵심어 (Key Word)가 된다. 본 연구에서는 신문, 잡지등 시사 문서류에서 가장 빈번히 발견되는 명사 유형의 하나인, '인명 관련 고유 명사' 유형에 대한 문제에 그 논의의 촛점을 두고, 이들 명사들의 체계적인 처리를 위해서 어떠한 형태로 사전을 구성해야 하는지를 검토할 것이다. '고유 명사'라는 개념 자체가 지니고 있는 외연적 정의상의 문제점을 극복하기 위해서 우리는 '백과 명사 (Encyclopedic Noun)'라는 용어를 사용하기로 하며, 이는 좁은 의미의 고유 명사 및, 전문어, 고유 명사 관련 파생-복합어류 등을 포함하는, 보다 확장된 개념으로 이해되어야 한다. <인명> 관련 백과 명사류의 하위 유형 분류 및 그 특징적 결합어 형태(Appropriate Particle)에 대한 연구 결과들이 소개된다.
-
한국어나 일본어처럼 문법형태소의 기능에 의해 단어의 통사적, 의미적 역할이 결정되는 교착어에서는 형태소 분석이 통사 분석과 의미 분석에 미치는 영향이 크기 때문에 한국어의 분석에 있어서 형태소 분석은 아주 중요하다. 관형적 표현이 많은 한글은 문법 규칙만으론 분석하기가 쉽지 않고, 분기가 많이 생성되므로 오류가 발생할 확률도 높다. 이러한 문제점을 해결하기 위해 본 논문에선 사전을 중심으로 해결하고자 한다. 그러기 위해선 방대한 용량의 사전이 필요로 하게 되고 이를 구축하기 위한 시간과 노력이 요구되므로 이미 구성된 코퍼스를 이용해 사전을 구성하여 많은 시간과 노력을 줄일 수 있도록 한다. 그리고 생성되는 많은 분기 가운데 올바른 경로를 찾아 가기 위해 코퍼스내의 각 태그 결합정보를 추출하고 추출한 결합정보의 통계정보-코퍼스내에서 사용된 빈도수-포함하여 우선순위를 정하도록 한다.
-
통합정보사전은 각종 자연언어처리 시스템에 있어서 고도의 언어처리 및 성능향상을 위한 필수 요소이며, 아무리 좋은 언어 처리 도구와 처리 알고리즘이라도 계산언어학에 근거한 양질의 체계적인 전자사전이 없는 한 이의 실용화는 불가능하다. 기존에 출판되어 있는 사전은 자연언어처리 및 이해의 관점에서 개발된 사전이 아니며, 자연언어처리 도구 및 응용시스템에 사용되는 사전은 목적에 따라 각기 다른 체계에 의해 구축되어 있어 이용하는데 있어서 비효율적이다. 따라서, 고도의 언어처리 및 이해를 목적으로 한 체계적이며 과학적인 방법론을 이용하여 형태소, 구문, 의미정보 등 각종 정보가 통합된 통합정보사전의 개발이 반드시 필요하다. 본 논문에서는 다국어 통합정보사전 구축을 위한 한국어 용언의 통합정보사전을 설계한다. 이를 위해 사전구축 방법론을 정립하고, 정립된 방법론을 바탕으로 하여 통합 정보사전의 개발을 위한 통합정보사전 개발 시스템을 설계하고 구현하였다.
-
자연언어 처리 시스템은 시제품 개발이 비교적 용이한 반면에 이를 실용적인 시스템으로 발전 시키는데 많은 어려움이 있다. 본 논문에서는 형태소 분석기와 구문분석기, 기계번역 시스템 등을 개발할 때 발생하는 문제점과 방법론을 고찰하고, 실용적인 시스템을 개발하기 위한 효율적인 방법으로 2-step 패러다임과 이를 실현하는 방안으로 기능별 모듈화에 의한 divide and conquer 기법, 단순화 기법, 예외처리 기법 등을 활용하는 방법을 제안한다.
-
최근 컴퓨터 통신 기술의 발달로 인하여 교육분야에서의 컴퓨터 통신망을 이용한 학습의 효율성 증대에 대한 연구가 활발하다. 지금까지의 학습 방식은 교과목 특성의 개별성을 인식하지 못하거나 혹은 기술적인 문제점 등으로 인하여 학습자들에게 일관된 단답형이나 선다형의 학습 방식을 요구하여 왔다. 웹을 기반으로 한 원격 교육으로의 활용 측면에서 프랑스어와 같은 제2외국어의 경우, 한국어 환경에서의 프랑스어 악상 문자 입력이나 개별화된 저작 언어 개발 등의 문제점이 제기된다.
$\lceil$ Voila-web$\rfloor$ 은 한국어를 모국어로 하는 프랑스어 학습자들을 위한 교육 시스템으로 개별 교과목의 특성을 반영하고 능동적인 학습 방식을 통한 학습의 효율성 증대를 위한 시스템이다. 학습자들에게는 학습 자료의 전체적인 내용 흐름만을 제시하고 영역별 구체적인 자료의 전개는 다양한 교과 내용을 자유 항해할 수 있도록 설계되어 있다. 이는 학습자들로 하여금 통신망을 통한 컴퓨터 이용 학습의 장점을 기존의 학습 방식에 보완하여 보다 능동적인 학습 방식을 유도하여 학습의 효율성을 증대시킬 수 있다. -
컴퓨터 상에서 모든 한글 음절을 구현하고자 하면 현대한글 11,172음절의 완성형 코드나 조합형 코드를 사용해야 하는데 조합형의 경우 글자의 미려도가 떨어지는 문제성이 발생되므로 자소 벌수를 늘려 그 문제점을 보완하려는 연구가 진행되어 왔다. 이는 메모리 및 코드처리상 비효율적인 요소가 많으므로 본 논문에서는 자소는 초 중 종성 각각 6벌씩만 제작한 후 자소의 어울림에 따라 자소의 이동과 변형으로 그 미려도를 추구할 수 있는 방안을 제시하고자 한다.
-
온라인 필기 한글 인식 연구 중 HMM 네트워크를 기반으로 한 방법이 흘려 쓴 한글 인식에 있어서 우수한 성능을 보여주고 있다. 하지만, 또박또박 쓴 정서체 한글 인식에 대해서는 때때로 예측하지 못한 결과를 출력하기도 한다. 필기자가 정성 들여 필기했을 경우 보다 일관성 있는 인식 결과를 출력할 수 있는 것이 중요하다. 또한 계산 능력이 떨어질 수밖에 없는 휴대용 컴퓨터에서의 활용을 위해 인식 속도의 향상도 필요하다. 따라서 본 논문에서는 정서체 인식률 및 인식 속도 개선을 위해 16-방향 체인코드 대신 구조적 정보를 포함하는 새로운 코딩 방식을 제안하고자 한다.
-
이 논문은 대용어의 한 유형으로 인정되는 영형 대명사를 식별하기 위한 것이다. 이를 위해서는 한국어 통사 규칙들과 사전 항목들이 필요하다. 사전 항목들은 각각 자질과 값을 갖고, 통사 규칙 내부에는 이런 자질과 값들이 명세된다. 이 통사 규칙들을 토대로 하여, 발화체에 통사 구조들을 부여한다. 영형 대명사는 자질과 값을 명세한 통사 규칙을 씀으로써 식별이 가능하다. 영형 대명사는 주어와 보충어로 나뉘는데, 영형 주어는 동사가 머리인 S의 subj 자질 값이 cov(covert)일 때 식별된다. 영형 보충어는 다시 명사구와 동사구의 covc (covert complement) 자질 값이 0이 아닐 때 식별된다. 이러한 자질과 값으로 영형 대명사를 식별하는 하나의 알고리듬을 제안한다.
-
본 연구는 한국어 대화인지모형을 구축하는 데 필요한 화용론적 지식에 관한 연구의 일환으로, 부대화의 개시 및 종료 시점에서 나타나는 담화 참여자의 의도 및 그 의도와 관련된 표층표지를 분석하고, 나아가 필수 논항 성분의 하나로서 대화체에서는 자주 생략되어 나타나는 청화자 논항의 의미복원을 위한 예비적 단계로서 술어의 어미 특성 및 화자의 언어행위 혹은 화행과 관련하여 청자 논항의 생략 유형을 분류하고 분석했다. 이러한 연구는 한국어 대화 에이전트를 개발하는데 있어 필수적인 단계로서 향후 대화체 이해시스템 연구에 기초적인 틀을 제공해 줄 수 있다.
-
개념기반 한국어 대화체 분석 시스템에서 어려운 점으로 대두될 수 있는 것 중의 하나가 대화체 파싱에서 과다한 탐색공간의 생성이다. 과다한 탐색공간의 생성은 대화체 발화문으로부터 불필요한 탐색공간을 제거하는 메커니즘의 결여 때문이다. 따라서 본 논문에서는 이러한 문제점을 해결하고자 개념에 기반 되어서 작성된 문법을 통해서 얻어진 동사정보를 구성하여 단일 최상위 레벨 개념들로 분리하고 이를 가장 최소 개수의 최상위 레벨 개념으로 제한해서 제한된 개념으로 대화체 토큰열을 전사시키는 방법을 제시하였다. 그 결과 기존 탐색공간의 40%정도의 탐색공간을 제약할 수 있었다.
-
본 논문에서는 화행처리를 기반으로 한 중고자동차 매매 영역 대화시스템 구축 과정에서 활용한 자연언어 대화체 발화의 언표적 행위와 언표내적 행위 간의 관계를 살펴보고자 한다. 하나의 언표적 행위는 여러 상이한 언표내적 행위를 수행할 수 있으며 또 역으로 여러 언표적 행위가 동일한 언표내적 행위를 구성하기도 한다. 이처럼 언표적 행위와 언표내적 행위 간에는 획일적이고 일률적인 상관관계를 설정하기가 어렵다. 그럼에도 불구하고 대화에 나타나는 발화들은 어떤 행위를 구성하는 경향이 강하고 이 행위들은 각 발화의 언표내적 행위로 결정되며 단일 발화들이 모여서 이루는 대화에는 화행의 흐름이 있기 마련이다. 따라서 우리는 본 논문에서 대화시스템의 효율적인 대화관리를 위해서 실제 자연언어 발화와 그에 따른 언표적 행위, 언표내적 행위를 올바로 분석하고 그 관계를 규명하여 대화를 자연스럽게 유도하도록 한다.
-
한국어가 연속적으로 발음될 때 여러 가지 음운 변동현상이 일어난다. 이것은 한국어 연속음성 인식을 어렵게 하는 주요 요인 중의 한가지이다. 본 논문은 음운변동현상이 반영된 음성 인식 문자열을 규칙에 의거하여 text 기반 문자열로 다시 복원시키고 복원 결과 후보들을 형태소 분석하여 유용한 문자열만을 최종 결과로 생성하게 하는 시스템을 구성하였다. 복원은 4가지 rule 즉, 음절 경계 종성 초성 복원 rule, 모음처리 복원 rule, 끝음절 중성 복원 rule, 한 음절처리 rule에 따라 이루어진다. 규칙 적용 과정중에 효과적인 복원을 위해 x-clustering정보를 정의 하여 사용하고, 형태소 분석기에 입력될 복원 후보수를 제한하기 위해 postfix음절 빈도정보를 구하여 사용한다.
-
음성의 과학적인 연구를 위해서는 대상이 되는 음성을 체계적으로 수집 정리한 음성 데이터베이스가 필요하다. 본 논문에서는 공동 이용을 목적으로 본 연구팀에서 지금까지 구축한 음성 DB의 중간 결과 및 향후 구축계획에 대하여 기술한다.
-
대용량의 연속된 음성을 인식하는 데에는 형태소 사이의 음운변동과 언절과 어절 사이의 불일치 등으로 인한 어려움이 따른다. 그러므로 언어학적인 지식을 이용한 자연어 처리 기술과의 결합이 필수적이라 할 수 있다. 본 논문에서는 문장 단위의 연속 음성 문자열을 올바른 어절로 띄어주는 시스템을 제안한다. 먼저 띄어쓰기 발음열 사전을 이용하여 어절의 경계를 추정한다. 이 때 보다 정확한 띄어쓰기 위치를 추정하기 위하여 2음절 이상의 최장 조사 어미와 음절 분리가능빈도가 이용된다. 이렇게 해서 분리된 어절들은 음절 복원기를 거친 뒤, 형태소 분석을 행하여 올바른 어절인지를 검사한다. 분석에 실패한 어절은 띄어쓰기 오류 유형에 따라 교정을 한 후 형태소 분석을 재시도한다. 제안한 시스템을 테스트해 본 결과 96.8%의 정확도를 보였다. 본 시스템은 음운 변동 처리기와 함께 말소리를 음성 그대로 인식하는 인식기의 후처리로 이용할 수 있을 것이다.
-
본 논문에서는 언어학적 단위인 형태소의 특성을 유지하면서 음성인식 과정에 적합한 분리 기준의 새로운 디코딩 단위인 의사형태소(Pseudo-Morpheme)를 정의 하였다. 이러한 필요성을 확인하기 위해 새로이 정의된 40개의 품사 태그를 갖는 의사 형태소를 표제어 단위로 삼아 발음사전 생성과 형태소 해석에 초점을 두고 한국어 연속음성 인식 시스템을 구성하였다.
-
본 논문은 의미 중의성 해소에 있어서 품사 태깅의 중요성을 언급한 Wilks의 논문 [6]을 근거로 하여 한국어 의미 중의성 해소에 있어서의 품사 태깅의 역할을 살펴보고, 영어의 경우와 비교, 분석한다. 한국어 사전과 코퍼스를 각각 대상으로 품사 태깅을 이용한 의미 중의성 실험 결과, 한국어의 경우는 영어의 경우보다 품사를 이용한 의미 중의성 해소율이 떨어지는 결과를 보이고 있다.
-
의미 TAG는 한국어 기초어휘에 대한 개념지식을 구축하는 데 기본이 될 뿐만 아니라, 문장 분석시의 구조적 모호성과 단어 의미 모호성을 해소하는 중요한 단서를 제공할 수 있다. 이러한 의미 TAG가 실용적으로 여러 응용 시스템에서 사용되기 위해서는 광범위하고 타당한 자료를 바탕으로 하여 객관적인 방법으로 설정 되어야 한다. 국어사전의 뜻풀이말에서의 상위개념을 표제어의 상위어로 선정하는 bottom-up 방식으로 구축하였던 한국어 명사의미체계는 근본적으로 사전편찬자의 비일관적인 뜻풀이말의 기술에 따른 여러 문제점이 있었다. 본 연구에서는 이러한 문제점들을 해결하기 위해서 사전 뜻풀이말에서 상위개념을 수식하는 어절과 용언의 의미호응관계에서 상위개념의 의미속성을 추출하고, 이들 의미속성에 의한 명사 의미체계를 구축하여 이를 바탕으로 명사의미 TAG를 설정할 수 있도록 하였다.
-
본 논문에서는 단어들의 분포적 특성을 이용하여 자동으로 단어를 군집화(clustering) 하는 기법을 제시한다. 제안된 군집화 기법에서는 단어들 사이의 거리(distance)를 가상 공간상에 있는 두 단어의 평균점에 대한 불일치의 합(total divergence to the average)으로 측정하며 군집화 알고리즘으로는 최소 신장 트리(minimal spanning tree)를 이용한다. 본 논문에서는 이 기법에 대해 두 가지 실험을 수행한다. 첫 번째 실험은 코퍼스에서 상위 출현 빈도를 가지는 약 1,200 개의 명사들을 의미에 따라 군집화 하는 것이며 두 번째 실험은 이 논문에서 제시한 자동 군집화 방법의 성능을 객관적으로 평가하기 위한 것으로 가상 단어(pseudo word)에 대한 군집화이다. 실험 결과 이 방법은 가상 단어에 대해 약 91%의 군집화 정확도와(clustering precision)와 약 81%의 군집 순수도(cluster purity)를 나타내었다. 한편 두 번째 실험에서는 평균점에 대한 불일치의 합을 이용한 거리 측정에서 나타나는 문제점을 보완한 거리 측정 방법을 제시하였으며 이를 이용하여 가상 단어 군집화를 수행한 결과 군집화 정확도와 군집 순수도가 각각 약 96% 및 95%로 향상되었다.
-
본 논문은 문맥에서 추출한 가중치 정보를 이용한 한국어 동사의 의미 중의성 해소 모델을 제안한다. 중의성이 있는 단어가 쓰인 문장에서 그 단어의 의미 결정에 영향을 주는 단어들로 의미 결정자 벡터를 구성하고, 사전에서 그 단어의 의미 항목에 쓰인 단어들로 의미 항목 벡터를 구성한다. 목적 단어의 의미는 두 벡터간의 유사도 계산에 의해 결정된다. 벡터간의 유사도 계산은 사전에서 추출된 공기 관계와 목적 단어가 속한 문장에서 추출한 거리와 품사정보에 기반한 가중치 정보를 이용하여 이루어진다. 4개의 한국어 동사에 대해 내부실험과 외부실험을 하였다. 내부 실험은 84%의 정확률과 baseline을 기준으로 50%의 성능향상, 외부 실험은 75%의 정확률과 baseline을 기준으로 40 %의 성능향상을 보인다.