1993.10a
-
본 논문은 조건 단일화 기반 문법을 사용한 우리말 분석에 관한 연구이다. 우리말은 문법이 매우 간단한 반면 생략현상이 빈번하고 어순이 자유로운 언어이다. 우리는 이와같은 특징을 잘 소화해내기 위한 방법으로 조건 단일화 기법을 제안한다. 본 논문에서 사용한 문법은 PATR II이며 실험을 위한 시스템은 Sparc Station
$I^*$ 위에서 Lisp를 사용해 구현하였다. 이를 바탕으로 우리말 파싱시 가장 어려운 문제들이라고 여겨져 온 생략, 도치, 보문화등을 조건 단일화 기법을 이용하여 분석할 수 있음을 보인다. -
한국어는 구문요소의 문법기능이 표면구조상에 명시되는 구문특성을 갖고 있다. 이러한 특성은 한국어의 문법체계가 feature중심으로 전개되고 있음을 의미한다. 한국어에서의 feature 특성과 이진 결합 관계를 중심으로 하는 chart parsing 알고리즘을 제시하고 한국어 chart parser을 구현하였다.
-
한국어의 내포문은 컴퓨터에 의한 자연어 이해 및 처리에 많은 어려운 문제점의 원인이 되고 있다. 이러한 문제점을 해결하기 위하여 본 논문에서는 한국어 내포문을 단문으로 분리하는 시스템을 설계 및 구현한다. 내포문에서 생략성분을 효율적으로 복원하기 위해 안긴문장의 생략된 부분을 통제할 수 있도록 용언을 유형별로 분류한다. 내포문을 단문으로 분리할 때 내포문에 비해 분리된 단문의 의미가 결여 될 수 있다. 이러한 문제점을 해결하기 위해 대용어를 첨가시키는 방법을 사용한다. 그리고 명사 의미표지로부터 용언의 하위범주의미역으로의 변환 테이블을 구성하여 문맥적으로 틀린 문장을 검색, 처리할 수 있는 방법을 제안한다.
-
본 논문에서는 의존문법을 이용해 한국어와 같이 비교적 어순이 자유롭고, 지배성분 후위의 특성을 갖는 언어를 효율적으로 분석할 수 있는 오른쪽 우선 분석 방법을 제안한다. 지배가능경로를 이용하면 생성되는 의존 트리의 수를 줄일 수 있음을 보이며, 의존 관계의 검사를 위해서는 지배가능경로 상의 문장 성분만을 조사하면 됨을 보인다. 한국어에 적용한 실험 결과를 보이며, 각 방식에 따른 비교 기준은 생성되는 외존 트리의 갯수와 분석 수행 시간으로 한다. 이때 한국어 문장성분간의 의존관계는 품사 분류에 의한 기본적인 의존 관계만을 이용하며, 격돌이나 의미 속성 등 추가적인 제약 사항은 이용하지 않는다. 오른쪽 우선 구문 분석은 지배가능경로를 이용함으로써 의존 관계의 빠른 검색을 할 수 있었으며, 문장 지배 성찰을 포함하지 않는 부분 의존 트리를 생성하지 않음으로써 생성되는 의존 트리의 수를 줄일 수 있었다.
-
현재 국내에서 한국형 정보 검색 시스템의 중요성을 인식하고, 이를 국내 기술로 구축하려는 여러 시도들이 진행중에 있다. 이 가운데 정보 검색 시스템 구축에 기반이 되는 정보 저장 하부 구조로서, 한글 문서를 위한 효율적인 문서 검색 기법에 대한 연구는 필수적이다. 본 논문에서는 이를 위해 파일 기법을 이용한 한글 문서 검색 기법을 설계한다. 아울러, 제안된 기법을 토대로 실제 시스템을 구현하여 성능을 분석하였다.
-
개인용 컴퓨터가 많이 보급되고, CD-ROM과 같은 대용량의 기록장치가, 널리 퍼지면서, 전자화된 사전이 널리 사용되게 되었다. 그러나 이러한 전자사전들은 대개 매우 단순화된 탐색기능만을 제공하므로, 전자화의 잇점을 크게 살리지 못하고 있다. 따라서, 컴퓨터의 힘을 빌린, 보통의 종이로된 사전보다 훨씬 유용한 전자사전을 생각해 볼 수 있을 것이다. 이러한 노력이 과거 80년대 말에 하이퍼텍스트로 시작되어 이제는 매우 상업적인 곳에까지 사용되어지고있다. 국내에서도 전자사전의 개발은 다양하게 진행되어오고 있으나, 대부분 컴퓨터를 위한 사전, 다시 말하면, 빠른 접근시간, 적은 메모리사용만을 고려한 사전에 그치고 있다. 본 논문에서는 이러한 필요성에 부합하여, 백과사전자료를 가지고 사람을 위한 전자백과사전을 개발하는 방법을 소개한다. 특히, 이러한 개발과정을 자동화 할 수 있음을 보이고, 백과사전을 하이퍼텍스트로 자동변환하는 방법을 자세히 기술한다. 이 방법은 원시 자료를 하이퍼텍스트로 변환하기 좋은 정형화된 중간자료로 바꾸고, 이 중간자료와 기초적인 명사추출 알고리즘을 이용하여, 각 노드들 사이에 링크를 만드는 것이다. 또한, 이 방법을 이용하여 개발한 HE(Hypertext Encyclopedia) 시스템을 소개한다.
-
본 논문에서는 대규모 텍스트 데이타 베이스를 구축하거나 전자 도서를 구축할 때 중요한 정보에 관한 파일 구축과 정보 검색시 필요한 자동 키워드 제작기의 설계에 대하여 논하였다. 자동 키워드 제작기는 명사 사전과 조사 사전의 도움을 받아서 명사 및 복합 명사를 추출하고 중요한 키워드를 자동으로 색인하는 과정을 설계하였으며 이들 검색에 필요한 속도 및 정확도 향상에 중점을 두었다.
-
본 논문에서는 대형 데이타베이스에서의 정보검색을 위한 자연언어 인터페이스 시스템을 구현하기 위한 방법을 제안한다. 질의문의 특성을 고찰하고 이를 일반적인 문장의 관점에서 수용하여 구문분석시에 반영한다. 구문분석 결과는 다음의 후처리 절차를 통해 정형 질의어인 SQL로 변환된다. 명사의 의미소성과 도메인의 어휘적 형태를 이용하여 질의문 내에 명시적으로 나타나지 않은 정보를 추출한다. 또한 질의문 내의 애트리뷰트, 릴레이션, 상수의 관련성을 규명한다. 이 두 절차를 통해 기존의 질의어 변환 시스템에서 지식베이스화하여 사용했던 자료들을 구축할 필요가 없어지므로 데이타베이스의 변경, 삽입, 삭제에 의한 영향을 받지 않으며, 자료구조 생성에 따른 부담을 없앨 수 있다.
-
하이퍼텍스트는 문서검색 전산화의 새로운 대안을 제시하고 있으나 저작에 많은 시간과 노력이 요구되는 단점이 있다. 본 연구에서는 기존의 한글문서를 하이퍼텍스트 문서로 자동 변환하는 변환시스팀을 설계, 구현하였다. 문서는 사용자가 제공한 부제목형식의 정규표현식(regular expression)으로부터 논리적 구조가 분석되며 문서분할, 형태소분석, 대표카드결정 및 링크생성의 과정을 거쳐 하이퍼텍스트 문서로 변환된다. 시험운용 결과 본 시스팀은 대량의 한글문서를 적은 노력으로 실용성있는 하이퍼텍스트 문서로 자동 변환할 수 있음을 입증하였다.
-
본 논문에서는 연속분포 hidden Markov 모델을 이용한 화자독립 연속 음성 인식 시스템에 관해 기술한다. 연속분포 모델은 평균과 분산 벡터로 구성되며 음성신호를 직접 모델링하여 양자화 왜곡이 없어진다. 특징벡터는 filter bank 계수 및 그 1, 2차 미분계수를 사용하여 음성신호의 동적 특성을 반영하였다. Segmental K-means 알고리즘을 이용하여 학습하였으며, 연속어 인식에서 가장 문제가 되는 조음화 현상으로 인한 인식률 저하를 막기 위해 앞뒤의 음소를 고려해 주는 triphone을 인식단위로 사용하였다. Search 알고리즘으로는 시간 면에서 효율이 좋은 one-pass search 알고리즘을 사용하였다. 성능 평가를 위한 화자 독립 인식 실험에서 문법이 없을 경우 83%, finite state network율 적용한 경우에는 94%의 인식률을 나타내었다.
-
강세간 음절이 증가되는데 따른 시간의 증가비율을 알아보기 위해 남녀 및 연령으로 구분되는 4그룹을 선정하여, 증가되는 음절의 마지막 낱말이 각각 '이(V)', '도(CV)', '썽(CVC)'으로 구분되는 자료를 이용하였다. 결과적으로 나온 한국어의 강세간 음절증가에 따른 시간의 증가비율의 모습은 젊은층에서는 음절시간언어에 가까운 모습을 나타내며 이에 반해 장년층은 강세시간언어의 모습을 보여준다. 두 그룹을 하나로 통합한 결과는 음절시간언어와 강세시간 언어의 중간적 양상 즉 그리이스어와 가까운 모습으로 나타난다.
-
우리말의 표준말에서는 모음의 장단이 낱말의 뜻을 가르는 음운론적 기능을 갖는다. 그러나, 소리의 길이는 음운론적인 장단 뿐 아니라 앞뒤의 소리, 초점, 소리의 위치, 말의 속도 등과 같은 여러 음성언어학적 요소에 의해 결정되어 그 언어의 고유한 리듬을 이룬다. 이 글에서는 우리말 소리의 길이에 영향을 미치는 주요변수를 실험음성학적 결과와 함께 살펴본다.
-
하나의 음소는 보통 음성환경에 따라 여러 변이음으로 실현된다. 음성합성기로 한국어의 문장을 자연스럽게 합성해 내려고 할 때나 음성인식기가 한국어의 문장을 정확하게 인식하도록 개발하고자 할 때 변이음에 관한 정보는 필수적이다. 따라서 이 논문의 목적은 음성공학에 필요한 변이음 정보를 제공하는 것이다. 이 논문에서는 음성공학에 필요한 한국어의 주오 변이음 규칙들을 간단히 논의하고 몇몇 중요한 변이음들의 음향적 특징을 논의한다.
-
본고는, 한글 한자가 혼용된 입력 텍스트를 음성으로 변환 출력하는 포르만트 음성 합성 방식 즉, 한국어 규칙 음성 합성(이하에는 KTTS[Korean Text To Speech System]이라고 함)의 전반적인 처리 흐름에 대하여 소개한다. 특히, 입력 텍스트에 있어서, 한자 또는 각종 부호의 한글 변환 기능, 음성 출력용 문법 정보 추출에 필요한 입력문의 해석 및 구문경계 설정 기능, 또한 음소 기호 변환 및 파라메터 값 생성과 변경 처리기능을 중심으로 설명하고자 한다. 또한 본 시스템의 완성과 더불어 실시하였던 청취 실험 평가 결과에 대하여 덧붙이겠다.
-
음성인식을 위해 다양한 방법들이 제안되어 있다. 본 연구에서는 음소단위 각각의 벡터 양자화된 코드북의 색인을 학습하는 HMM을 이용하여 한국어 숫자음을 대상으로 인식 실험을 수행하였다. 실험결과, 기존의 단어단위 HMM과 음소단위로 이루어진 유한상태기계(FSM)구조의 인식기에 비해 높은 인식율을 보였다.
-
작년 발표한 '한글 원형태 연구 - 1'의 결과를 응용, '마노체'를 만들었다.
-
폰트관련기술은 폰트의 개발에 사용되는 폰트개발기술과 개발된 폰트의 효율적인 이용에 관한 폰트처리기술로 구분된다. 본 논문에서는 폰트개발기술의 대표적인 예인 서체설계지원시스템 특히 한글폰트의 개발을 쉽고 빠르게 할 수 있는 시스템의 개발에 대하여 논한다. 지금까지의 폰트개발은 서체전문가의 원도제작과정과 제작된 원도를 폰트화하는 과정으로 진행되었으나 본 시스템은 서체전문가가 직접 컴퓨터의 지원을 받아 원도를 제작하며 원도제작과정의 결과로 폰트가 만들어지도록 폰트개발과정을 일원화하도록 하였다. 이를 위하여 서체설계과정을 정의하고, 정의된 서체설계과정을 컴퓨터상에서 구현하기 위한 기법을 개발하였다. 본고에서는 참조설계로 표현되는 서체설계지원시스템의 개발을 위하여 고안된 기법중 글자의 중심선과 굵기로 윤곽선을 자동생성하는 기법과 글자의 특징을 이루는 돌기를 라이브러리화하여 운영하는 기법에 대하여 논하기로 한다. 시스템 개발은 PC상에서 VGA그래픽카드와 mouse를 사용하여 구현하였다.
-
본 논문은 통합글꼴의 탄생 배경과 쓰임새 그리고 활용하는데 알아야 할 제반 사항을 검토해 보고, 향후 윤곽선 글꼴의 발전을 위한 제안을 하고자 한다. 우선 (주)휴먼컴퓨터가 만들어 보급하고 있는 통합글꼴의 취지는 한글의 실정에 맞는 표준화된 글꼴형식을 제안하여 DOS나 Windows 환경에서 글꼴을 공유할 수 있도록 하는데 있다. 통합글꼴을 쓰는 사용자가 얻는 이득은 여러 응용프로그램에서 중복적으로 갖고 있어야 하는 글꼴을 응용프로그램에서 분리하게 되어 사용자는 한 서체만을 갖고도 여러 응용프로그램에서 공유할 수 있다는 점이다. 또한 이 통합글꼴을 자유자재로 쓸 수 있도록 도와주는 글꼴지기와 통합레스터라이저에 대해서도 간략히 기술한다.
-
한글의 글자꼴과 장평율 그리고 글줄 길이와 글줄꼴 처리 방식이 가독성에 미치는 효과를 측정하였다. 글자꼴은 명조체, 고딕체, 샘물체를 사용하였고, 장평율은 글자의 가로 대 세로 비율을 1 대 1, 1 대 2 그리고 2 대 1로 변형시킨 세 가지를 사용하였다. 글줄 길이는 60mm와 120mm의 두 가지로 하였고 글줄 끝에서 음절 단위로 끊어 쓴 문장과 어절 단위로 끊어 쓰되 띄어쓰기 여백을 조절한 문장과 조절하지 않은 문장을 사용하였다. 연구결과, 글자꼴에서는 명조체와 고딕체의 가독성이 샘물체보다 좋았고, 가로 대 세로의 비율이 1 대 1이거나 1 대 2인 글자의 가독성이 2 대 1인 글자의 가독성보다 우수하였다. 이러한 연구 결과는 한글 정보 처리 과정에서 자모보다 글자가 중요한 시각 정보로 사용되고 한번 응시하는 동안에 표집되는 글자수가 가독성에 영향을 미칠 수 있다는 사실을 시사한다. 글줄 길이는 120mm일 때의 가독성이 더 좋았고 글줄 끝처리 방식은 가독성에 영향을 미치지 않는 것으로 나타났다.
-
네모틀 글자꼴인 명조체와 고딕체, 탈네모틀 글자꼴인 샘물체와 한체, 한체로서 받침없는 글자의 높낮이를 조절한 변형한체, 명조체로서 가로대 세로의 비율을 변형시킨 장평50과 장평150의 글자꼴을 문장의 가독성과 미려함의 차원에서 비교하였다. 또한 글줄간격에 따라 이들 글자꼴에서의 차이가 어떻게 달라지는지 살펴보았다. 연구결과, 네모틀 글자꼴의 가독성이 대체로 탈네모틀 글자꼴보다 더 좋았으나, 이러한 차이는 글줄간격에 따라 다르게 나타났다. 미려함 차원에서도 네모틀 글자꼴이 탈네모틀 글자꼴보다 더 높게 평정되었다.
-
본 연구의 목적은 한국 현대시 텍스트가 독자에게 전달하는 시적 효과를 담화 텍스트 언어학 및 인지적 화용론의 관점에서 분석하는 것이다. 담화 텍스트 언어학은 텍스트의 언어 자료 자체보다는 이를 생산하고 수용하는 인지 과정에 주목하는 인지과학의 한 분야이며, 적합성 원리로 되는 인지적 화용론은 텍스트 언어학에서 규명하는 바 여러 인지적 조작 절차들의 심리학적 근거가 된다. 많은 인지적 책략 및 조작 절차들이 집약되어 있는 한국 현대시 텍스트를 인지 화용론적 관점에서 분석한 결과, 이제까지 모호하게 개진되어 오던 많은 시적 효과가 텍스트 언어학 및 인지적 화용론의 분석 장치들에 의해서 명쾌하게 설명될 수 있음이 밝혀졌다. 즉, 정보성의 격상 및 격하, 각별한 결속구조의 사용 및 그 수용 과정, 작가의 상황점검과 상황관리 과정에 의한 전국적 인지 패턴의 활성화 및 수정 등의 인지적 절차를 통해서 독자의 맥락이 수정, 확장되는 효과가 일어나고 바로 이것이 궁극적으로는 시적 효과를 낳는다는 점을 설명할 수 있다.
-
이 연구에서는 지식 유형, 텍스트 유형 및 언어 산출 양식이 언어 산출 과정에 미치는 효과를 알아보았다. 본 연구에서는 산출할 말글에 대한 1) 사전정보를 대형(거시적) 의미구조, 소형(미시적) 의미구조, 관련 단어들의 모음의 세 지식 유령에 의해 조작하고, 2) 산출할 말글 유형을 이야기 말글과 논술 말글의 두 유형으로 변화하고, 3) 언어 산출 양식을 말하기, 펜으로 쓰기, 컴퓨터로 쓰기의 세 양식으로 변화하였을 때에, 언어 산출 과정에 어떠한 처리 부담이 가하여지는가를 3개의 실험을 통하여 연구하였다.
-
우리 일상 생활에서 매일 이루어지는 대화(conversation)를 살펴보면, 모든 대화는 어떤 '논제(topic)' 중심으로 이루어진다. 이 논문은 이런 논제 중심의 대화를 인지학적인 견해에서 재고해보고자 한다:논제는 우리의 인지구조로부터 어떻게 선택되며, 채택된 논제는 어떻게 상대방에게 전달되는가?
-
Barwise & Cooper (1991)는 Hans Kamp(1981)의 DRS(Discourse Representation structure)를 기초로 EKN(Extended Kamp Notation)을 개발하였다. 본 논문은 EKN을 통해 실제 자연언어의 의미를 분석하는 데 그 목적이었다. 특히 이 논문은 양화사 의미해석의 기본개념이 되는 자원상황(resource situation), 치역(range), 사건(event) 등의 개념을 구체화하여 영어나 한국어 명사구의 누적성과 의존성에 관련된 의미를 분석한다. '세명의 학생이 (비디오 가게에서) 영화 일곱편을 빌렸다'라는 표현은 '학생'과 '영화'의 배분성
${\pm}$ 과 집합성${\pm}$ 에 의한 일곱가지 해석 이외에 '세명의 학생이 각자 빌린 영화들이 일곱가지'라는 누적적 해석도 가능하다. 이러한 명사구의 누적적 해석에 대하여 분석하고, 'John always wears a tie,. They, were all silk,'에서 'a tie'와 'they'가 공지표화(i) 되기 위한 통사적 요건(성, 수의 일치)을 충족하지 않는 의존적 복수에 대하여도 분석한다. -
본 논문은 온라인 한글인식 시스템에서 오인식된 단어를 교정하는 알고리즘이다. 교정 기법으로는 N-gram 한글사전을 이용하였다. 오인식된 단어는 후보키의 선정과 선정된 후보문자중 가장 유사한 단어로 대체된다. 오인식 단어는 사전에 수록된 단어의 형태소 정보 즉, 사전의 표제어, 이의 품사 및 접속 규칙을 활용하여 교정된다. 본 논문은 오인식 교정에서 필요한 한글의 형태소 분석기에 관한 선행연구를 전제한다.
-
대량의 말뭉치에서 나타나는 맞춤법 오류의 대부분은 타자수의 입력 실수로 인한 것이다. 맞춤법 오류의 유형은 크게 띄어 쓰기 오류, 철자 오류, 띄어 쓰기와 철자의 복합 오류의 세 가지로 나타난다. 이 중, 철자 오류를 표층 형태만으로 표준어 오류, 조사/어미 오류, 자소 대치 오류로 유형을 분류하였다. 본 논문은 300만 말뭉치에서 형태소 분석이 실패한 맞춤법 오류 어절 중에서 띄어 쓰기와 철자 오류를 분석하여, 각 오류 유형에 따른 교정 방법과 자소 대치 규칙 베이스를 이용한 교정 방법을 구현하였다. 또한 형태소 분석기를 거친 40만 어절 사전을 이용한 분석기로 기존의 형태소 분석기를 대치시켜 교정 어절을 검증하였고, 위의 사전에서 추출한 순위 결정 요소와 Heuristic 정보를 이용하여 각 후보 어절에 대한 가중치를 계산하고 가능성이 높은 교정 어절을 제시하는 시스템을 구현하였다.
-
제약이 없이 자유롭게 쓴 오프라인 필기체 한글을 인식하는 문제는 응용분야에 따른 도메인의 정보를 이용함으로써 보다 쉽게 접근할 수 있다. 본 연구는 오프라인 필기체 한글 인식을 위한 한 도메인으로 우편봉투를 대상으로 하였을 때, 우편번호가 할당된 지명과 건물명을 대상으로 글자의 종류와 빈도수를 통계 분석하였다. 분석 결과 가능한 한글 조합 11,172자중 403자만이 쓰이고 있음을 알았다. 이러한 정보는 자소 분할이 어려운 오프라인 필기체 한글 인식에 있어, 문자 단위 정합을 사용했을 때 인식속도 및 인식률 향상에 기여 할 것으로 생각된다.
-
스펠러와 같은 오류 처리 기법은 한 어절 사이의 처리에 국한되거나, 또는 수사 처리와 같이 일부 제한된 품사 영역에서만 어절을 넘어선 처리가 행해지고 있다. 한편 교열과 같은 어절 단위를 넘어선 오류 처리는 완벽한 통사 분석과 의미 해석을 반드시 필요로 한다고 생각되어져 왔다. 그리고 현재 한국어 처리에서는 완벽한 통사적, 의미적 처리가 불가능하기 때문에 교열 시스템 또는 어절 단위를 넘어선 오류 처리에 대한 연구가 거의 전무한 실정이다. 본 논문은 어절을 넘어선 오류의 유형을 분류하고, 문장 단위로 관련된 단어 사용오류를 검사하는 기법과 관련 단어 처리를 위한 규칙 데이타 베이스의 구조를 제안한다. 단어 사이에 존재하는 통사적, 의미적 지배 관계와 연관 관계를 어휘선택 제약으로 이용함으로써 완벽한 통사 분석과 의미 분석이 없이도 교열이 가능하게 하였다.
-
본 논문은 신경망과 퍼지 이론을 결합한 한국어 철자 교정기 KSCNN(Korean Spelling Corrector using Neural Network)에 대하여 기술한다. KSCNN은 퍼셉트론(perceptron) 학습을 이용한 연상 메모리(associative memory)로 구성되며 자판 배열 특성을 고려한 퍼지 멤버쉽 함수에 의해 신경망의 입력값을 정한다. 본 철자 교정기의 장점은 인지적인 방법으로 철자를 교정하기 때문에 기존의 VA나 BNA와는 달리 오류의 종류에 영향을 받지 않으며 교정된 철자나 후보자들에 대한 견인값(attraction value)을 측정하여 시스템의 신뢰도를 높일 수 있다는 데 있다. 또한, 본 논문은 실험을 통해서 퍼지 멤버쉽 함수에 의한 입력 노드의 활성화가 자판 배열특성을 고려할 수 있기 때문에 시스템의 성능을 향상시킨다는 사실을 보여준다.
-
본 논문에서는 한국어의 음절 특성을 이용한 한국어 형태소 분석기를 제시하였다. 이 형태소 분석기는 품사별 음절 정보, 불규칙 음절 정보, 활용어절 음절 정보, 선어말 어미 음절 정보 등을 이용하여 음절 단위로 형태소 분석을 한다. 음절 단위의 형태소 분석 방법은 음소 단위의 방법보다 형태소 분석시에 생성될 수 있는 잘못된 중간 분석 결과를 크게 감소시켜, 사전 탐색 부담을 최소화한다. 시스템의 사전은 품사별 결합 특성과 사전 표제어의 길이별 분포 특성을 이용하여 구성하였으며, 그 규모는 약 16만 어휘이다. 이러한 사전 구성은 효율적인 사전검색을 제공하며, 특히 철자 검색기와 자동 인덱싱 등의 다양한 응용 시스템 요구를 곧바로 수용할 수 있는 유연성과 효율성을 갖고 있다.
-
기존의 한국어 형태소 해석 시스템들은 철자 변화형 어절에 대한 처리가 매우 효율적이지 못했다. 대개가 문제를 일으키는 형태소들의 변형들을 모두 사전에 등록하여 후처리 형태로 다루려 하거나, 각 형태/음운 규칙을 적용한 다음 거기에 대응하는 후보 단어들을 사전 검색을 통해 확인하는 방법들을 취하고 있다. 그러나 이러한 방법들은 과다한 사전 정보의 중복이나 계산의 중복으로 인하여 비효율적인 면을 많이 내포한다. 또한, 기존의 한국어 형태소 시스템들은 거의 모두가 형태소해석 엔진과 언어학적인 지식(특히, 철자 규칙과 형태소 배열 규칙)이 제대로 분리되지 않아 시스템 확장이 매우 어려웠다. 이 논문에서는, 철자 변화형 어절을 후처리에 의하지 않고, 사전 검색과 함께 하나의 오토마타에 의해 처리하면서, 형태소 해석시 발생하는 중복 계산을 최대한 배경하고, 또한 형태소 해석 엔진과 언어학적인 지식을 완전히 분리하여 시스템의 확장성을 한층 높인, 효율적인 한국어 형태소 해석 시스템 DDAG를 소개한다. 이 시스템의 주요 알고리즘의 계산적인 복잡도는 n이 입력 어절의 길이이고, m이 입력 어절을 이루고 있는 형태소의 최대 수라고 할 때 다음과 같이 분석된다: (1) 철자 변화의 처리와 사전 검색 부분의 계산적인 복잡도는
$O(n^2)$ 이고, (2) 형태소 배열 검사와 모든 가능한 결과를 출력해 내는 부분은$O(2^m)$ 이다. 여기에서 m의 실질적인 값은 복잡한 한국어 용언의 경우 최대 8이다. -
형태소 처리의 기본 원칙은 사전의 표제어를 형태소 수준으로 함으로써 사전의 크기를 줄이고, 중복되는 정보의 양을 최소화하는 것이다. 본 논문에서는 형태소 처리를 위한 여러 환경 요소들 중에서 특별히 확장된 사전 표제어를 기본으로 하는 환경을 제안한다. 확장 사전 환경은 어휘에 대한 사전 표제어와 사전 정보의 분리를 기본으로 한다. 기본 사전 표제어에 대하여 어휘의 활용형을 사전 작성의 후처리인 사전 표제어에 대한 색인구조 구성시에 자동으로 확장함으로써 용언의 불규칙 활용과 음운 축약 현상에 대처한다. 확장 사전 환경의 장점은 형태소 해석과 생성시에 필요한 불규칙 활용에 대한 처리를 사전 확장 시간으로 앞당기고, 어절의 부분문자열과 사전 표제어간의 직접 대응성을 제공하여 여러 응용에 쉽게 적용이 가능하다는 것이다.
-
본 논문에서는 문자 인식이 끝난 한국어 원문에 대해 한국어 Lexicon에 기반을 둔 후처리의 구현을 보여주는 것을 목적으로 한다. 빈번하게 오인식되는 음절에 대해 이의 옳은 음절을 대응시킨 테이블을 만들어 놓고, 오인식이라고 정의된 음절이 출현했을 때는 이를 원래의 옳은 음절로 대체시킨 어절과 오인식된 음절이 포함된 어절에 대해 한국어 형태소 분석을 행함으로써, 올바른 형태소가 분석될 경우, 이를 옳은 음절로 간주한다. 실험결과 약 90%에서 95%에 달하는 인식율이 이 후처리 방법에 의해서 95%에서 99%로 높아졌다.
-
본 논문은 효율적인 한국어 형태소분석 방법을 제안한다. 기존의 형태소분석 방법에서는 분석속도와 분석정도가 상호보상 관계에 있으므로 형태소분석기가 이용되는 분야에 따라서 다른 분석방법이 사용되고 있다. 본 논문에서 제안한 형태소 분석 알고리즘은 하나의 어절을 이루는 형태소들 사이의 구성원리를 이용하여 각 어절 타입을 예측하고 각 타입에 적합한 분석을 함으로써 적은 회수의 형태소 분할로도 정확한 형태소분석이 가능하게 한다. 본 알고리즘은 많은 문장으로 형태소 분석실험을 하였고 그 실험 결과는 기존의 방법 보다 우수하여 분석속도와 분석정도에 있어서 범용성이 입증되었다. 본 논문은 효율적인 형태소분석 방법을 제시하고 이를 반영한 형태소분석 시스템의 설계 및 구현에 관하여 기술한다.
-
한국어 형태소 분석 시스템은 형태소를 분리하거나 원형을 복원하는 후보 생성 과정에서 많은 후보를 생성하고 이에 대한 사전의 검색이 요구되는 부담이 있다. 특히, 불규칙 활용 어절을 분석하려면 불규칙 활용 어절뿐만 아니라 체언 어절이나 불규칙 활용이 일어나지 않은 모든 어절에 대해서도 불규칙 어절일 가능성을 검사하고, 원형을 복원하기 위해 원형의 후보들을 역으로 추정한 후에, 각 후보에 대해 사전을 검색하는 과정을 거치게 된다. 이 때 불규칙 활용 가능성으로 인한 후보들의 과다한 생성은 사전 검색 횟수의 증가를 유발하여 시스템의 성능을 저하시키는 요인이 되어 왔다. 본 논문에서는 한글의 음절 특성을 이용하여 불규칙 활용이 일어난 후보 어절의 수를 줄임으로써 사전의 검색 횟수를 적게 하고 형태소 분석 시스템의 성능을 향상시키는 방법을 제안한다.
-
본 논문은 형태소간의 접속 특성과 대형 말뭉치(Corpus)에서 추출된 인접 말마디의 정보를 이용해서 한국어 형태소 분석기를 구현한다. 언어는 단지 규칙으로만 처리하기에는 불가능한 복잡한 구조와 중의성을 갖고 있기 때문에 과거에 주로 연구되었던 형태소들간의 접속 특성과 규칙을 이용한 형태소 분석은 실제로 구문분석 단계에서 사용될 수 있는 실용성을 제시하지 못했다. 따라서 형태소 접속 특성뿐만 아니라 인접 말마디와의 관계를 사전에 기술함으로써 보다 실용성 있는 형태소 분석기의 구현을 시도한다. 아울러 본 형태소 분석기의 효능은 정착하고 풍부한 정보를 사전에 효율적으로 수록함으로써 이룩될 것이며, 이를 위해 기존 사전의 보강에 필요한 정보들을 대형 말뭉치로부터 추출하여 사전에 첨가시킨다.
-
한국어 동사의 굴절은 (1) 접사의 누적 (2) 어간과 접사의 변이형 (allomorphy) (3) 원격한 접사의 꼴이 어간에 민감한 점 등의 이유로 단순한 접사 추출(affix-stripping)에 의한 형태소 분석이 감당하기 어려운 부분을 갖고 있다. 따라서 형태소에 바탕을 둔 형태이론보다 더 세련된, 낱말에 바탕을 둔 형태이론이 요구되는데, 이 논문에서는 "낱말 패러다임 형태이론 (Word and Paradigm Morphology)"에서 실현규칙(rules of realization)이 언급하는 요소 중의 하나인 굴곡 부류(inflectional classes)가 어떻게 설정되어야 할 것인가를 다룬다. 특정한 형태 통사적 속성들(morpho-syntactic properties)이 실현될 때 (1) 주요 어간(primary stem)이 요구되느냐 아니면 부차 어간 (secondary stem)이 요구되느냐, 그리고 (2) 접사의 어떤 꼴이 요구되느냐에 바탕을 두고 한국어의 동사를 열 다섯개의 굴절 부류로 분류한다.
-
본 논문은 국내 표준 한글 부호계와 국제 표준 한글 부호계를 유닉스의 EUC 틀 안에서 수용하는 방안을 제안한다. EUC (Extended Unix Code)는 4 개의 코드 셀 (Code Set)를 지원하는데, 그 중 3 개의 코드 ???V은 멀티바이트를 지원한다. EUC 에서는, ASCII 를 빼고는 모두 MSB (most significant bit) 가 1 이어야 한다. 이러한 제약 조건 아래서, KSC 5601 완성형 한글 부호계, 두 바이트 조합형 한글 부호계, 그리고 1992 년에 국제 표준으로 확정된 ISO 10646 의 새로운 조합형과 완성형 소리마디를 EUC 틀안에서 종합적으로 지원하는 방안을 검토해 본 결과, 짧게는 새로운 조합형과 KSC 5601을 지원하되, 길게는 새로운 조합형으로 나가는 것이 바람직하다는 결론을 얻었다.
-
국제 표준화 기구 (ISO) 에서는 1992년에 국제 표준 글자 부호계 ISO 10646을 확정하였는데, 거기에 들어 있는 국제 표준 한글 부호계는 새로운 조합형과 완성형 두 가지로 이루어져 있으며, 새로운 조합형은 옛한글까지 완벽하게 지원할 수 있다. 그러나 아직까지 이 새로운 조합형의 실용성에 대한 실증적인 연구가 없었다. 본 논문에서는, 새로운 조합형 한글 부호계를 지원하는 옛 한글 문서 편집기 개발 과정을 살펴보고, 또한 편집기 개발을 통하여 확인한 다음 두 가지 점에 대해서도 살펴보겠다. 첫째, 새로운 조합형을 써서 한글 정보 처리를 하는 데 아무 문제가 없으며, 둘째, 새로운 조합형으로 옛 한글을 지원할 수 있다는 사실을 확인할 수 있었다. 옛 한글 문서 편집기의 성공적인 개발로, 이 때까지 어려움을 겪었던 옛 한글 자료의 전산화가 가능하게 되어, 우리의 고전에 대한 연구가 활발해질 것으로 예상한다.
-
국제 협약에 따라 한글에 관한 정보는 로마자로 표기해야 한다. 우리나라는 1959년 2월 로마자 표기법'을 제정, 수차례 개정을 통해 1983년 6월 문교부(Ministry Of Education)안을 발표했으나, 표지판, 역명, 교과서, 공공문서들에서 활용되었지만, 영자신문, 외국 학술지등은 M-R( Mccune-Reishauer ) 표기법을, 인명, 신문 및 방송매체 등은 혼합표기방식을 사용함으로써 인(人). 지명(地名), ID, 대표어등 정보 검색시 혼란을 야기시켰고, 개정안에 따를 표기 정정으로 수백억원에 가까운 예산을 낭비하였으며, 최근 ISO(International Standard Organization)에서는 남북한 단일화 및 기계적 변환을 요구하고 있으나, 반달표 표기곤란, 편리성 결여, 북한의 주장등의 사유로 제정등을 거론하고 있는 실정에 있다. 잘 쓰지 않는 ASCII 코드 중에서 반달점 폰트를 제작하고 단어, 문장, 문서를 STRING으로 받아 알고리즘화된 음운법칙을 적용하여 소리글자로 변환하고 MOE테이블에서 대응글자를 참조하여 기계적 변환이 가능하도록 하였으며, 세련된 디자인, 풀다운 팝업방식을 채택, 2HD 1장으로 국내최초로 개발하였다.
-
본 논문에서는 문자 인식을 위해 수집된 문자 영상 데이타들의 변형 정도를 측정하는 변형량의 필요성과 변형량이 가져야 할 조건들을 알아본다. 지금까지 연구된 5가지 변형량들이 이 조건을 모두 만족시키지는 않음을 보이고 이 조건을 만족시키는 새로운 변형량, 평균 엔트로피 변화량을 제안한다. 이 변형량은 여백이나 문자의 두께에 무관하며 같은 문자 뿐만아니라 다른 문자 간에도 비교할 수 있는 특성을 가진다.
-
이광오[1]의 연구를 바탕으로 한글 필기 행동의 설명을 시도하였다. 한글 필기에 나타나는 실수에는 예기, 지속, 부가, 생략 등의 유형이 있었으며, 실수에 개입되는 단위로는 단어, 글자, 자모가 인정되었다. 필기에 필요한 기본단위로 글자표상을 가정하고, 심성어휘집에서의 부분적 표기정보 인출과 음소-자모 변환에 의해 글자표상이 생성되는 필기행동 모형에 대해 고찰하였다.
-
본 논문에서는 다양한 양상으로 발생하는 필기체 한글에서의 변형을 흡수하기 위한 적응적 패턴 정합 방법을 제안한다. 제안된 방법은 정합의 정확도를 개선하기 위하여 구조적인 정보를 사용하고, 단일 정합 과정에서의 처리 속도를 개선하기 위하여 각각의 검은 점에서의 이웃들만을 고려하여 처리한다. 또한, 반복 적용시 수렴 속도를 빠르게 하기 위하여 입력 패턴을 부분영역으로 나누어 각 부분 영역에서의 정합이 성공적인지 여부에 따라 적응적으로 다음 반복 정합 과정을 수행한다. 제안된 방법의 효용성을 입증하기 위하여 다양한 필기체 한글 데이타에 대하여 실험한 결과, 제안된 적응적 패턴 정합 방법이 기존의 패턴 정합 방법 보다 처리 속도 및 정합의 성능 측면에서 우수함을 알 수 있었다.
-
본 논문에서는 혼용문서에서 문자들의 유사성으로 인해 발생하는 오인식문자를 줄이기위해 대분류 단계에서 유사문자군을 찾고 이들 사이의 유사도를 계산, 분류하는 유사문자분류 방법을 제안하였다. 이 방법은 유사문자군내의 각 문자마다 그 문자만이 갖는 고유한 요인과 그 문자를 제외한 나머지 문자일 가능성이 있는 요인을 찾아 입력문자와 비교하여 유사도가 가장 큰 문자를 인식문자로 선택하는 알고리즘이다. 또한, 인식 후 오인식된 문자들에 대해 특징사전의 갱신을 통하여 인식률을 향상시켰다.
-
본 논문에서는 한글의 자소간 흘림의 연속 필기를 허용하는 원고 작성기의 구현을 연구하였다. 이러한 온라인 한글 필기의 응용에서는 신속한 인식속도를 갖는 인식방법이 요구되며, 인식중에도 계속적인 필기가 가능하도록 하여 사용자에게 편의를 제공할 수 있어야 한다. 본 논문에서는 이와같은 요구사항을 만족시키기 위하여 스트링 정합방법에 기반한 신속한 인식 방법을 사용한다. 또한, 글자인식과 필기데이타 수집이 병행적으로 처리되도록 구성됨으로써 원고작성시에 자유로운 필기동작이 가능하도록 하였다. 실험결과 50명이 쓴 21,076자에 대하여 88.96%의 인식률을 제공하였으며, 제안하는 구현 방법이 원고작성 응용에 적합하게 동작함을 알 수 있었다.
-
봉네트는 온라인 한글 필기 글씨 모델이다 [신92]. 글씨를 자소와 연결획의 결합구조로 보고, 각 자소 및 연결획 모델을 정의한 후, 이들을 제자 원리에 따라 네트워크 구조로 설계한 모델이다. 본 논문에서는 봉네트가 소개된 후 지난 일년 동안 수행되었던 실험 및 모델 검증의 결과와 앞으로도 계속될 개선책을 소개하고, 동 모델의 바탕이 된 통계적 인식 이론을 정립하고자 한다.
-
다언어간 번역을 지향하는 기계번역시스템의 개발을 위해서는, 의미 이해기반의 해석기술과 언어에 독립적인 생성기술의 설계가 기본이므로 원시언어와 목표언어가 어느 한쪽의 언어지식에 의존하지 않고 언어형식화가 가능한 중간언어 구조를 설정하는 것이 중요하다. 따라서, 한국어를 중심으로 하는 다언어 번역의 설계에서는 비교적 문구조의 정형화가 이루어진 영어와는 달리 어순 배열의 자유도가 높고 조사의 격표시로 문장구조가 결정되는 한국어의 특성을 고려한 해석 및 생성 메카니즘이 필요하다. 본 논문에서는 문장에 내포된 심층의미의 중간 표현으로써, 단어의 의미를 개념화시킨 개념소(Conceptual Primitive)간의 의미적 결합관계를 나타내는 개념 그래프(Conceptual Graph)를 채택하고 설계한 다언어 번역지향의 중간언어기반 번역시스템에 대하여 기술한다.
-
한국어 어휘부 구성에 기능동사(경동사) 구문에 관한 언어정보의 수록은 필수적이다. 범용적 대규모 한국어 어휘자료 database 구축을 위한 기능동사 구문과 언어학적 분석 기술과 관련하여 제기되는 여러 문제들 중에서 기능동사의 어휘적 한정의 문제는, 어휘부 중심의 논의를 펼칠 때, 각별한 중요성을 갖는다. 본 발표에서는 우선 확장된 기능동사 개념에 의거하여 기능동사 정보를 어휘부에 반드시 수록해야 할 논거를 제시하고, 기능동사의 어휘적 한정의 문제를 집중적으로 거론하고자 한다. 요점은 기능동사 구문이 서술명사와 기능동사의 결합에 의해 성립된다고 볼 때 이 두 범주의 어휘적 실현은 예측불가능한 제한적 결합관계에 의해 특징지어지므로, 일정한 서술명사와 결합 가능한 기능동사의 어휘적 형태를 어휘부에서 낱낱이 한정하고 기재하여야 하리라는 것이다. 이를 위한 필수적인 연구작업은 크게 상호보완적인 두 부분으로 이루어진다. 한편 한국어 서술명사의 총체를 목록화하고, 그 개별어휘 하나하나에 대해 가능한 기능동사 구문과, 구체적인 기능동사 어휘를 한정하는 것이 필요하다. 또 한편으로는 한국어 동사의 총체를 목록화하여, 그 개별어휘 하나하나의 가능한 통사적 실현을 체계화하는 과정에서 기능동사 용법을 빠짐없이 가려내는 작업이 요구된다고 보겠다.
-
기계번역에서 기능어의 번역은 각 언어가 고유의 문법적 특성과 표현방법을 가지고 있기 때문에 기능어가 가지는 의미와 문법적 기능을 자질로 표현하고 이를 통하여 해석과 생성을 한다. 한국어는 첨가어로 기능어가 매우 발달되어 있으며, 특히 조동사가 많은 문법적 기능을 담당하고 화자의 양태적 관계를 나타낸다. 따라서, 기계번역의 한국어 생성에서 조동사가 번역의 질에 상당한 영향을 미친다. 본 논문에서는 중간언어방식을 이용한 기계번역시스템의 한국어 생성에서 문법적 기능이나 양태적 관계를 나타낸 중간언어로부터 어떠한 조동사가 생성이 되어야 하고, 또한 조동사들간의 결합순서는 어떠한지를 살펴본다. 이를 위하여 Corpus를 분석하여 각 조동사 분류에 대한 대표 표층어를 선정하고 조동사간의 결합순서를 밝힌다. 조동사 생성을 위해 필요한 처리 과정과 언어적 지식베이스를 제안하고 시스템을 구현한다.
-
본 논문에서는 일-한 기계 번역 시스템에서 한국어 생성에 대한 효율적인 방법을 제안한다. 일본어와 한국어는 대부분의 문법 체계가 비슷하지만 어절 내, 특히 술부 내에서는 문법 형태소의 어순이 일치하지 않고 형태소간에도 일대일 대응이 불가능한 경우가 많다. 또한 일본어 용언에 부정의 조동사가 사용된 문장을 한국어로 번역할 때에도 부정의 뜻을 내포하는 한국어 용언이 존재하면 부정적 역어로 생성하여야 한다. 이러한 점으로 인하여 형태소 대 형태소를 일대일로 대응시켜 생성하면 자연스럽고 올바른 한국어 문장을 얻기 어렵다. 따라서 기본적으로 직접 번역 방시을 이용하면서 술부의 생성을 위하여 양상류 의미자질을 이용하는 방법을 제안한다. 본 논문에서 제안한 한국어 생성 방법은 기존의 방법보다 적은 사전 작업으로 간단하게 자연스러운 한국어 표현을 얻을 수 있었다.
-
본 논문에서는 범용 영어 생성기인 펜맨을 이용한 한/영 번역기에 대해 소개한다. 펜맨은 영어문장 생성기로서 그 입력 언어는 문장생성을 위해 특별히 고안된 문장계획언어이다. 문장계획언어는 문장을 생성하기 위한 다양한 구문적, 의미적인 사양들을 포함하고 있다. 본 연구에서 우리는 한국어 분석을 위해서 의존문법에 기반한 한국어 분석기를 사용하고, 영어의 생성을 위해서 펜맨을 사용한다. 그리고 한국어 해석의 결과인 문장의 의존구조를 펜맨의 입력인 문장계획언어로 변환하는 모듈을 작성하였다.
-
영어 문장을 한국어 문장으로 기계 번역하는 과정에는 분석 규칙이나 변환 규칙만으로는 해결하기 어려운 표현의 대응 관계들이 많이 나타난다. 본 논문은 영어-한국어 기계 번역에서 질적으로 향상된 한국어 문장을 얻기 위하여 두 언어 표현들 사이의 관용적 대응 관계에 기반하는 번역 방식을 논한다. 두 언어 표현들 사이의 다양한 직접 대응 관계를 제공하는 번역 사전을 이용하며, 입력 영어 문장으로부터 이와 같은 표현들을 인식하고 한국어 표현으로 직접적으로 대응시키는 번역 방식이다. 이러한 번역 방식은 기존의 변환 규칙 기반의 번역 방식보다 자연스러운 한국어 문장을 생성할 뿐만 아니라, 많은 구조적-의미적 모호성을 해결함으로써 시간적-공간적 처리효율을 크게 높일 수 있다.
-
지금까지의 한국어 자연언어 처리에 기반이 되는 사전 품사 체계에 대한 연구는 형태소 분석, 구문 구조 분석, 그리고 의미 분석 등의 다양한 분야에서 이루어져 왔다. 한국어 자연언어 처리 각 분야는 자체의 고유한 독립성을 가지는데, 이러한 특성은 사전 품사 체계의 다양화를 초래하였으며, 연계성있는 자연언어 처리를 위한 통합 환경 조성을 저해시켜 왔다. 본 논문에서는 한국어 자연언어 처리 전반에 걸친 통합 환경 조성을 위한 범용적인 사전 품사체계의 필요성에 따라 한국어 자연언어 분석의 각 분야에 적합한 사전 품사체계에 대하여 살펴 본 후, 한국어 자연 언어 처리 전반에 사용될 범용적이고 통합적인 기본 사전 품사체계 구축을 위한 방안을 제시한다.
-
본 논문은 퍼지 망(Fuzzy Network)외 개념을 도입하여 한국어 단어의 품사 태깅에 관한 새로운 모델을 제시하고자 한다. 한국어 단어의 품사 태깅이란 여러 개의 품사를 가진 단어가 한국어 문장 속에 나타났을 때, 단어의 품사를 올바르게 결정하는 것이다. 여기서 가장 기본적인 문제는 여러 가지의 태그를 포함하고 있는 단어들의 나열을 어떻게 퍼지 망으로 표현하는가 하는 문제이다. 본 논문에서는 한국어 품사를 태깅할 때 사용한 퍼지 망을 정점(vertex)으로 단어 품사의 퍼지 집합을 표현하고, 연결선(edge)으로 품사와 품사간의 퍼지관계를 표현한다. 일단 퍼지망으로 표현되면, 퍼지망에서의 최적의 경로를 찾는 문제와 동일하게 풀 수 있다. 일반적으로 퍼지 망에서 최적의 경로를 찾는 문제는 dynamic programming 방법에 의해서 효과적으로 해결할 수 있다. 약 2만 6천개의 형태소를 실험 데이타로 하여 실험한 결과, 전체적인 품사 태깅 정확률은 95.6%로 비교적 좋은 결과를 보였다. 앞으로 좀 더 세분화된 태그 집합과 정확히 태깅된 실험 데이타로부터 추출된 소속함수를 이용한다면, 더 좋은 결과를 기대할 수 있다.
-
시각장애인이 정보를 접할 수 있는 방법으로는 청각과 촉각있으며, 청각으로는 어떤 음성매체를 통하여 사람의 목소리나 소리로써 의사전달이 이루어지며, 촉각으로는 시각장애인이 학습하여 익혀온 점자표기법으로 의사소통이 이루어진다. 이 촉각을 사용하는 방식인 점자표기법에 통일성을 기하고, 그 사용의 불편함을 해결하고자 일반 워드프로세서 기능에 점자출력이 가능하도록 한글점자번역시스템을 개발한 것이다. 그러므로 정보화 사회에 부응하여 많은 시각장애인들도 일반문자에 의한 교육 및 의사전달, 그리고 컴퓨터를 활용한 직업재활의 수단을 제공하는 것이다.