• Title/Summary/Keyword: 단어 분리

Search Result 112, Processing Time 0.026 seconds

Developing a New Algorithm for Conversational Agent to Detect Recognition Error and Neologism Meaning: Utilizing Korean Syllable-based Word Similarity (대화형 에이전트 인식오류 및 신조어 탐지를 위한 알고리즘 개발: 한글 음절 분리 기반의 단어 유사도 활용)

  • Jung-Won Lee;Il Im
    • Journal of Intelligence and Information Systems
    • /
    • v.29 no.3
    • /
    • pp.267-286
    • /
    • 2023
  • The conversational agents such as AI speakers utilize voice conversation for human-computer interaction. Voice recognition errors often occur in conversational situations. Recognition errors in user utterance records can be categorized into two types. The first type is misrecognition errors, where the agent fails to recognize the user's speech entirely. The second type is misinterpretation errors, where the user's speech is recognized and services are provided, but the interpretation differs from the user's intention. Among these, misinterpretation errors require separate error detection as they are recorded as successful service interactions. In this study, various text separation methods were applied to detect misinterpretation. For each of these text separation methods, the similarity of consecutive speech pairs using word embedding and document embedding techniques, which convert words and documents into vectors. This approach goes beyond simple word-based similarity calculation to explore a new method for detecting misinterpretation errors. The research method involved utilizing real user utterance records to train and develop a detection model by applying patterns of misinterpretation error causes. The results revealed that the most significant analysis result was obtained through initial consonant extraction for detecting misinterpretation errors caused by the use of unregistered neologisms. Through comparison with other separation methods, different error types could be observed. This study has two main implications. First, for misinterpretation errors that are difficult to detect due to lack of recognition, the study proposed diverse text separation methods and found a novel method that improved performance remarkably. Second, if this is applied to conversational agents or voice recognition services requiring neologism detection, patterns of errors occurring from the voice recognition stage can be specified. The study proposed and verified that even if not categorized as errors, services can be provided according to user-desired results.

A Study on the Classify of Character for Newspaper Automatic Recognition System (신문자동인식 시스템을 위한 문자의 분류에 관한 연구)

  • Lee, S.H.;Cheon, J.I.;Cho, Y.J.;NamKung, J.C.
    • Annual Conference on Human and Language Technology
    • /
    • 1989.10a
    • /
    • pp.209-215
    • /
    • 1989
  • 본 논문에서는 신문자동인식을 위한 신문문자의 분류에 관한 연구를 하였다. 먼저, 문서의 문자를 추출하기 위하여 블럭화를 행한다. 블럭화는 문자열을 찾아 절과절, 단어와 단어 사이를 찾아 분리구간을 정한다음 블럭을 합성 및 분리를 하였다. 다음으로 블럭화된 문자의 종류를 알기 위한 각 문자에 대하여 6 형식 분류를 하여 특성을 조사함으로써 문자분류를 행하였다. 본 연구에서는 실험을 용하여 블럭화는 충실하게 추출이 되어졌고 한글의 모아쓰기 특성과 한문과의 유사한 형식특성 때문에 분류에 어려움이 있었으나 비교적 충실하게 추출하였다.

  • PDF

Translation Pre-processing Technique for Improving Analysis Performance of Korean News (한국어 뉴스 분석 성능 향상을 위한 번역 전처리 기법)

  • Lee, Ji-Min;Jeong, Da-Woon;Gu, Yeong-Hyeon;Yoo, Seong-Joon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.619-623
    • /
    • 2020
  • 한국어는 교착어로 1개 이상의 형태소가 단어를 이루고 있기 때문에 텍스트 분석 시 형태소를 분리하는 작업이 필요하다. 자연어를 처리하는 대부분의 알고리즘은 영미권에서 만들어졌고 영어는 굴절어로 특정 경우를 제외하고 일반적으로 하나의 형태소가 단어를 구성하는 구조이다. 그리고 영문은 주로 띄어쓰기 위주로 토큰화가 진행되기 때문에 텍스트 분석이 한국어에 비해 복잡함이 떨어지는 편이다. 이러한 이유들로 인해 한국어 텍스트 분석은 영문 텍스트 분석에 비해 한계점이 있다고 알려져 있다. 한국어 텍스트 분석의 성능 향상을 위해 본 논문에서는 번역 전처리 기법을 제안한다. 번역 전처리 기법이란 원본인 한국어 텍스트를 영문으로 번역하고 전처리를 거친 뒤 분석된 결과를 재번역하는 것이다. 본 논문에서는 한국어 뉴스 기사 데이터와 번역 전처리 기법이 적용된 영문 뉴스 텍스트 데이터를 사용했다. 그리고 주제어 역할을 하는 키워드를 단어 간의 유사도를 계산하는 알고리즘인 Word2Vec(Word to Vector)을 통해 유사 단어를 추출했다. 이렇게 도출된 유사 단어를 텍스트 분석 전문가 대상으로 성능 비교 투표를 진행했을 때, 한국어 뉴스보다 번역 전처리 기법이 적용된 영문 뉴스가 약 3배의 득표 차이로 의미있는 결과를 도출했다.

  • PDF

Processing of Korean Compounds with Saisios (사이시옷이 단어 재인에 미치는 영향)

  • Bae, Sung-Bong;Yi, Kwang-Oh
    • Korean Journal of Cognitive Science
    • /
    • v.23 no.3
    • /
    • pp.349-366
    • /
    • 2012
  • Two experiments were conducted to examine the processing of Korean compounds in relation to saisios. Saisios is a letter interposed between constituents when a phonological change takes place on the onset of the first syllable of the second constituent. This saisios rule is often violated by writers, resulting in many words having two spellings: one with saisios and the other without saisios. Among two spellings, some words are more familiar with saisios, some are usually spelled without saisios, and some are balanced. In Experiment 1 using the go/no-go lexical decision task, participants were asked to judge compounds with/without saisios. Saisios-dominant words (나뭇잎 > 나무잎) were responded faster when they appeared with saisios, whereas the opposite was true for words that usually appear without saisios (북엇국 < 북어국). In experiment 2, we presented participants compound words that were balanced on saisios. The results showed that words without saisios were responded faster than words with saisios. To summarize, the results of Experiment 1 and 2 were consistent with the APPLE model. Some problems related to the saisios rule were discussed in terms of reading process.

  • PDF

An Efficient Correction Method for Misrecognized Words in Off-line Hangul Character Recognition (오프라인 한글 문자 인식을 위한 효율적인 오인식 단어 교정 방법)

  • Lee, Byeong-Hui;Kim, Tae-Gyun
    • The Transactions of the Korea Information Processing Society
    • /
    • v.3 no.6
    • /
    • pp.1598-1606
    • /
    • 1996
  • In order to achieve high accuracy of off-line character recognition(OCR) systems, the recognized text must be processed through a post-processing stage using contextual information. In this paper, we reclassify Korean word classes in terms of OCR word correction. And we collect combinations of Korean particles(approximately 900) linguistic verbal from(around 800). We aggregate 9 Korean irregular verbal phrases defined from a Korean linguistic point of view. Using these Korean word information and a Head-tail method, we can correct misrecognized words. A Korean character recognizer demonstrates 93.7% correct character recognition without a post-processing stage. The entire recognition rate of our system with a post-processing stage exceeds 97% correct character recognition.

  • PDF

The effect of immediate and delayed recognition memory on event-related potential(ERP) (즉각적 재인 기억과 지연 재인 기억이 사건과련전위에 미치는 영향)

  • 김명선;조상수;권준수
    • Korean Journal of Cognitive Science
    • /
    • v.11 no.3_4
    • /
    • pp.83-93
    • /
    • 2000
  • The effect of immediate and delayed recognition memory on event-related potential (ERP) was studied using a continuous recognition memory task and event-related potential (ERP). Among 240 stimulus words 40 words were not repeated. 100 were immediately repeated and 100 were repeated after 5 intervening words. All words presented only once during the experiment were referred to as new words. Subjects responded faster and more accurately to words repeated immediately than to new words a and to those repeated after intervening words. In terms of ERP results the immediately repeated words were associated with large P300 amplitude, early P300 latency and a absence of N400. while words repeated after a delay were associated with small P300 a amplitude. late P300 latency and the presence of N400. N400 was elicited only to new w words and to those repeated after a delay. The general morphology of the waveform was s similar for three stimulus-presentation conditions until around 3l0ms after the onset of stimulus. These results indicate that immediate and delayed recognition memory could be dissociated into two distinct processes possibly being mediated by different cerebral mechanism, and the dissociation between two types of recognition memory emerges around 3l0ms poststim'ulus. The immediate and delayed recognition memory for words are considered in terms of template matching and memory searching.

  • PDF

Korean Continuous Speech Recognition using Phone Models for Function words (기능어용 음소 모델을 적용한 한국어 연속음성 인식)

  • 명주현;정민화
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.354-356
    • /
    • 2000
  • 의사형태소를 디코딩 단위로 한국어 연속 음성 인식에서의 조사, 어미, 접사 및 짧은 용언의 어간등의 단어가 상당수의 인식 오류를 발생시킨다. 이러한 단어들은 발화 지속시간이 매우 짧고 생략이 빈번하며 결합되는 다른 형태소의 형태에 따라서 매우 심한 발음상의 변이를 보인다. 본 논문에서는 이러한 단어들은 한국어 기능어라 정의하고 실제 의사형태소 단위의 인식 실험을 통하여 기능어 집합 1, 2를 규정하였다. 그리고 한국어 기능어에 기능어용 음소를 독립적으로 적용하는 방법을 제안했다. 또한 기능어용 음소가 분리되어 생기는 음향학적 변이들을 처리하기 위해 Gaussian Mixture 수를 증가시켜 보다 견고한 학습을 수행했고, 기능어들의 음향 모델 스코어가 높아짐에 따른 인식에서의 삽입 오류 증가를 낮추기 위해 언어 모델에 fixed penalty를 부여하였다. 기능어 집합1에 대한 음소 모델을 적용한 경우 전체 문장 인식률은 0.8% 향상되었고 기능어 집합2에 대한 기능어 음소 모델을 적용하였을 때 전체 문장 인식률은 1.4% 증가하였다. 위의 실험 결과를 통하여 한국어 기능어에 대해 새로운 음소를 적용하여 독립적으로 학습하여 인식을 수행하는 것이 효과적임을 확인하였다.

  • PDF

Reserches to divided Hangul Spelling for Program based on Uni-Code (유니 코드를 바탕으로 한 프로그램 상에서의 한글 자/모 구별 방법에 따른 연구)

  • 권훈;김정희;곽호영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10a
    • /
    • pp.781-783
    • /
    • 2004
  • 본 논문에서는 컴퓨터 상에서의 처리되는 한글 코드 중 유니코드를 이용한 한글 입력방법을 분석하여, 이를 일련의 프로그램에서 초ㆍ중ㆍ종성에 따라 자/모음을 분리, 구별하는 방법을 제안하고, 이에 따라, 제안된 방법을 적용한 구현 프로그램을 통해 정확한 자/모음 분리를 할 수 있었으며, 한글 입력에서의 정확도와 신뢰도 향상 및 단어에 따른 정확한 조사판별이 가능해 짐을 알 수 있었다. 또한, 제안방법에 따른 통계적 데이터를 가지고 각종 분야에 적용이 가능하게 됨을 알 수 있었다.

  • PDF

Separating Head from Body in Web-Tables (웹상의 표에서 머리와 몸체 분리 방안 연구)

  • Jung, Sung-Won;Kwon, Hyuk-Chul
    • Annual Conference on Human and Language Technology
    • /
    • 2005.10a
    • /
    • pp.50-56
    • /
    • 2005
  • 본 논문은, 웹상의 표에서 유용한 정보를 뽑기 위하여 표 머릿부분과 몸체부분을 효과적으로 분리하는 방안을 제안한다. 웹상의 표로부터 정보를 뽑기 위해서는 웹상의 표를 기계가 해석할 수 있는 형태, 즉 속성-값의 쌍으로 변환해야 한다. 이중 속성은 보통 표 머리에 해당하며, 그에 해당하는 값은 표 몸체에 해당하는데, 이는 머리가 해당 몸체 부분을 대표하여 나타내는 단어이기 때문이다. 본 연구의 선행 연구에서는 인터넷상의 표가 표 본래의 정보 전달을 위한 목적 이외에 인터넷 문서의 정렬이나 구조화를 목적으로 쓰이는 경우가 많으므로 이러한 표를 제거하고 표 본래의 의미를 전달하는 표(의미 있는 표)만 추출하는 연구를 하였다 본 연구에서는 이를 바탕으로 의미 있는 표에서 표 머리와 몸체를 분리하기 위한 휴리스틱에 기반을 둔 모델을 제안한다. 이를 위하여, 표의 본래 특성과, 표를 작성하는 저자의 작성 습관을 관찰하여 머리와 몸체를 분리하기 위한 방안을 설정하고, 이 방안들을 결합하는 모델을 구축한다. 본 연구에서는 이 결과로 80.3%의 표 머리 추출 정확도를 얻을 수 있었다.

  • PDF

Korean Speech Recognition using the Phoneme (음소를 이용한 한국어의 인식)

  • 김영일;차일환;조문재
    • The Journal of the Acoustical Society of Korea
    • /
    • v.3 no.2
    • /
    • pp.35-45
    • /
    • 1984
  • 본 연구는 한국어의 발음상의 특징과 구조에 의해서 한국어를 음소별로 분리할 수 있음에 착안 하여, 자음과 모음으로 구성된 한국어 단음을 자음의 음소와 모음의 음소로 각각 분리하여 인식하는 새 로운 방법에 관한 연구이다. 특정 화자 2명에 대하여 한국어 단음 84자를 모음의 음소와 자음의 음소로 각각 분리하여 인삭한 실험결과 모음을 인식한 경우에는 선형 예측 계수를 이용하면 인식률이 95.2%이 고, 편자기 상관계수로 92.5%, 폴만트로 97.6%의 인식률을 얻었고, 자음을 인식한 경우에는 선형 예측 계수로 88.7%, 편자기 상관계수로 92.9%의 인식률을 얻었다. 또, 자음의 음소와 모음의 음소를 결합시킨 단음을 인식한 경우에는 선형 예측 계수로 83.9%, 편자기 상관계수로 86.3%의 인식률을 얻었다. 이 때, 각 음소들의 데이터의 수는 256개이고, 선형 예측 계수와 편자기 상관 계수와의 예측차는 15차이다. 이 와 같이 한국어를 자음의 음소와 모음의 음소로 분리하면 작은 데이터 양으로 처리 시간을 단축 시켜 한국어의 모든 단음, 단어, 연속음, 문장 등을 분석하고 인식할 수 있고, 또한 각 음소들을 원칙적으로 결합시켜 모든 한국어의 합성이 가능함을 알 수 있다.

  • PDF