• 제목/요약/키워드: Recognition Errors

검색결과 353건 처리시간 0.034초

한국어 공통 음성 DB구축 및 오류 검증 (Common Speech Database Collection and Validation for Communications)

  • 이수종;김상훈;이영직
    • 대한음성학회지:말소리
    • /
    • 제46호
    • /
    • pp.145-157
    • /
    • 2003
  • In this paper, we'd like to briefly introduce Korean common speech database, which project has been started to construct a large scaled speech database since 2002. The project aims at supporting the R&D environment of the speech technology for industries. It encourages domestic speech industries and activates speech technology domestic market. In the first year, the resulting common speech database consists of 25 kinds of databases considering various recording conditions such as telephone, PC, VoIP etc. The speech database will be widely used for speech recognition, speech synthesis, and speaker identification. On the other hand, although the database was originally corrected by manual, still it retains unknown errors and human errors. So, in order to minimize the errors in the database, we tried to find the errors based on the recognition errors and classify several kinds of errors. To be more effective than typical recognition technique, we will develop the automatic error detection method. In the future, we will try to construct new databases reflecting the needs of companies and universities.

  • PDF

양식 채우기 대화에서 음성 인식 오류의 보완을 위한 대화 전략 (Dialogue Strategies to Overcome Speech Recognition Errors in Form-Filling Dialogue)

  • 강상우;이성욱;서정연
    • 인지과학
    • /
    • 제17권2호
    • /
    • pp.139-150
    • /
    • 2006
  • 음성 대화 시스템에서 음성 인식 오류는 전체 시스템의 치명적인 결과를 초래한다. 음성 인식 오류가 부분적으로 발생하여 화행 분석이 실패했을 때 시스템은 원활한 대화를 진행할 수 없다. 본 논문은 양식 채우기 대화 형식에서 발생하는 음성 인식 오류 유형에 따라 시스템이 사용자 발화의 화행을 추론하기 위한 부대화 생성 전략을 제안한다. 제안하는 방법을 계획기반 대화 모델로 구현하여 실험하였고, 사용자 작업 실패 오류의 약27%를 보완하여 성능을 향상시켰으며 전체 시스템의 사용자 작업 성공률은 약 89%이다.

  • PDF

대화형 에이전트 인식오류 및 신조어 탐지를 위한 알고리즘 개발: 한글 음절 분리 기반의 단어 유사도 활용 (Developing a New Algorithm for Conversational Agent to Detect Recognition Error and Neologism Meaning: Utilizing Korean Syllable-based Word Similarity)

  • 이정원;임일
    • 지능정보연구
    • /
    • 제29권3호
    • /
    • pp.267-286
    • /
    • 2023
  • 인공지능 스피커로 대표되는 대화형 에이전트는 사람-컴퓨터 간 대화형이기 때문에 대화 상황에서 오류가 발생하는 경우가 잦다. 에이전트 사용자의 발화 기록에서 인식오류는 사용자의 발화를 제대로 인식하지 못하는 미인식오류 유형과 발화를 인식하여 서비스를 제공하였으나 사용자가 의도한 바와 다르게 인식된 오인식오류 유형으로 나뉜다. 이 중 오인식오류의 경우, 서비스가 제공된 것으로 기록되기 때문에 이에 대한 오류 탐지가 별도로 필요하다. 본 연구에서는 텍스트 마이닝 기법 중에서도 단어와 문서를 벡터로 바꿔주는 단어 임베딩과 문서 임베딩을 이용하여 단순 사용된 단어 기반의 유사도 산출이 아닌 단어의 분리 방식을 다양하게 적용함으로써 연속 발화 쌍의 유사도를 기반으로 새로운 오인식오류 및 신조어 탐지 방법을 탐구하였다. 연구 방법으로는 실제 사용자 발화 기록을 활용하여 오인식오류의 패턴을 모델 학습 및 생성 시 적용하여 탐지 모델을 구현하였다. 그 결과, 오인식오류의 가장 큰 원인인 등록되지 않은 신조어 사용을 탐지할 수 있는 패턴 방식으로 다양한 단어 분리 방식 중 초성 추출 방식이 가장 좋은 결과를 보임을 확인하였다. 본 연구는 크게 두 개의 함의를 가진다. 첫째, 인식오류로 기록되지 않아 탐지가 어려운 오인식오류에 대하여 다양한 방식 별 비교를 통해 최적의 방식을 찾았다. 둘째, 이를 실제 신조어 탐지 적용이 필요한 대화형 에이전트나 음성 인식 서비스에 적용한다면 음성 인식 단계에서부터 발생하는 오류의 패턴도 구체화할 수 있으며, 오류로 분류되지 않더라도 사용자가 원하는 결과에 맞는 서비스가 제공될 수 있음을 보였다.

Error Correction for Korean Speech Recognition using a LSTM-based Sequence-to-Sequence Model

  • Jin, Hye-won;Lee, A-Hyeon;Chae, Ye-Jin;Park, Su-Hyun;Kang, Yu-Jin;Lee, Soowon
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권10호
    • /
    • pp.1-7
    • /
    • 2021
  • 현재 대부분의 음성인식 오류 교정에 관한 연구는 영어를 기준으로 연구되어 한국어 음성인식에 대한 연구는 미비한 실정이다. 하지만 영어 음성인식에 비해 한국어 음성인식은 한국어의 언어적인 특성으로 인해 된소리, 연음 등의 발음이 있어, 비교적 많은 오류를 보이므로 한국어 음성인식에 대한 연구가 필요하다. 또한, 기존의 한국어 음성인식 연구는 주로 편집 거리 알고리즘과 음절 복원 규칙을 사용하기 때문에, 된소리와 연음의 오류 유형을 교정하기 어렵다. 본 연구에서는 된소리, 연음 등 발음으로 인한 한국어 음성인식 오류를 교정하기 위하여 LSTM을 기반으로 한 인공 신경망 모델 Sequence-to-Sequence와 Bahdanau Attention을 결합하는 문맥 기반 음성인식 후처리 모델을 제안한다. 실험 결과, 해당 모델을 사용함으로써 음성인식 성능은 된소리의 경우 64%에서 77%, 연음의 경우 74%에서 90%, 평균 69%에서 84%로 인식률이 향상되었다. 이를 바탕으로 음성인식을 기반으로 한 실제 응용 프로그램에도 본 연구에서 제안한 모델을 적용할 수 있다고 사료된다.

얼굴인식 시스템의 소프트에러에 대한 DCGSN 기반의 크로스 레이어 보상 방법 (DCGAN-based Compensation for Soft Errors in Face Recognition systems based on a Cross-layer Approach)

  • 조영환;김도연;이승현;정구민
    • 한국정보전자통신기술학회논문지
    • /
    • 제14권5호
    • /
    • pp.430-437
    • /
    • 2021
  • 본 논문에서는 DCGAN 기반의 크로스 레이어 보상 방법을 이용하여 소프트에러의 영향을 줄이는 얼굴인식 기법을 제안한다. JPEG 파일의 데이터 블록에서 소프트에러가 발생할 때, 이 블록들은 제대로 복호화되지 않을 수 있다. 이전 연구에서 해당 블록들은 얼굴 사진들의 평균 이미지를 이용해 대체하였으며, 인식률을 어느 정도 향상하였다. 본 논문에서는 이전 연구의 확장으로 DCGAN 기반의 보상 기법을 다룬다. 패리티 비트 검사기를 이용하는 임베디드 시스템 레이어에서 소프트에러가 발생할 때, 이 에러는 애플리케이션 레이어에서 DCGAN을 이용하여 보상된다. 얼굴 이미지의 소프트에러를 보상하기 위해서 DCGAN 구조를 이용하여 블록 데이터의 손실을 보상한다. 시뮬레이션 결과를 통하여, 제안된 방식이 소프트에러로 인한 성능 악화를 효율적으로 보상한다는 것을 보인다.

스포츠 경기에서 지능인식모델을 이용하기 위한 대상체 인식오류 보상방법에 관한 연구 (A Study on the Compensation Methods of Object Recognition Errors for Using Intelligent Recognition Model in Sports Games)

  • 한준수;김종원
    • 한국산학기술학회논문지
    • /
    • 제22권5호
    • /
    • pp.537-542
    • /
    • 2021
  • 본 논문은 인공지능 모델의 하나인 YOLO(You Only Look Once) 인식모델 기반의 이미지 내 객체인식을 위한 활용 환경에서 딥 러닝 네트워크를 통한 고속 이동 대상체 인식의 가능성 향상과 생활 속에서 쉽게 활용될 수 있도록 2차적인 정보의 가공을 통한 의미적 데이터 수집 방법을 연구하는데 그 목적이 있다. 인식모델에서 이동 대상체 인식오류는 카메라의 프레임 속도와 대상체의 이동속도 차이에서 발생하는 미인식과 대상체와 인접한 환경에서의 유사물체가 존재로 인한 오인식으로 확인되었으며 이를 보상하는 데이터 수집 방법을 제안했다. 실제 유사환경을 대표할 수 있는 스포츠(테니스 경기)를 대상으로 획득된 이미지에서 오류의 원인요소를 비전처리 기술을 적용하여 해당오류를 최소화하기 위한 방법과 처리구조를 연구하여 유효한 2차적인 데이터 수집의 효과성을 향상시켰다. 따라서 본 연구에서 제안된 데이터 수집 방법을 적용함으로써 일반인도 스마트폰 카메라의 간단한 촬영을 통해 스스로 건강 및 경기력 향상을 위한 스포츠 및 건강관련 산업에 적용될 수 있는 데이터의 수집 및 관리가 가능함을 보였다.

Performance of Vocabulary-Independent Speech Recognizers with Speaker Adaptation

  • Kwon, Oh Wook;Un, Chong Kwan;Kim, Hoi Rin
    • The Journal of the Acoustical Society of Korea
    • /
    • 제16권1E호
    • /
    • pp.57-63
    • /
    • 1997
  • In this paper, we investigated performance of a vocabulary-independent speech recognizer with speaker adaptation. The vocabulary-independent speech recognizer does not require task-oriented speech databases to estimate HMM parameters, but adapts the parameters recursively by using input speech and recognition results. The recognizer has the advantage that it relieves efforts to record the speech databases and can be easily adapted to a new task and a new speaker with different recognition vocabulary without losing recognition accuracies. Experimental results showed that the vocabulary-independent speech recognizer with supervised offline speaker adaptation reduced 40% of recognition errors when 80 words from the same vocabulary as test data were used as adaptation data. The recognizer with unsupervised online speaker adaptation reduced abut 43% of recognition errors. This performance is comparable to that of a speaker-independent speech recognizer trained by a task-oriented speech database.

  • PDF

AI-based language tutoring systems with end-to-end automatic speech recognition and proficiency evaluation

  • Byung Ok Kang;Hyung-Bae Jeon;Yun Kyung Lee
    • ETRI Journal
    • /
    • 제46권1호
    • /
    • pp.48-58
    • /
    • 2024
  • This paper presents the development of language tutoring systems for nonnative speakers by leveraging advanced end-to-end automatic speech recognition (ASR) and proficiency evaluation. Given the frequent errors in non-native speech, high-performance spontaneous speech recognition must be applied. Our systems accurately evaluate pronunciation and speaking fluency and provide feedback on errors by relying on precise transcriptions. End-to-end ASR is implemented and enhanced by using diverse non-native speaker speech data for model training. For performance enhancement, we combine semisupervised and transfer learning techniques using labeled and unlabeled speech data. Automatic proficiency evaluation is performed by a model trained to maximize the statistical correlation between the fluency score manually determined by a human expert and a calculated fluency score. We developed an English tutoring system for Korean elementary students called EBS AI Peng-Talk and a Korean tutoring system for foreigners called KSI Korean AI Tutor. Both systems were deployed by South Korean government agencies.

Using Utterance and Semantic Level Confidence for Interactive Spoken Dialog Clarification

  • Jung, Sang-Keun;Lee, Cheong-Jae;Lee, Gary Geunbae
    • Journal of Computing Science and Engineering
    • /
    • 제2권1호
    • /
    • pp.1-25
    • /
    • 2008
  • Spoken dialog tasks incur many errors including speech recognition errors, understanding errors, and even dialog management errors. These errors create a big gap between the user's intention and the system's understanding, which eventually results in a misinterpretation. To fill in the gap, people in human-to-human dialogs try to clarify the major causes of the misunderstanding to selectively correct them. This paper presents a method of clarification techniques to human-to-machine spoken dialog systems. We viewed the clarification dialog as a two-step problem-Belief confirmation and Clarification strategy establishment. To confirm the belief, we organized the clarification process into three systematic phases. In the belief confirmation phase, we consider the overall dialog system's processes including speech recognition, language understanding and semantic slot and value pairs for clarification dialog management. A clarification expert is developed for establishing clarification dialog strategy. In addition, we proposed a new design of plugging clarification dialog module in a given expert based dialog system. The experiment results demonstrate that the error verifiers effectively catch the word and utterance-level semantic errors and the clarification experts actually increase the dialog success rate and the dialog efficiency.

A Tow-stage Recognition Approach Based on Error Pattern Hypotheses for Connected Digit Recognition

  • Oh, Wook-Kwon;Un, Chong-Kwan
    • The Journal of the Acoustical Society of Korea
    • /
    • 제15권3E호
    • /
    • pp.31-36
    • /
    • 1996
  • In this paper, a two-stage recognition approach based on error pattern hypotheses is proposed to reduce errors of a connected digit recognizer. In the approach, a conventional recognizer is first used to produce N-best candidate strings, and then error patterns are hypothesized by examining the candidate strings. For substitution error pattern hypotheses, error-pattern-dependent classifiers having more discriminative power than the first-stage classifier are used ; and for insertion and deletion errors, word duration and energy contour information are exploited are exploited to discriminated confusing pairs. Simulation results showed that the proposed approach achieves 15% decrease in word error rate for speaker-independent Korean connected digit recognition when a hidden Markov model-based recognizer is used for the first-stage classifier.

  • PDF