• 제목/요약/키워드: Speech recognitions

검색결과 10건 처리시간 0.021초

The Effect of the Number of Clusters on Speech Recognition with Clustering by ART2/LBG

  • Lee, Chang-Young
    • 말소리와 음성과학
    • /
    • 제1권2호
    • /
    • pp.3-8
    • /
    • 2009
  • In an effort to improve speech recognition, we investigated the effect of the number of clusters. In usual LBG clustering, the number of codebook clusters is doubled on each bifurcation and hence cannot be chosen arbitrarily in a natural way. To have the number of clusters at our control, we combined adaptive resonance theory (ART2) with LBG and perform the clustering in two stages. The codebook thus formed was used in subsequent processing of fuzzy vector quantization (FVQ) and HMM for speech recognition tests. Compared to conventional LBG, our method was shown to reduce the best recognition error rate by 0${\sim$}0.9% depending on the vocabulary size. The result also showed that between 400 and 800 would be the optimal number of clusters in the limit of small and large vocabulary speech recognitions of isolated words, respectively.

  • PDF

성도 면적 함수를 이용한 음성 인식에 관한 연구 (A Study on Speech Recognition using Vocal Tract Area Function)

  • 송제혁;김동준
    • 대한의용생체공학회:의공학회지
    • /
    • 제16권3호
    • /
    • pp.345-352
    • /
    • 1995
  • The LPC cepstrum coefficients, which are an acoustic features of speech signal, have been widely used as the feature parameter for various speech recognition systems and showed good performance. The vocal tract area function is a kind of articulatory feature, which is related with the physiological mechanism of speech production. This paper proposes the vocal tract area function as an alternative feature parameter for speech recognition. The linear predictive analysis using Burg algorithm and the vector quantization are performed. Then, recognition experiments for 5 Korean vowels and 10 digits are executed using the conventional LPC cepstrum coefficients and the vocal tract area function. The recognitions using the area function showed the slightly better results than those using the conventional LPC cepstrum coefficients.

  • PDF

강인한 음성인식을 위한 이중모드 센서의 결합방식에 관한 연구 (A Study on Combining Bimodal Sensors for Robust Speech Recognition)

  • 이철우;계영철;고인선
    • 한국음향학회지
    • /
    • 제20권6호
    • /
    • pp.51-56
    • /
    • 2001
  • 최근 잡음이 심한 환경에서 음성인식을 신뢰성있게 하기 위하여 입모양의 움직임과 음성을 같이 사용하는 방법이 활발히 연구되고 있다 본 논문에서도 이러한 목적으로 영상언어인식기와 음성인식기의 결과에 각각 가중치를 주어 결합하는 방법을 제안한다. 특히 가중치를 입력음성의 잡음의 정도에 따라 자동적으로 결정하는 방법을 제안한다. 가중치의 결정을 위하여 입력샘플간의 상관도와 LPC분석의 잔여 오차를 이용한다. 모의실험 결과, 이런 방식으로 결합된 인식기는 잡음이 심한 환경에서도 약 83%의 인식성능을 보이고 있다.

  • PDF

잡음 환경에 강인한 이중모드 음성인식 시스템에 관한 연구 (A Study on the Robust Bimodal Speech-recognition System in Noisy Environments)

  • 이철우;고인선;계영철
    • 한국음향학회지
    • /
    • 제22권1호
    • /
    • pp.28-34
    • /
    • 2003
  • 최근 잡음이 심한 환경에서 음성인식을 신뢰성 있게 하기 위하여 입 모양의 움직임 (영상언어)과 음성을 같이 사용하는 방법이 활발히 연구되고 있다 본 논문에서는 영상언어 인식기의 결과와 음성인식기의 결과에 각각 가중치를 주어 결합하는 방법을 연구하였다. 각각의 인식 결과에 적절한 가중치를 결정하는 방법을 제안하였으며, 특히 음성정보에 들어있는 잡음의 정도와 영상정보의 화질에 따라 자동적으로 가중치를 결정하도록 하였다. 모의 실험 결과 제안된 방법에 의한 결합 인식률이 잡음이 심한 환경에서도 84% 이상의 인식률을 나타내었으며, 영상에 번짐효과가 있는 경우 영상의 번짐 정도를 고려한 결합 방법이 그렇지 않은 경우보다 우수한 인식 성능을 나타내었다.

Lyapunov 차원을 이용한 화자식별 파라미터 추정 (Estimation of Speeker Recognition Parameter using Lyapunov Dimension)

  • 유병욱;김창석
    • 한국음향학회지
    • /
    • 제16권4호
    • /
    • pp.42-48
    • /
    • 1997
  • 본 논문에서는 음성을 비선형 결정론적 발생메카니즘에서 발생되는 불규칙한 신호인 카오스로 보고 상관차원과 Lyapunov 차원을 구함으로써 음성화자식별 파라미터와 음성인식파라미터에 대한 성능을 평가하였다. Taken의 매립정리를 이용하여 스트레인지 어트렉터를 구성할 때 AR모델의 파워스펙트럼으로부터 주요주기를 구함으로써 정확한 상관차원과 Lyapunov 차원을 추정하였다. 이트렉터 궤도의 특징을 잘 나타내는 상관차원과 Lyapunov 차원을 가지고 음성인식과 화자인식의 특징파라미터로의 효용성을 고찰하였다. 그 결과, 음성인식보다는 화자식별의 특징파라미터로타당하였으며 화자식별 특징파라미터로서는 상관차원보다는 Lyapunov 차원이 높은 화자식별 인식율을 얻을 수 있음을 알았다.

  • PDF

남성과 여성의 음성 특징 비교 및 성별 음성인식에 의한 인식 성능의 향상 (Comparison of Male/Female Speech Features and Improvement of Recognition Performance by Gender-Specific Speech Recognition)

  • 이창영
    • 한국전자통신학회논문지
    • /
    • 제5권6호
    • /
    • pp.568-574
    • /
    • 2010
  • 음성인식에서의 인식률 향상을 위한 노력의 일환으로서, 본 논문에서는 성별을 구분하지 않는 일반적 화자독립 음성인식과 성별에 따른 음성인식의 성능을 비교하는 연구를 수행하였다. 실험을 위해 남녀 각 20명의 화자로 하여금 각각 300단어를 발성하게 하고, 그 음성 데이터를 여성/남성/혼성A/혼성B의 네 그룹으로 나누었다. 우선, 성별 음성인식에 대한 근거의 타당성을 파악하기 위하여 음성 신호의 주파수 분석 및 MFCC 특징벡터들의 성별 차이를 조사하였다. 그 결과, 성별 음성인식의 동기를 뒷받침할 정도의 두드러진 성별 차이가 확인되었다. 음성인식을 수행한 결과, 성을 구분하지 않는 일반적인 화자독립의 경우에 비해 성별 음성인식에서의 오류율이 절반 이하로 떨어지는 것으로 나타났다. 이로부터, 성 인식과 성별 음성인식을 계층적으로 수행함으로써 화자독립의 인식률을 높일 수 있을 것으로 사료된다.

A Study on Design and Implementation of Speech Recognition System Using ART2 Algorithm

  • Kim, Joeng Hoon;Kim, Dong Han;Jang, Won Il;Lee, Sang Bae
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제4권2호
    • /
    • pp.149-154
    • /
    • 2004
  • In this research, we selected the speech recognition to implement the electric wheelchair system as a method to control it by only using the speech and used DTW (Dynamic Time Warping), which is speaker-dependent and has a relatively high recognition rate among the speech recognitions. However, it has to have small memory and fast process speed performance under consideration of real-time. Thus, we introduced VQ (Vector Quantization) which is widely used as a compression algorithm of speaker-independent recognition, to secure fast recognition and small memory. However, we found that the recognition rate decreased after using VQ. To improve the recognition rate, we applied ART2 (Adaptive Reason Theory 2) algorithm as a post-process algorithm to obtain about 5% recognition rate improvement. To utilize ART2, we have to apply an error range. In case that the subtraction of the first distance from the second distance for each distance obtained to apply DTW is 20 or more, the error range is applied. Likewise, ART2 was applied and we could obtain fast process and high recognition rate. Moreover, since this system is a moving object, the system should be implemented as an embedded one. Thus, we selected TMS320C32 chip, which can process significantly many calculations relatively fast, to implement the embedded system. Considering that the memory is speech, we used 128kbyte-RAM and 64kbyte ROM to save large amount of data. In case of speech input, we used 16-bit stereo audio codec, securing relatively accurate data through high resolution capacity.

입술 움직임 영상 선호를 이용한 음성 구간 검출 (Speech Activity Detection using Lip Movement Image Signals)

  • 김응규
    • 융합신호처리학회논문지
    • /
    • 제11권4호
    • /
    • pp.289-297
    • /
    • 2010
  • 본 논문에서는 음성인식을 위한 음성구간 검출과정에서 유입될 수 있는 동적인 음향에너지 이외에 화자의 입술움직임 영상신호까지 확인함으로써 외부 음향잡음이 음성인식 대상으로 오인식되는 것을 방지하기 위한 한 가지 방법이 제시된다. 우선, 연속적인 영상이 PC용 영상카메라를 통하여 획득되고 그 입술움직임 여부가 식별된다. 다음으로, 입술움직임 영상신호 데이터는 공유메모리에 저장되어 음성인식 프로세서와 공유한다. 한편, 음성인식의 전처리 단계인 음성구간 검출과정에서 공유메모리에 저장되어진 데이터를 확인함으로써 화자의 발성에 의한 음향에너지인지의 여부가 입증된다. 최종적으로, 음성인식기와 영상처리기를 연동시켜 실험한 결과, 영상카메라에 대면해서 발성하면 음성인식 결과의 출력에 이르기까지 연동처리가 정상적으로 진행됨을 확인하였고, 영상카메라에 대면치 않고 발성하면 연동처리시스템이 그 음성인식 결과를 출력치 못함을 확인하였다. 또한, 오프라인하의 입술움직임 초기 특정값 및 템플릿 초기영상을 온라인하에서 추출된 입술움직임 초기특정값 및 템플릿 영상으로 대체함으로써 입술움직임 영상 추적의 변별력을 향상시켰다. 입술움직임 영상 추적과정을 시각적으로 확인하고 실시간으로 관련된 패러미터를 해석하기 위해 영상처리 테스트베드를 구축하였다, 음성과 영상처리 시스템의 연동결과 다양한 조명환경 하에서도 약 99.3%의 연동율을 나타냈다.

EEG기반 언어 인식 시스템을 위한 국제음성기호를 이용한 모음 특징 추출 연구 (EEG based Vowel Feature Extraction for Speech Recognition System using International Phonetic Alphabet)

  • 이태주;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제24권1호
    • /
    • pp.90-95
    • /
    • 2014
  • 인간과 기계를 연결하는 새로운 인터페이스인 Brain-computer interface (BCI)를 이용해 휠체어를 제어하거나 단어를 입력하는 등, 사용자를 위한 다양한 장치를 개발하는 연구들이 진행되어 왔다. 특히 최근에는 뇌파를 이용한 음성인식을 구현하고 이를 통해 무음통신 등에 적용하려는 시도들이 있었다. 본 논문에서는 이러한 연구의 일환으로 electroencephalogram (EEG) 기반의 언어 인식 시스템을 개발하기 위한 기초 단계로서, 국제음성기호에 기반을 둔 모음들의 특징을 추출하는 방법에 대한 연구를 진행하였다. 실험은 건장한 세 명의 남성 피험자를 대상으로 진행되었으며, 한 개의 모음을 제시하는 첫 번째 실험 과정과 두 개의 연속된 모음을 제시하는 두 번째 실험 과정으로 두 단계에 나누어서 실험이 진행되었다. 습득된 64개의 채널중 선택적으로 32개의 채널만을 사용해 특징을 추출하였으며, 사고 활동과 관련된 전두엽과 언어활동에 관련된 측두엽을 기준으로 영역을 선택하였다. 알고리즘 적용을 위해서 특징으로는 신호의 고유 값을 사용하였고, support vector machine (SVM)을 이용하여 분류를 수행하였다. 실험 결과, 첫 번째 단계의 실험을 통해서, 언어의 뇌파를 분석하기 위해서는 10차원 이상의 특징 벡터를 사용해야 됨을 알게 되었고, 11차원의 특징 벡터를 사용할 경우, 평균분류율은 최고 95.63 %로 /a/와 /o/를 분류할 때 나타났고, 가장 낮은 분류율을 보이는 모음은 /a/와 /u/로 86.85 %였다. 두 번째 단계의 실험에서는 두 개 이상의 모음을 발음하는 것이 단일 모음 발음과 어떤 차이가 있는지 확인해 보았다.

다기능성을 가진 음성 인식 요람 연구 (Study on the multi-functional Cradle by Voice Recognitions)

  • 박광성;안상진;조경록;최시온;박용욱
    • 한국전자통신학회논문지
    • /
    • 제12권4호
    • /
    • pp.701-706
    • /
    • 2017
  • 본 연구에서는 요람을 기존의 리모컨이나 수동으로 구동하는 방식과 달리 APP을 통하여 사람의 음성을 인식하면 모터로 동작하도록 요람을 제작하였다. 또한 요람에 온습도센서를 장착하여 실시간으로 요람의 온도와 습도를 LCD를 통해서 확인할 수 있고, 또한 소리크기에 따라 결과 값을 가지는 사운드센서를 이용하여 결과 값을 a, b, c로 지정하여 이 결과 값의 합이 1150을 넘으면 아기의 울음소리로 인식하여 APP에 알림표시와 알림음이 작동하도록 하는 기능을 가지는 요람을 제작하였다.