A Speech Recognition System based on a New Endpoint Estimation Method jointly using Audio/Video Informations

음성/영상 정보를 이용한 새로운 끝점추정 방식에 기반을 둔 음성인식 시스템

  • 이동근 (홍익대학교 전자공학과) ;
  • 김성준 (홍익대학교 전자공학과) ;
  • 계영철 (홍익대학교 전자공학과)
  • Published : 2003.06.01

Abstract

We develop the method of estimating the endpoints of speech by jointly using the lip motion (visual speech) and speech being included in multimedia data and then propose a new speech recognition system (SRS) based on that method. The endpoints of noisy speech are estimated as follows : For each test word, two kinds of endpoints are detected from visual speech and clean speech, respectively Their difference is made and then added to the endpoints of visual speech to estimate those for noisy speech. This estimation method for endpoints (i.e. speech interval) is applied to form a new SRS. The SRS differs from the convention alone in that each word model in the recognizer is provided an interval of speech not Identical but estimated respectively for the corresponding word. Simulation results show that the proposed method enables the endpoints to be accurately estimated regardless of the amount of noise and consequently achieves 8 o/o improvement in recognition rate.

본 논문에서는 멀티미디어 데이터에 존재하는 입술의 움직임(영상언어)과 음성을 함께 이용하여 음성의 끝점을 정확히 추정하는 방법과 이를 기반으로 한 음성인식 시스템을 제안한다. 잡음 섞인 음성의 끝점추정 방법은 다음과 같다. 각 테스트 단어에 대하여 영상언어를 이용한 끝점과 깨끗한 음성을 이용한 끝점을 각각 구한 후 이것들의 차이를 계산한다. 이 차이에 영상언어 끝점을 더하여 잡음 섞인 음성의 끝점으로 추정한다. 이와 같은 끝점(즉, 음성구간)의 추정방법을 인식기에 적용한다. 동일한 구간의 음성이 인식기의 각 단어모델에 입력되는 기존의 인식 방법과는 달리, 새로운 인식기에서는 각 단어별로 추정된 서로 다른 구간의 음성이 각 해당단어모델에 입력된다. 제안된 방식을 모의실험 한 결과, 음성잡음의 크기에 관계없이 정확한 끝점을 추정 할 수 있었으며, 그 결과 약 8% 정도의 인식률 향상을 이루었다.

Keywords

References

  1. L. R. Rabiner and M. R. Sambur, 'An Algorithm for Determining the Endpoints of Isolated Utterances,' Bell Syst. Tech. J., Vol. 54, No.2, February 1975
  2. G. Potamianos, H.P. Graf, and E. Cosatto, 'An image transform approach for HMM based automatic lipreading', Proc. Int. Conf. Image Process., Chicago, 1998
  3. Juergen Luettin, Neil A. Thacker and S.W.Beet. 'Locating and Tracking Facial Speech Features', Proceedings of ICPR'96 1996
  4. 이철우, 계영철, 고인선, '강인한 음성인식을 위한 이중모드 센서의 결합방식에 관한연구', 한국음향학회 논문지, 제 20권, 제 6호. PP. 51-56, 2001
  5. T. Wark and S. Sridharan, ' A syntactic approach to automatic lip feature extraction for speaker identification', Proceedings of the IEEE. 1998