• Title/Summary/Keyword: 음성구동 전동 휠체어

Search Result 2, Processing Time 0.015 seconds

Development of Intention Reading System for the Disabled (장애인을 위한 사용자 의도 파악 시스템 개발에 관한 연구)

  • Lee, Young-Jin;Chu, Gil-Whoan;Kim, Jae-Hean;Chung, Myung-Jin
    • Proceedings of the KIEE Conference
    • /
    • 1999.07g
    • /
    • pp.3018-3020
    • /
    • 1999
  • 본 논문에서는 손과 발을 자기의 의지대로 움직일 수 없는 장애인들이 전동 휠체어나 로봇 팔과 같은 보조 장치를 손, 발의 사용 없이 조작 할 수 있는 시스템 개발을 위한 연구에 대해서 소개한다. 손과 발을 사용하지 않고 전동 휠체어나 로봇 팔을 조작하려면 장애인의 의도를 파악하고 이 정보에 의한 구동 방식이 필요하게 된다. 본 연구에서는 장애인의 눈동자의 움직임과 머리의 움직임 그리고 음성 신호를 이용하여 보조 장치들을 구동시키고자 한다. 이를 구현하기 위해서는 시선의 방향을 측정할 수 있는 기술과 머리의 위치와 방향을 측정하는 기술, 그리고 음성으로 표현되는 간단한 명령들을 인식할 수 있는 기술이 필요하며, 이러한 기술의 통합을 바탕으로 보조장치들을 구동시키기 위한 편리한 사용자 지향의 인터페이스 기술을 개발하고자 한다.

  • PDF

Robust Speech Recognition Algorithm of Voice Activated Powered Wheelchair for Severely Disabled Person (중증 장애우용 음성구동 휠체어를 위한 강인한 음성인식 알고리즘)

  • Suk, Soo-Young;Chung, Hyun-Yeol
    • The Journal of the Acoustical Society of Korea
    • /
    • v.26 no.6
    • /
    • pp.250-258
    • /
    • 2007
  • Current speech recognition technology s achieved high performance with the development of hardware devices, however it is insufficient for some applications where high reliability is required, such as voice control of powered wheelchairs for disabled persons. For the system which aims to operate powered wheelchairs safely by voice in real environment, we need to consider that non-voice commands such as user s coughing, breathing, and spark-like mechanical noise should be rejected and the wheelchair system need to recognize the speech commands affected by disability, which contains specific pronunciation speed and frequency. In this paper, we propose non-voice rejection method to perform voice/non-voice classification using both YIN based fundamental frequency(F0) extraction and reliability in preprocessing. We adopted a multi-template dictionary and acoustic modeling based speaker adaptation to cope with the pronunciation variation of inarticulately uttered speech. From the recognition tests conducted with the data collected in real environment, proposed YIN based fundamental extraction showed recall-precision rate of 95.1% better than that of 62% by cepstrum based method. Recognition test by a new system applied with multi-template dictionary and MAP adaptation also showed much higher accuracy of 99.5% than that of 78.6% by baseline system.