• 제목/요약/키워드: speaker dependent system

검색결과 76건 처리시간 0.025초

다기능 전동휠체어의 음성인식 모듈에 관한 연구 (Voice Recognition Module for Multi-functional Electric Wheelchair)

  • 류홍석;김정훈;강성인;강재명;이상배
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(3)
    • /
    • pp.83-86
    • /
    • 2002
  • This paper intends to provide convenience to the disabled, losing the use of their limbs, through voice recognition technology. The voice recognition part of this system recognizes voice by DTW (Dynamic Time Warping) Which is most Widely used in Speaker dependent system. Specially, S/N rate was improved through Wiener filter in the pre-treatment phase while considering real environmental conditions; the result values of 12th order feature pattern per frame are extracted by DTW algorithm using LPC and Cepsturm in feature extraction process. Furthermore, miniaturization is pursued using TMS320C32, 71's the floating-point DSP, for the hardware part. Currently, 90% of hardware porting has been completed, but we can confirm that the recognition rate was 96% as a result of performing the DTW algorithm in PC.

  • PDF

음성망을 이용한 한국어 연속 숫자음 인식에 관한 연구 (Study on the Recognition of Spoken Korean Continuous Digits Using Phone Network)

  • 이강성;이형준;변용규;김순협
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1988년도 전기.전자공학 학술대회 논문집
    • /
    • pp.624-627
    • /
    • 1988
  • This paper describes the implementation of recognition of speaker - dependent Korean spoken continuous digits. The recognition system can be divided into two parts, acoustic - phonetic processor and lexical decoder. Acoustic - phonetic processor calculates the feature vectors from input speech signal and the performs frame labelling and phone labelling. Frame labelling is performed by Bayesian classification method and phone labelling is performed using labelled frame and posteriori probability. The lexical decoder accepts segments (phones) from acoustic - phonetic processor and decodes its lexical structure through phone network which is constructed from phonetic representation of ten digits. The experiment carried out with two sets of 4continuous digits, each set is composed of 35 patterns. An evaluation of the system yielded a pattern accuracy of about 80 percent resulting from a word accuracy of about 95 percent.

  • PDF

PCA와 HMM을 이용한 실시간 립리딩 시스템의 설계 및 구현 (Design and Implementation of a Real-Time Lipreading System Using PCA & HMM)

  • 이지근;이은숙;정성태;이상설
    • 한국멀티미디어학회논문지
    • /
    • 제7권11호
    • /
    • pp.1597-1609
    • /
    • 2004
  • 립리딩은 잡음 환경에서 저하되는 음성 인식률의 보상과 음성을 청취하기 어려운 상황에서의 음성인식보조 수단으로 많은 연구가 시도되고 있다. 기존 립리딩 시스템은 인위적인 조명 환경이나 얼굴과 입술 추출을 위하여 미리 정해진 제한된 조건에서 실험되어 왔다. 본 논문에서는 화자의 움직임이 허용되고 컬러나 조명과 같은 환경 변화에 제한조건을 완화한 영상을 이용하여 실시간 립리딩 시스템을 구현하였다. 본 논문의 시스템은 범용으로 사용되는 PC 카메라를 통해 입력받은 영상에서 얼굴과 입술 영역을 실시간으로 검출한 후, 립리딩에 필요한 영상정보를 추출하고 이 입술 영상 정보를 이용하여 실시간으로 발성 단어를 인식할 수 있다. 얼굴과 입술 영역 검출을 위하여 조명환경에 독립성을 갖는 색도 히스토그램 모델을 이용하였고 움직이는 화자의 얼굴 추적을 위하여 평균 이동 알고리즘을 이용하였다. 검출된 입술 영역에서 학습과 인식에 필요한 영상 정보를 추출하기 위하여 PCA(Principal Component Analysis)를 사용하였고, 인식 알고리즘으로는 HMM을 이용하였다. 실험 결과 화자종속일 경우 90%의 인식률을 보였으며 잡음이 있는 음성과 합병하여 인식률 실험을 해 본 결과, 음성 잡음비에 따라서 음성 인식률을 약 40~85%까지 향상시킬 수 있었다.

  • PDF

VQ코드의 천이 행렬과 이산 HMM을 이용한 한국어 단어인식 (Korean Word Recognition using the Transition Matrix of VQ-Code and DHMM)

  • 정광우;홍광석;박병철
    • 한국음향학회지
    • /
    • 제13권4호
    • /
    • pp.40-49
    • /
    • 1994
  • 본 논문에서는 단어 인식 시스템의 성능 개선을 위하여 다음과 같은 두가지 방법을 제안한다. 첫번째 방법은 VQ 코드간의 천이를 안정화시키기 위하여 음성신호의 특징벡터 시퀀스에 관성을 적용하는 방법이고, 두번째 방법은 이산 HMM 모델에서 인접 프레임 간의 시간 상관성을 고려하기 위하여 VQ 코드의 천이행렬을 출력 심벌의 관측확률에 가중치로 이용하여 새로운 관측확률을 발생하는 방법이다. 특징벡터 시퀀스에 관성을 도입함으로서, SOFM상의 각 단어에 대한 반응경로에서 확률분포가 중첩되는 것을 억제하여 HMM의 상태천이를 안정화 시킬 수 있다. 기존의 이산 HMM에 VQ 코드의 천이행렬을 가중치로 적용함으로써, 특징벡터의 확률분포를 더욱 세분화하고, 특징분포를 적당한 영역으로 제한함으로써 인식시스템의 성능을 개선할 수 있다. 제안한 방법을 평가하기 위하여 50개의 DDD 지역명을 대상으로 인식 실험을 수행하였다. 실험 결과에 의하면, 제안된 방법이 기존의 HMM 모델에 비해 화자종속 실험에서는 $4.2\%$의 인식률 향상과 화자 독립 실험에서는 $12.45\%$의 인식률 향상을 얻을 수 있었다.

  • PDF

인식 단위로서의 한국어 음절에 대한 연구 (A Study on the Korean Syllable As Recognition Unit)

  • 김유진;김회린;정재호
    • 한국음향학회지
    • /
    • 제16권3호
    • /
    • pp.64-72
    • /
    • 1997
  • 본 논문에서는 한국어 대용량 어휘 인식 시스템에 적합한 인식 단위에 대하여 연구 및 실험하였다. 특히 현재 인식 시스템의 인식 단위로 주로 사용되는 음소와 한국어의 특징을 잘 나타내는 음절을 선택하고, 인식 실험을 통해 음절이 한국어 인식 시스템의 인식 단위로서 적합한가를 음소와 비교하였다. 객관적인 비교 인식 실험 결과를 제시하기 위하여 동일한 남성 화자의 음성 데이터를 수집하고, 수작업 음소 경계 및 레이블링 과정을 거친 음성 데이터 베이스를 구축하였다. 또한 각 인식 단위에 동일한 HMM 기반의 훈련 및 인식 알고리즘을 적용하기 위해 Entropic사의 HTK (HMM Tool Kit) 2.0을 사용하였다. 각 인식 단위의 훈련을 위해 5상태 3출력, 8상태 6출력 HMM 모델의 연속 HMM (Continuous HMM)을 적용하였고, PBW 3회분, POW 1회분을 훈련에 사용하고 PBW 1회분을 각 인식 단위로서 인식하는 화자 종속 단어 인식 실험을 구성하였다. 실험 결과 8상태 6출력 모델을 사용한 경우 음소 단위는 95.65%, 음절 단위는 94.41%의 인식률을 나타내었다. 한편 인식 속도에서는 음절이 음소보다 약 25% 빠른 것으로 나타났다.

  • PDF

TMS320C2000계열 DSP를 이용한 단일칩 음성인식기 구현 (Implementation of a Single-chip Speech Recognizer Using the TMS320C2000 DSPs)

  • 정익주
    • 음성과학
    • /
    • 제14권4호
    • /
    • pp.157-167
    • /
    • 2007
  • In this paper, we implemented a single-chip speech recognizer using the TMS320C2000 DSPs. For this implementation, we had developed very small-sized speaker-dependent recognition engine based on dynamic time warping, which is especially suited for embedded systems where the system resources are severely limited. We carried out some optimizations including speed optimization by programming time-critical functions in assembly language, and code size optimization and effective memory allocation. For the TMS320F2801 DSP which has 12Kbyte SRAM and 32Kbyte flash ROM, the recognizer developed can recognize 10 commands. For the TMS320F2808 DSP which has 36Kbyte SRAM and 128Kbyte flash ROM, it has additional capability of outputting the speech sound corresponding to the recognition result. The speech sounds for response, which are captured when the user trains commands, are encoded using ADPCM and saved on flash ROM. The single-chip recognizer needs few parts except for a DSP itself and an OP amp for amplifying microphone output and anti-aliasing. Therefore, this recognizer may play a similar role to dedicated speech recognition chips.

  • PDF

다중 템플릿 방법을 이용한 뇌파의 감성 분류 알고리즘 (Sensibility Classification Algorithm of EEGs using Multi-template Method)

  • 김동준
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제53권12호
    • /
    • pp.834-838
    • /
    • 2004
  • This paper proposes an algorithm for EEG pattern classification using the Multi-template method, which is a kind of speaker adaptation method for speech signal processing. 10-channel EEG signals are collected in various environments. The linear prediction coefficients of the EEGs are extracted as the feature parameter of human sensibility. The human sensibility classification algorithm is developed using neural networks. Using EEGs of comfortable or uncomfortable seats, the proposed algorithm showed about 75% of classification performance in subject-independent test. In the tests using EEG signals according to room temperature and humidity variations, the proposed algorithm showed good performance in tracking of pleasantness changes and the subject-independent tests produced similar performances with subject-dependent ones.

자동차 소음 환경에서 음성 인식 (Speech Recognition in the Car Noise Environment)

  • 김완구;차일환;윤대희
    • 전자공학회논문지B
    • /
    • 제30B권2호
    • /
    • pp.51-58
    • /
    • 1993
  • This paper describes the development of a speaker-dependent isolated word recognizer as applied to voice dialing in a car noise environment. for this purpose, several methods to improve performance under such condition are evaluated using database collected in a small car moving at 100km/h The main features of the recognizer are as follow: The endpoint detection error can be reduced by using the magnitude of the signal which is inverse filtered by the AR model of the background noise, and it can be compensated by using variants of the DTW algorithm. To remove the noise, an autocorrelation subtraction method is used with the constraint that residual energy obtainable by linear predictive analysis should be positive. By using the noise rubust distance measure, distortion of the feature vector is minimized. The speech recognizer is implemented using the Motorola DSP56001(24-bit general purpose digital signal processor). The recognition database is composed of 50 Korean names spoken by 3 male speakers. The recognition error rate of the system is reduced to 4.3% using a single reference pattern for each word and 1.5% using 2 reference patterns for each word.

  • PDF

SVAPI 1.0 환경에서의 어구 종속 화자 확인 시스템 (Text-dependent Speaker Verification System in SVAPI 1.0 Environment)

  • 김유진
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1998년도 제15회 음성통신 및 신호처리 워크샵(KSCSP 98 15권1호)
    • /
    • pp.401-405
    • /
    • 1998
  • SVAPI 1.0 환경에서의 어구 종속 화자 확인 시스템에 대해 기술한다. 구현된 시스템은 궁극적으로 공중 전화망 응용이 가능한 실용 시스템을 목표로 개발되었으며 이를 위해 SVAPI 위원회에 의해 제안된 SVAPI 1.0을 개발 환경으로 사용하였다. SVAPI는 객체 지향 구조, 클라이언트-서버 및 telephony 환경의 지원등이 특징이며 어플리케이션과 엔진을 독립적으로 개발할 수 있는 이점을 제공한다. 구현된 데모 시스템은 펜티엄 프로세서와 Windows95/NT 4.0 운영체제 그리고 Win16/Win32 API를 통해 제어 가능하며 음성 입력이 가능한 디바이스를 장착한 IBM 호환 PC이다. 화자의 성문 등록은 화자가 동일한 어구를 3회 발성하여 이뤄지며 등록과 확인의 응답속도는 모두 1초 이내이다. 소프트웨어의 구성은 크게 어플리케이션과 어구 종속 화자 확인 엔진으로 구분할 수 있으며 엔진은 끝점 검출 알고리즘, 음성 특징 추출 알고리즘 그리고 연속 HMM 기반의 화자 성문 모델 등록 및 유사도 계산 등을 포함한 확인 알고리즘으로 구성되어 있다. 화자의 성문은이름과 같은 약 3음절 이상의 단어로 등록되고 테스트되었다. 엔진의 객관적인 평가를 위해 전화선을 통해 남자 6명, 여자 3명의 화자로부터 자신의 이름을 각각 40회 발성하여 구축된 음성 데이터 베이스를 사용하였으며 실험 결과 남자는 2.85%, 여자는 2.44%의 EER을 각각 얻었다.

  • PDF

개선된 경쟁학습을 이용한 음성인식 (A Study on the Speech Recognition using Advanced Competitive Learning)

  • 송준규;이동욱;김영태
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1997년도 추계학술대회 논문집 학회본부
    • /
    • pp.594-596
    • /
    • 1997
  • This paper presents the speaker-dependent Korean isolated digit recognition system using advanced competitive learning. Since competitive learning algorithms are easy and simple to implement, they are used in various fields. The proposed recognition algorithm consists of three procedures: comparing winning number of codebook vectors, selecting the representative vector out of codebook vectors, and generating a new codebook with the representative vectors. In this paper, we use a sound blaster 16 for obtaining speech data. Speech data are sampled by 16 bits and 11 kHz sampling rate.

  • PDF