• 제목/요약/키워드: Speech Signals

검색결과 497건 처리시간 0.036초

HMM-Based Automatic Speech Recognition using EMG Signal

  • Lee Ki-Seung
    • 대한의용생체공학회:의공학회지
    • /
    • 제27권3호
    • /
    • pp.101-109
    • /
    • 2006
  • It has been known that there is strong relationship between human voices and the movements of the articulatory facial muscles. In this paper, we utilize this knowledge to implement an automatic speech recognition scheme which uses solely surface electromyogram (EMG) signals. The EMG signals were acquired from three articulatory facial muscles. Preliminary, 10 Korean digits were used as recognition variables. The various feature parameters including filter bank outputs, linear predictive coefficients and cepstrum coefficients were evaluated to find the appropriate parameters for EMG-based speech recognition. The sequence of the EMG signals for each word is modelled by a hidden Markov model (HMM) framework. A continuous word recognition approach was investigated in this work. Hence, the model for each word is obtained by concatenating the subword models and the embedded re-estimation techniques were employed in the training stage. The findings indicate that such a system may have a capacity to recognize speech signals with an accuracy of up to 90%, in case when mel-filter bank output was used as the feature parameters for recognition.

Sinusoidal Model을 이용한 Cochannel상에서의 음성분리에 관한 연구 (A Study on Speech Separation in Cochannel using Sinusoidal Model)

  • 박현규;신중인;박상희
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1997년도 추계학술대회 논문집 학회본부
    • /
    • pp.597-599
    • /
    • 1997
  • Cochannel speaker separation is employed when speech from two talkers has been summed into one signal and it is desirable to recover one or both of the speech signals from the composite signal. Cochannel speech occurs in many common situations such as when two AM signals containing speech are transmitted on the same frequency or when two people are speaking simultaneously (e. g., when talking on the telephone). In this paper, the method that separated the speech in such a situation is proposed. Especially, only the voiced sound of few sound states is separated. And the similarity of the signals by the cross correlation between the signals for exactness of original signal and separated signal is proved.

  • PDF

최대진폭의 Fluctuation에 의한 유성음구간 Explicit 검출 (An Explicit Voiced Speech Classification by using the Fluctuation of Maximum Magitudes)

  • 배명진
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1987년도 학술발표회 논문집
    • /
    • pp.86-88
    • /
    • 1987
  • Accurate detection of the voicved segment in speech signals is important for robust pitch extraction. This paper describes an explicit detection algorithmfor detecting the voiced segment in speech signals. Thsi algoithm is based on the fluctuation properties of maximum magnitudes in each frame of speech signals. The performance of this detector is evaluated and compared to that obtained from manually classifying 150 recorded digit utterances.

  • PDF

HMM Based Endpoint Detection for Speech Signals

  • 이용형;오창혁
    • 한국통계학회:학술대회논문집
    • /
    • 한국통계학회 2001년도 추계학술발표회 논문집
    • /
    • pp.75-76
    • /
    • 2001
  • An endpoint detection method for speech signals utilizing hidden Markov model(HMM) is proposed. It turns out that the proposed algorithm is quite satisfactory to apply isolated word speech recognition.

  • PDF

음악과 음성 판별을 위한 웨이브렛 영역에서의 특징 파라미터 (Feature Parameter Extraction and Analysis in the Wavelet Domain for Discrimination of Music and Speech)

  • 김정민;배건성
    • 대한음성학회지:말소리
    • /
    • 제61호
    • /
    • pp.63-74
    • /
    • 2007
  • Discrimination of music and speech from the multimedia signal is an important task in audio coding and broadcast monitoring systems. This paper deals with the problem of feature parameter extraction for discrimination of music and speech. The wavelet transform is a multi-resolution analysis method that is useful for analysis of temporal and spectral properties of non-stationary signals such as speech and audio signals. We propose new feature parameters extracted from the wavelet transformed signal for discrimination of music and speech. First, wavelet coefficients are obtained on the frame-by-frame basis. The analysis frame size is set to 20 ms. A parameter $E_{sum}$ is then defined by adding the difference of magnitude between adjacent wavelet coefficients in each scale. The maximum and minimum values of $E_{sum}$ for period of 2 seconds, which corresponds to the discrimination duration, are used as feature parameters for discrimination of music and speech. To evaluate the performance of the proposed feature parameters for music and speech discrimination, the accuracy of music and speech discrimination is measured for various types of music and speech signals. In the experiment every 2-second data is discriminated as music or speech, and about 93% of music and speech segments have been successfully detected.

  • PDF

정현파 모델과 사이코어쿠스틱스 모델을 이용한 음성 분리에 관한 연구 (A Study on Speech Separation using Sinusoidal Model and Psycoacoustics Model)

  • 황선일;한두진;귄철현;신대규;박상희
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2001년도 하계학술대회 논문집 D
    • /
    • pp.2622-2624
    • /
    • 2001
  • In this thesis, speaker separation is employed when speech from two talkers has been summed into one signal and it is desirable to recover one or both of the speech signals from the composite signal. This paper proposed the method that separated the summed speeches and proved the similarity between the signals by the cross correlation between the signals for exact between original signal and separated signal. This paper uses frequency sampling method based on sinusoidal model to separate the composite signal with vocalic speech and vocalic speech and noise masking method based on psycoacoustics model to separate the composite signal with vocalic speech and nonvocalic speech.

  • PDF

생성적 적대 신경망을 이용한 음향 도플러 기반 무 음성 대화기술 (An acoustic Doppler-based silent speech interface technology using generative adversarial networks)

  • 이기승
    • 한국음향학회지
    • /
    • 제40권2호
    • /
    • pp.161-168
    • /
    • 2021
  • 본 논문에서는 발성하고 있는 입 주변에 40 kHz의 주파수를 갖는 초음파 신호를 방사하고 되돌아오는 신호의 도플러 변이를 검출하여 발성음을 합성하는 무 음성 대화기술을 제안하였다. 무음성 대화 기술에서는 비 음성 신호로 부터 추출된 특징변수와 해당 음성 신호의 파라메터 간 대응 규칙을 생성하고 이를 이용하여 음성신호를 합성하게 된다. 기존의 무 음성 대화기술에서는 추정된 음성 파라메터와 실제 음성 파라메터간의 오차가 최소화되도록 대응규칙을 생성한다. 본 연구에서는 추정 음성 파라메터가 실제 음성 파라메터의 분포와 유사하도록 생성적 적대 신경망을 도입하여 대응 규칙을 생성하도록 하였다. 60개 한국어 음성을 대상으로 한 실험에서 제안된 기법은 객관적, 주관적 지표상 으로 기존의 신경망 기반 기법보다 우수한 성능을 나타내었다.

ICA로 분리한 신호의 분류 (Classification of Signals Segregated using ICA)

  • 김선일
    • 전자공학회논문지 IE
    • /
    • 제47권4호
    • /
    • pp.10-17
    • /
    • 2010
  • ICA(Independent Component Analysis)를 이용하여 신호를 분리했을 때 그 중 어느 것이 원하는 신호인지 알아낼 수 있는 일반적인 방법이 없다. 본 논문에서는 자동차 배기음에 오염된 음성 신호를 가정하고 이를 ICA를 이용해 분리했을 때 분리된 신호에서 어느 것이 배기음이고 음성 신호인지 구별할 수 있는 방법을 제시하였다. 음성 신호는 음성 선호와의 상관계수가 가장 크게 나타날 것으로 예상되므로 오염된 음성 선호와 같은 동일인의 단모음 '아', '오', '우' 신호와 타인의 단모음 선호를 이용하여 분리된 각 신호와의 상관계수를 구하되 일괄 방식, 최대값 방식, 평균값 방식 등 세가지 방식으로 구하고 각 방식마다 '아', '오', '우'와의 상관 계수로 구분하고 이외에 투표 방법, 합산 방법을 추가한 다섯 가지 방법을 시도하여 가정 좋은 분류율을 나타내는 방식 및 방법을 제시하였다.

음성 신호의 주파수 대역별 자기 공분산 기울기 분포 (Distribution of the Slopes of Autocovariances of Speech Signals in Frequency Bands)

  • 김선일
    • 한국정보통신학회논문지
    • /
    • 제17권5호
    • /
    • pp.1076-1082
    • /
    • 2013
  • 자기 공분산 기울기를 이용하여 음성 신호와 배경 잡음 신호를 구분할 때 구분 가능성을 높이기 위해 주파수 영역에서 음성 신호의 자기 공분산 기울기를 최대화하는 주파수 대역을 찾아내었다. 디지털 샘플링 된 음성 신호를 일정한 개수의 신호로 이루어진 블록으로 나눈 후 각 블록에 고속푸리에변환(Fast Fourier Transform, FFT)을 하여 주파수 영역으로 변환한 다음 임의의 주파수 대역에서 각 블록에서의 공분산을 구하고 이 공분산 값들을 연결하는 직선 근사를 한 후에 이 직선의 기울기를 자기 공분산 기울기로 사용하는데 이 값은 음성 신호의 특성 상 주파수 대역별로 차이가 있다. 따라서 어느 주파수 대역에서 자기 공분산 기울기가 크게 나타나는지 200개의 남성 음성 파일을 이용하여 주파수 대역별로 비교 분석하였다.

AURORA 잡음 처리 알고리즘을 이용한 전화망 환경에서의 강인한 음성 검출 (Robust Speech Detection Using the AURORA Front-End Noise Reduction Algorithm under Telephone Channel Environments)

  • 서영주;지미경;김회린
    • 대한음성학회지:말소리
    • /
    • 제48호
    • /
    • pp.155-173
    • /
    • 2003
  • This paper proposes a noise reduction-based speech detection method under telephone channel environments. We adopt the AURORA front-end noise reduction algorithm based on the two-stage mel-warped Wiener filter approach as a preprocessor for the frequency domain speech detector. The speech detector utilizes mel filter-bank based useful band energies as its feature parameters. The preprocessor firstly removes the adverse noise components on the incoming noisy speech signals and the speech detector at the next stage detects proper speech regions for the noise-reduced speech signals. Experimental results show that the proposed noise reduction-based speech detection method is very effective in improving not only the performance of the speech detector but also that of the subsequent speech recognizer.

  • PDF