• 제목/요약/키워드: Vocal Tract

검색결과 172건 처리시간 0.024초

DHMM 음성 인식 시스템을 위한 양자화 기반의 화자 정규화 (Quantization Based Speaker Normalization for DHMM Speech Recognition System)

  • 신옥근
    • 한국음향학회지
    • /
    • 제22권4호
    • /
    • pp.299-307
    • /
    • 2003
  • 화자독립 음성인식기에서 화자사이의 성도 길이의 영향을 최소화시켜 인식 성능을 개선하는 화자 정규화에 대한 많은 연구가 있어 왔다. 본 연구에서는 벡터양자화기를 이용하여 화자 검증이 가능하다는 사실에 착안하여 벡터 양자화기를 이용한 비교적 간단한 선형 워핑 화자정규화방법을 제안한다. 제안하는 방법에서는 먼저 정규화에 이용될 최적의 코드북을 생성한 다음, 이 코드 북을 이용하여 화자의 선형 워핑계수를 추출하고 추출된 워핑계수는 멜 켑스트럼 추출시에 사용되는 멜스케일 필터뱅크를 워핑하기 위해 이용된다. 본고에서 제안한 워핑계수 추출 및 적용 방법의 성능을 확인하기 위해 이산 HMM을 이용한 13가지의 단음절 한글 숫자음 인식기를 이용하여 인식실험을 수행하였으며, 실험 결과 약 29%의 오인식률 감소를 보여 제안하는 화자 정규화방법이 다른 라인서치 워핑계수추출 방법보다 간단한 동시에 효용가치가 있음을 확인하였다.

Multi-frame AR model을 이용한 LPC 계수 양자화 (Quantization of LPC Coefficients Using a Multi-frame AR-model)

  • 정원진;김무영
    • 한국음향학회지
    • /
    • 제31권2호
    • /
    • pp.93-99
    • /
    • 2012
  • 음성코딩 시 성도는 Linear Predictive Coding (LPC) 계수를 이용해서 모델링 한다. 일반적으로 LPC 계수는 양자화와 선형보간 관점에서 유리한 Line Spectral Frequency (LSF) 파라미터로 변경하여 사용한다. 10차 이상의 다차원 LSF 데이터를 벡터 양자화를 이용하여 직접 코딩하게 되면 벡터 내 상관관계 (intra-frame correlation)를 모두 이용할 수 있으므로 rate-distortion 관점에서는 높은 효율을 기대할 수 있다. 하지만, 계산량과 메모리 요구량이 높아져서 실제 코딩 시스템에서는 사용할 수 없게 되므로, 차원을 나누어 압축하는 Split Vector Quantization (SVQ)이 이용된다. 또한, LSF 데이터는 과거 벡터와의 벡터 간 상관관계 (inter-frame correlation)가 높으므로, 이를 이용한 Predictive Split Vector Quantization (PSVQ)이 사용되고 있다. PSVQ는 SVQ 보다 높은 rate-distortion 성능을 보인다. 본 논문에서는 음성 저장 장치를 위한 최적의 PSVQ를 구현하기 위해서 다수의 과거 프레임 정보와의 벡터 간상관관계 (inter-frame correlation)를 고려한 Multi-Frame AR-model 기반 SVQ (MF-AR-SVQ)를 제안하였다. 기존 PSVQ와 비교해 보았을 때, MF-AR-SVQ는 계산량과 메모리 요구량의 큰 증가 없이, 평균 spectral distortion 관점에서 약 1비트의 성능 향상을 보였다.

필터뱅크를 이용한 한국어 숫자음 인식 다이얼링 시스템 (Korean Digit Speech Recognition Dialing System using Filter Bank)

  • 박기영;최형기;김종교
    • 대한전자공학회논문지TE
    • /
    • 제37권5호
    • /
    • pp.62-70
    • /
    • 2000
  • 본 논문은 한국어 숫자음 인식을 HMM과 DTW 프로그램을 사용한 필터 뱅크로 수행하였다. 스펙트럼 분석은 주로 성도의 모양에 의한 음성 신호 특징을 나타낸다. 그리고 음성의 스펙트럼 특징은 일반적으로 정의된 주파수 범위에서 적절하게 집중된 스펙트럼, 즉 필터뱅크를 통과해 나가는 것에 의해 얻을 수 있다. 또한 8 개의 밴드 패스 필터는 인간 귀의 지각적인 청취력에 의해 나누었다. 정의된 주파수 범위는 320-330, 450-460, 640-650, 840-850, 900-1000, 1100-1200, 2000-2100, 3900-4000㎐이고, 샘플링 주파수는 8㎑ 이다. 그리고 프레임 폭은 20㎳, 주기는 10㎳이다. 실험 결과는 한국어 숫자음 음성인식에 대해 필터 뱅크를 사용하는 경우 HMM보다 DTW의 인식율이 더 높은 인식율이 나오는 것을 확인 할 수가 있었다. 필터 뱅크를 이용한 한국어 숫자음 인식율은 24차 밴드패스필터에서 93.3%, 16차 밴드패스필터에서, 89.1%, 8차 밴드 패스필터의 하드웨어 음성 다이얼링 시스템에서 88.9%의 인식율을 나타내었다.

  • PDF

멀티 펄스에 의한 선형 예측 필터링과 적응 임계값을 갖는 LRT의 연구 (A Study on A Multi-Pulse Linear Predictive Filtering And Likelihood Ratio Test with Adaptive Threshold)

  • 이기용;이주헌;송익호;안수길
    • 한국음향학회지
    • /
    • 제10권1호
    • /
    • pp.20-29
    • /
    • 1991
  • 기존의 선형 예측법에 의한 음성 분석의 기본적인 가정은 전극점 성도 필터의 입력은 백색 신호라는 것이다. 그러나, 주기성 입력 신호의 경우 피치 바이오스 오차가 기존 선형 예측 계수에 개입된다. 만일 여기 신호의 추정값을 이용할 수 있다면 멀티 펄스에 의한 선형 예측 분석으로 이러한 바이어스를 제거할 수 있다. 기존의 선형 예측 분석에서의 예측 오차는 멀티 펄스 여기 신호열과 불규칙 잡음 신호열의합으로 나타내어질 수 있으므로 선형 예측 오차로부터 멀티 펄스 신호열을 찾아내는 것은 고전적인 검출 및 추정의 문제로 생각될 수 있다. 본 논문에서는 먼저 LRT 를 이용하여 예측오차로부터 멀티 펄스 신호의 위치와 크기를 찾아낸 다음 이 신호열로부터 피치 바이어스가 제거된 선형 예측 계수를 구하는 알고리즘을 제안한다. 매번 적응된 임계값을 적용하여 반복 수행을 함으로써 성능향상을 입증하였다.

  • PDF

정현파 모델을 이용한 2.4kbps 음성부호화 알고리즘 (2.4kbps Speech Coding Algorithm Using the Sinusoidal Model)

  • 백성기;배건성
    • 한국통신학회논문지
    • /
    • 제27권3A호
    • /
    • pp.196-204
    • /
    • 2002
  • STC(Sinusoidal Transform Coding) 방식은 주파수 영역에서 음성신호의 스펙트럼 피크치들을 정현파로 모델링하여 합성하는 음성부호화 방식을 말한다. 저전송률 STC 방식에서는 스펙트럼의 모든 피크를 이용하는 대신, 기본 주파수와 고조파에 해당하는 스펙트럼 포락선에서의 크기와 그때의 위상을 이용하여 음성을 합성한다. 본 논문에서는 정현파 모델에 기반한 2.4kbps 음성부호화 알고리즘을 제안한다. 피치정보는 모든 스펙트럼 피크를 사용한 합성음과 선택된 주파수와 고조파를 이용한 합성음과의 평균자승에러를 이용하여 추정하고, 위상정보는 여기신호 펄스의 시작시기를 나타내는 onset time과 성도 모델 전달함수의 위상을 이용하여 얻는다. 크기정보는 SEEVOC 알고리즘과 선형예측계수를 이용하여 추정한다. 실험결과, 합성음의 스펙트럼 특성은 원음성의 포만트 정보를 대부분 가지고 있으며, 위상정보도 원음성의 위상을 잘 따라감을 확인하였다. 합성음의 음질평가를 위해서 informal한 MOS(Mean Opinion Score) 테스트를 시행하였으며, 2.0kbps의 HVXC와 비교하여 대체적으로 MOS 3.1 이상의 음질을 얻을 수 있었다.

통계적 스펙트럼 이퀄라이저를 이용한 저 비트율 음성부호화기의 명료도 향상 (Intelligibility Improvement of Low Bit-Rate Speech Coder Using Stochastic Spectral Equalizer)

  • 이정훈;윤덕규;최승호
    • 한국통신학회논문지
    • /
    • 제41권10호
    • /
    • pp.1183-1185
    • /
    • 2016
  • 디지털 음성통신에서의 저 비트율 음성부호화기는 음성발성모델의 파라미터를 사용하여 음성을 합성한다. 이 경우, 파라미터에 할당된 비트가 매우 한정적이기 때문에 합성된 음성의 스펙트럼이 크게 왜곡될 수 있으며, 이는 명료도 저하의 요인이 된다. 본 논문에서는 통계적 스펙트럼 이퀄라이저를 이용한 명료도 향상 기법을 제안한다. 본 기법은 각각의 음성부호화기별로 원음과 합성음의 스펙트럼 비율을 이용하여 통계적으로 가중치 벡터를 구하며, 이를 합성 음성에 적용한다. 객관적인 음성명료도 평가 실험을 통해, 제안한 기법이 기존의 방법보다 성능이 우수함을 확인하였다.

편도적출술이 구강 및 비강 음향스팩트럼에 미치는 영향 (Effects of Tonsillectomy on Oral and Nasal Spectral Outputs for Sustained Vowel)

  • 최동일;공일승;이은정;소상수;양윤수;홍기환
    • 대한후두음성언어의학회지
    • /
    • 제18권1호
    • /
    • pp.33-38
    • /
    • 2007
  • Background and Objectives: It has been suggested that tonsillectomy possibly causes changes of voice because the morphology of the vocal tract is altered. This may cause serious problems for professional voice users. Materials and Method: Subjects were 26 patients. The oral and nasal sound spectrum of oral vowel /a/, /e/ and /i/ were measured before and after tonsillectomy. The formant frequencies and intensities for oral and nasal spectra were compared. The nasality and fundamental frequencies for oral vowel were measured. Results: The first formant frequencies for oral spectra of all vowels were not changed after surgery, but the second formant frequencies were increased significantly after surgery in the vowel /e/ and /i/. The first and second formant intensities for oral spectra were increased significantly after surgery in the all vowels. The first and second formant frequencies for nasal spectra of all vowels were not changed after surgery, but their intensities for nasal spectra were increased after surgery. The nasalities for oral vowel were not changed after surgery. Conclusion : Tonsillectomy appeared to change the spectral features of oral and nasal components of oral vowel, especially spectral intensities.

  • PDF

주파수 와핑을 이용한 감정에 강인한 음성 인식 학습 방법 (A Training Method for Emotionally Robust Speech Recognition using Frequency Warping)

  • 김원구
    • 한국지능시스템학회논문지
    • /
    • 제20권4호
    • /
    • pp.528-533
    • /
    • 2010
  • 본 논문에서는 인간의 감정 변화의 영향을 적게 받는 음성 인식 시스템의 학습 방법에 관한 연구를 수행하였다. 이를 위하여 우선 다양한 감정이 포함된 음성 데이터베이스를 사용하여 감정 변화가 음성 신호와 음성 인식 시스템의 성능에 미치는 영향에 관한 연구를 수행하였다. 감정이 포함되지 않은 평상의 음성으로 학습된 음성 인식 시스템에 감정이 포함된 인식 데이터가 입력되는 경우 감정에 따른 음성의 차이가 인식 시스템의 성능을 저하시킨다. 본 연구에서는 감정의 변화에 따라 화자의 성도 길이가 변화한다는 것과 이러한 변화는 음성 인식 시스템의 성능을 저하시키는 원인 중의 하나임을 관찰하였다. 본 연구에서는 이러한 음성의 변화를 포함하는 학습 방법을 제안하여 감정 변화에 강인한 음성 인식 시스템을 개발하였다. HMM을 사용한 단독음 인식 실험에서 제안된 학습 방법을 사용하면 감정 데이터의 오차가 기존 방법보다 28.4% 감소되었다.

개선된 선형예측 잔여를 이용한 음성의 잔향음 제거 (Speech Dereverberation using Improved Linear Prediction Residual)

  • 박찬섭;김기만;강석엽
    • 한국정보통신학회논문지
    • /
    • 제11권10호
    • /
    • pp.1845-1851
    • /
    • 2007
  • 배경 잡음과 실내 잔향음은 음성 인식 시스템 성능 저하의 주요 이유이다. 많은 알고리즘이 음성의 잔향음 제거를 위해 개발되었다. 이 논문에서는 실내 환경에서 수정된 선형 예측 잔여(Linear Prediction Residual)를 이용하여 음질 개선을 위한 잔향음 제거 방법을 제안한다. 제안된 잔향음 제거 방법은 음성에서 성문 경계의 순간에 발생한 성도(聲道)시스템의 중요한 여기에 기반한다. 본 논문에서 제안한 방법은 3개의 센서로부터 수집한 반향신호로 각 센서에서의 시간지연 정보를 사용한다. 새로운 선형 예측 잔여신호는 선형 예측 잔여의 가중치와 힐버트 변환으로 얻은, 개선된 선형 예측 잔여 조합을 사용한다. 코히런트하게 더해진 힐버트 포락선의 특징은 잡음과 반사로 인한 큰 진폭 피크를 가지는 것이다. 깨끗한 음성의 잔여는 개선된 음성을 얻는 시변전극 필터를 일으키는데 사용된다. 본 논문에서는 반향 환경에서 성능 분석을 위해 제안된 알고리즘의 시뮬레이션을 수행하였다. 제안된 알고리즘은 실내 잔향환경에서 기존의 알고리즘에 비해 반사된 음성의 품질 향상의 결과를 보였다.

Harmonics(배음)와 Formant Bandwidth(포먼트 폭)를 이용한 음성특성(音聲特性)과 사상체질간(四象體質間)의 상관성(相關性) 연구(硏究) (A Study on the Correlation Between Sasang Constitution and Sound Characteristics Used Harmonics and Formant Bandwidth)

  • 박성진;김달래
    • 사상체질의학회지
    • /
    • 제16권1호
    • /
    • pp.61-73
    • /
    • 2004
  • This study was prepared to investigate the correlation between Sasang constitutional groups and voice characteristics using voice analysis system(in this study, CSL). I focused on the voice characteristics in terms of harmonics, Formant frequency and Formant Bandwidth. The subjects were 71 males. I classified them into three groups, that is Soeumin group, Soyangin group and Taeumin group. The classification method of Constitution used two ways, QSCCII(Questionnarie for the Sasang Constitution Classification II) and Interview with a specialist in Sasang Constitution. So 71 people were categorized into 31 Soeumin(people), 18 Soyangin(people) and 22 Taeumin(people). Pitch is approximately similar to the fundamental frequency(F0) in voices. Shimmer in dB gives an evaluation of the period-to-period variability of the peak-to-peak amplitude within the analyzed voice sample. FFT(Fast Fourier Transform) method in CSL can display sampled voices into harmonics. H1 is the first peak and h2 is the second peak in the harmonics. The amplitude difference of h1 and h2(h1-h2) can be explained as the speaker's phonation type, And Formant frequency and bandwidth can be explained as the speaker's vocal tract. So I checked the harmonics and Formant frequency and Bandwidth as the voice parameters. First I have captured /e/ voices from all subjects using microphone. And then I analyzed /e/ voices with CSL. Power Spectrum and Formant History is the menu in the CSL which can display harmonics and Formant frequency and bandwidth. The results about the correlation between Sasang Constitutional Groups and voice parameters are as follows; 1. There is no significant amplitude difference of harmonics(h1-h2) among three groups. 2. There is the significant difference between Soeumin Group and Soyangin Group in Formant Frequency 1 and Formant Bandwidth 1(p<0.05). Any other parameters have no significance. I assume that Soyangin Group has clearer and brighter voice than Soeumin Group according to the Formant Bandwidth difference. And I think its result has coincidence with the context of "Dongyi Suse Bowon" and "Sasangimhejinam".

  • PDF