• 제목/요약/키워드: Voice training method

검색결과 52건 처리시간 0.024초

Performance of GMM and ANN as a Classifier for Pathological Voice

  • Wang, Jianglin;Jo, Cheol-Woo
    • 음성과학
    • /
    • 제14권1호
    • /
    • pp.151-162
    • /
    • 2007
  • This study focuses on the classification of pathological voice using GMM (Gaussian Mixture Model) and compares the results to the previous work which was done by ANN (Artificial Neural Network). Speech data from normal people and patients were collected, then diagnosed and classified into two different categories. Six characteristic parameters (Jitter, Shimmer, NHR, SPI, APQ and RAP) were chosen. Then the classification method based on the artificial neural network and Gaussian mixture method was employed to discriminate the data into normal and pathological speech. The GMM method attained 98.4% average correct classification rate with training data and 95.2% average correct classification rate with test data. The different mixture number (3 to 15) of GMM was used in order to obtain an optimal condition for classification. We also compared the average classification rate based on GMM, ANN and HMM. The proper number of mixtures on Gaussian model needs to be investigated in our future work.

  • PDF

기능적 실성증에 대한 음성치료의 효과 분석: 기초 연구 (The Effect of Voice Therapy for the Treatment of Functional Aphonia: A Preliminary Study)

  • 김노을;김준석;오재환;김동영;우주현
    • 대한후두음성언어의학회지
    • /
    • 제32권2호
    • /
    • pp.75-80
    • /
    • 2021
  • Background and Objectives Functional aphonia refers to in which by presenting whispering voice and almost producing very high-pitched tensed voices are produced. Voice therapy is the most effective treatment, but there is a lack of consensus for application of voice therapy. The purpose of this study was to examine the vocal characteristics of functional aphonia and the effect of voice therapy applied accordingly. Materials and Method From October 2019 to December 2020, 11 patients with functional aphonia were treated using voice therapy which was processing three stages such as vocal hygiene, trial therapy, and behavioral therapy. Of these, 7 patients who completed the voice evaluation before and after voice therapy was enrolled in this study. By retrospective chart review, clinical information such as sex, age, symptoms, duration, social and medical history, process of voice therapy, subjective and objective findings were analyzed. Voice parameters before and after voice therapy were compared. Results In GRBAS study, grade, rough, and asthenic, and in Consensus Auditory-Perceptual Evaluation of Voice, overall severity, roughness, pitch, and loudness were significantly improved after voice therapy. In Voice handicap index, all of the scores of total and sub-categories were significantly decreased. In objective voice analysis, jitter, cepstral peak prominence, and maximum phonation time were significantly improved. Conclusion The voice therapy was effective for the treatment of functional aphonia by restoring patient's vocalization and improving voice quality, pitch and loudness.

음성 에너지 분포 처리와 에너지 파라미터를 융합한 음성 인식 성능 향상 (Voice Recognition Performance Improvement using a convergence of Voice Energy Distribution Process and Parameter)

  • 오상엽
    • 디지털융복합연구
    • /
    • 제13권10호
    • /
    • pp.313-318
    • /
    • 2015
  • 전통적인 음성 향상 방법은 잘못된 잡음의 추정에 따라 남아있는 잡음이 발생하여 음성 스펙트럼을 왜곡하거나 음성 프레임을 찾지 못하여 음성 인식 성능을 저하시키는 문제가 발생된다. 본 논문에서는 음성 에너지 분포 처리와 음성 에너지 파라미터를 융합한 음성 검출 방법을 제안하였다. 제안한 방법은 음성 에너지를 최대화시켜 잡음의 영향을 적게 받는 특성을 이용하였다. 또한, 음성 신호의 특징 파라미터 중에서 작은 값을 가지는 로그에너지 특징의 구간에서는 큰 에너지를 가지는 구간에 비해 상대적으로 로그에너지 값을 더 많이 키워서 잡음이 포함한 음성신호의 로그에너지 특징의 크기와 비슷하게 하여 훈련과 인식 환경의 불일치를 융합으로 인해 줄여준다. 인식 실험 결과 기존 방법에 비해 향상된 인식 성능을 확인할 수 있었으며, car 잡음 환경의 음성 구간 적중률은 낮은 SNR구간인 0dB과 5dB에서는 97.1%와 97.3%의 정확도를 보였으며, 높은 SNR구간인 10dB와 15dB에서는 98.3%, 98.6%의 정확도를 보였다.

입술 트릴의 방법에 따른 음향학적 및 전기성문파형검사 측정치 비교 (A comparison of acoustic & electroglottographic measures according to voiced lip trill methods)

  • 이승진;이광용;임재열;최홍식
    • 말소리와 음성과학
    • /
    • 제9권4호
    • /
    • pp.107-114
    • /
    • 2017
  • The purpose of the current study was to compare selected acoustic and electroglottographic measures (closed quotient, pitch, and loudness) among vowel phonation, traditional voiced lip trill ($VLT_T$), modified voiced lip trill methods ($VLT_M$). A total of 21 participants without voice complaints produced 4-second long samples using each phonation method. Results indicated that mean closed quotient of $VLT_M$ was higher than that of vowel phonation and $VLT_T$, while its range and standard deviation measures were higher than those of vowel phonation. Mean, range, standard deviation, maximum of pitch measures of $VLT_M$ were higher than those of vowel phonation. Lastly, mean and maximum loudness of the $VLT_M$ were higher than $VLT_T$. In conclusion, the current data indicate the possibility to use the $VLT_M$ as a training method for singing or a strategy to facilitate generalization effect of voice therapy. Current results also reflect the necessity for further study pertaining to the long-term effect of the $VLT_M$ training method. Clinical implications are discussed.

Kernel PCA를 이용한 GMM 기반의 음성변환 (GMM Based Voice Conversion Using Kernel PCA)

  • 한준희;배재현;오영환
    • 대한음성학회지:말소리
    • /
    • 제67호
    • /
    • pp.167-180
    • /
    • 2008
  • This paper describes a novel spectral envelope conversion method based on Gaussian mixture model (GMM). The core of this paper is rearranging source feature vectors in input space to the transformed feature vectors in feature space for the better modeling of GMM of source and target features. The quality of statistical modeling is dependent on the distribution and the dimension of data. The proposed method transforms both of the distribution and dimension of data and gives us the chance to model the same data with different configuration. Because the converted feature vectors should be on the input space, only source feature vectors are rearranged in the feature space and target feature vectors remain unchanged for the joint pdf of source and target features using KPCA. The experimental result shows that the proposed method outperforms the conventional GMM-based conversion method in various training environment.

  • PDF

화자 적응을 이용한 대용량 음성 다이얼링 (Large Scale Voice Dialling using Speaker Adaptation)

  • 김원구
    • 제어로봇시스템학회논문지
    • /
    • 제16권4호
    • /
    • pp.335-338
    • /
    • 2010
  • A new method that improves the performance of large scale voice dialling system is presented using speaker adaptation. Since SI (Speaker Independent) based speech recognition system with phoneme HMM uses only the phoneme string of the input sentence, the storage space could be reduced greatly. However, the performance of the system is worse than that of the speaker dependent system due to the mismatch between the input utterance and the SI models. A new method that estimates the phonetic string and adaptation vectors iteratively is presented to reduce the mismatch between the training utterances and a set of SI models using speaker adaptation techniques. For speaker adaptation the stochastic matching methods are used to estimate the adaptation vectors. The experiments performed over actual telephone line shows that proposed method shows better performance as compared to the conventional method. with the SI phonetic recognizer.

실시간 변별적 가중치 학습에 기반한 음성 검출기 (Voice Activity Detection Based on Real-Time Discriminative Weight Training)

  • 강상익;조규행;장준혁
    • 대한전자공학회논문지SP
    • /
    • 제45권4호
    • /
    • pp.100-106
    • /
    • 2008
  • 본 논문에서는 다양한 잡음 환경에서 음성의 통계적 모델에 기반한 음성 검출기의 성능향상을 위해 PSFM (Power Spectral Flatness Measure)을 이용하여 실시간으로 변별적 가중치 학습 (Discriminative Weight Training) 기반의 최적화된 우도비 테스트 (Likelihood Ratio Test, LRT)를 제안한다. 먼저, 기존의 통계모델기반의 음성 검출기를 분석하고, 이를 기반으로 MCE (Minimum Classification Error)방법을 도입하여 도출한 각 주파수 채널별 가중치를 PSFM 값에 기반하여 실시간 매 프레임마다 다른 가중치를 적용한 우도비 기반의 음성 검출 결정법을 제시한다. 제안된 알고리즘은 다양한 잡음 환경에서 기존에 제시된 음성 검출기와 비교하였으며, 우수한 성능을 보인다.

k-clustering 부공간 기법과 판별 공통벡터를 이용한 고립단어 인식 (Isolated Word Recognition Using k-clustering Subspace Method and Discriminant Common Vector)

  • 남명우
    • 대한전자공학회논문지TE
    • /
    • 제42권1호
    • /
    • pp.13-20
    • /
    • 2005
  • 본 논문에서는 M. Bilginer 등이 제안한 CVEM(common vector extraction method)을 이용하여 한국어 화자독립 고립단어 인식실험을 수행하였다. CVEM은 학습용 음성신호들로부터 공통된 특징의 추출이 비교적 간단하고, 많은 계산 량을 필요로 하지 않을 뿐만 아니라 높은 인식 결과를 보여주는 알고리즘이다. 그러나 학습 음성의 개수를 일정 한도 이상으로 늘릴 수 없고, 추출된 공통벡터들 간의 구별정보(discriminant information)를 가지고 있지 않다는 문제점을 가지고 있다. 임의의 음성군으로부터 최적의 공통벡터를 추출하기 위해서는 다양한 음성들을 학습에 사용해야만 하는데 CVEM은 학습용 음성 개수에 제한이 있으므로 지속적인 인식률 향상을 기대하기 어렵다. 또한 공통벡터들 간의 구별정보 부재는 단어 결정에 있어서 치명적인 오류의 원인이 될 수 있다. 본 논문에서는 CVEM이 가지고 있는 이러한 문제점들을 보완하면서 인식률을 향상시킬 수 있는 새로운 방법인 KSCM(k-clustering subspace method)과 DCVEM(discriminant common vector extraction method)을 제안하였고 이 방법을 사용하여 고립단어를 인식하였다. 그리고 제안한 방법들의 우수성을 입증하기 위해 ETRI에서 제작한 음성 데이터베이스를 사용, 다양한 방법으로 실험을 수행하였다. 실험 결과 기존 방법의 문제점들을 모두 극복할 수 있었을 뿐 아니라 기존에 비해 계산량의 큰 증가 없이 향상된 결과를 얻을 수 있었다.

성악가를 위한 VAT 음성치료 개발 및 적용 사례연구 (A Case Study on Vocal Aerobic Treatment Voice Therapy Development and Application for Classical Singers)

  • 유재연;이하나
    • 재활복지
    • /
    • 제22권1호
    • /
    • pp.157-168
    • /
    • 2018
  • 본 연구는 반폐쇄성도훈련에 기반을 둔 성대에어로빅치료(Vocal Aerobic Treatment: VAT)가 소프라노 성악가 음성개선에 미치는 영향을 알아보고자 하였다. 연구대상은 성대결절로 음성문제를 호소하는 소프라노 성악가 1명으로 연구를 진행하였다. 연구방법은 치료 전 후 음향학적평가와 주관적 음성평가를 실시하여 측정값을 비교하였으며, 성대에어로빅치료는 주 2회 총 32회기동안 진행하였다. 음향학적 평가는 MDVP (multi-dimensional voice program)와 VRP (voice range profile)를 사용하여 음도, 음질, 음역을 평가하였으며, 주관적 음성평가는 SVHI (singing voice handicap index)로 주관적인 음성만족도를 평가하였다. 음도 평가 결과 치료 후 소프라노 가수에 적절한 기본주파수(Fo)를 유지하였다. 음질평가 결과 주파수변동률(Jitter), 진폭변동률(Shimmer), 배음대소음비(NHR) 수치가 치료 전보다 감소하였다. 음역평가결과 음역의 범위가 넓어졌으며 반음의 개수가 30개에서 35개로 증가하였다. 주관적 음성평가는 설문 보고 후 획득한 총 점수를 문항수로 나눈 결과 3.6점에서 0.6점으로 감소하였으며, 본인이 느끼는 음성문제의 정도가 경미하다고 보고하였다. 이러한 결과를 정리해보면 성대에어로빅치료는 성악가 음성개선에 효과적인 것으로 사료된다. 그러나 본 연구는 소프라노 성악가 1명을 대상으로 한 성대에어로빅치료의 치료 효과에 관한 사례연구로 향후 더 많은 성악가를 대상으로 효과에 대한 연구가 이루어져야 할 것이다. 또한 성악가뿐만 아니라 다양한 직업적 음성사용자를 위한 음성관리 및 음성치료프로그램에 관한 후속 연구가 필요할 것이다.

커널 스펙트럼 모델 backfitting 기반의 로그 스펙트럼 진폭 추정을 적용한 배경음과 보컬음 분리 (Music and Voice Separation Using Log-Spectral Amplitude Estimator Based on Kernel Spectrogram Models Backfitting)

  • 이준용;김형국
    • 한국음향학회지
    • /
    • 제34권3호
    • /
    • pp.227-233
    • /
    • 2015
  • 본 논문은 커널 스펙트럼 모델 backfitting 기반의 로그 스펙트럼 진폭 추정부를 적용한 배경음과 보컬음 분리를 제안한다. 기존의 커널 스펙트럼 모델 기반의 배경음과 보컬음 분리는 추출하고자하는 객체의 모델을 기반으로 위너형태의 평균 제곱의 오차의 이득값을 학습함으로써 배경음과 보컬음을 분리하는 기술이다. 본 논문은 기존의 커널 스펙트럴 모델 기반의 배경음과 보컬음 분리 방식에서 위너형태의 이득값 대신 로그 스펙트럼 진폭 추정을 적용하여 기존 방식 보다 명료한 배경음과 보컬음을 추출한다. 실험결과는 본 논문에서 제안한 방식이 기존의 방식들보다 더 우수하다는 것을 보인다.