• Title/Summary/Keyword: 음성분류

Search Result 627, Processing Time 0.027 seconds

Gender Classification of Speakers Using SVM

  • Han, Sun-Hee;Cho, Kyu-Cheol
    • Journal of the Korea Society of Computer and Information
    • /
    • v.27 no.10
    • /
    • pp.59-66
    • /
    • 2022
  • This research conducted a study classifying gender of speakers by analyzing feature vectors extracted from the voice data. The study provides convenience in automatically recognizing gender of customers without manual classification process when they request any service via voice such as phone call. Furthermore, it is significant that this study can analyze frequently requested services for each gender after gender classification using a learning model and offer customized recommendation services according to the analysis. Based on the voice data of males and females excluding blank spaces, the study extracts feature vectors from each data using MFCC(Mel Frequency Cepstral Coefficient) and utilizes SVM(Support Vector Machine) models to conduct machine learning. As a result of gender classification of voice data using a learning model, the gender recognition rate was 94%.

Voice Personality Transformation Using an Optimum Classification and Transformation (최적 분류 변환을 이용한 음성 개성 변환)

  • 이기승
    • The Journal of the Acoustical Society of Korea
    • /
    • v.23 no.5
    • /
    • pp.400-409
    • /
    • 2004
  • In this paper. a voice personality transformation method is proposed. which makes one person's voice sound like another person's voice. To transform the voice personality. vocal tract transfer function is used as a transformation parameter. Comparing with previous methods. the proposed method makes transformed speech closer to target speaker's voice in both subjective and objective points of view. Conversion between vocal tract transfer functions is implemented by classification of entire vector space followed by linear transformation for each cluster. LPC cepstrum is used as a feature parameter. A joint classification and transformation method is proposed, where optimum clusters and transformation matrices are simultaneously estimated in the sense of a minimum mean square error criterion. To evaluate the performance of the proposed method. transformation rules are generated from 150 sentences uttered by three male and on female speakers. These rules are then applied to another 150 sentences uttered by the same speakers. and objective evaluation and subjective listening tests are performed.

An Improved Speech Absence Probability Estimation based on Environmental Noise Classification (환경잡음분류 기반의 향상된 음성부재확률 추정)

  • Son, Young-Ho;Park, Yun-Sik;An, Hong-Sub;Lee, Sang-Min
    • The Journal of the Acoustical Society of Korea
    • /
    • v.30 no.7
    • /
    • pp.383-389
    • /
    • 2011
  • In this paper, we propose a improved speech absence probability estimation algorithm by applying environmental noise classification for speech enhancement. The previous speech absence probability required to seek a priori probability of speech absence was derived by applying microphone input signal and the noise signal based on the estimated value of a posteriori SNR threshold. In this paper, the proposed algorithm estimates the speech absence probability using noise classification algorithm which is based on Gaussian mixture model in order to apply the optimal parameter each noise types, unlike the conventional fixed threshold and smoothing parameter. Performance of the proposed enhancement algorithm is evaluated by ITU-T P.862 PESQ (perceptual evaluation of speech quality) and composite measure under various noise environments. It is verified that the proposed algorithm yields better results compared to the conventional speech absence probability estimation algorithm.

A Neural Networks Approach to Voiced-Unvoice-Silence Classification Incorporating Amplitude Distribution (음성 진폭분포로 신경망을 구동한 유-무-묵음 분류)

  • 이인섭;최정아;배명진;안수길
    • The Journal of the Acoustical Society of Korea
    • /
    • v.9 no.6
    • /
    • pp.15-21
    • /
    • 1990
  • 유-무-묵음 분류 과정은 음성분석시에 아주 중요한 문제중의 하나이다. 음성에너지, ZCR, 자기 상관계수, LPC 계수, 예측에러 에너지등을 퍼래미터로 사용하여 지금까지 많은 분류기법이 제안되어져 왔다. 이런기법들은 기본적으로 퍼래미터를 추출해야 하고, 이 때문에 많은 계산량이 요구되고, 이들 퍼 래미터는 음성 본래의 정보들의 대부분을 상실하게 된다. 이 때문에 각 프레임의 진폭분포를 사용하는 새로운 앨고리즘을 제안하였다. 첫째로 V-U-S 영역은 개별 진폭분포형태를 가지기 때문에 주어진 프레 임에서 진폭분포를 구한다. 그런 다음에는 신경망을 통해 분류를 하게 된다. 신경망은 문덕값을 별도로 선정할 필요없고, 배경잡음에 강력하며, 또한 실시간 처리에 적합하다.

  • PDF

다양한 특징 파라미터와 선형변별분석을 이용한 후두암의 선별검사

  • 이원범;왕수건;권순복;전경명;전계록;김수미;김형순;양병곤;조철우
    • Proceedings of the KSLP Conference
    • /
    • 2003.11a
    • /
    • pp.149-149
    • /
    • 2003
  • 후두질환 감별용 음성 분석방법인 multi-dimensional voice program (MDVP)으로 분석이 불가능할 정도로 주기성이 크게 훼손된 후두암 말기의 음성 에 대하여 효과적인 감별을 하기 위하여, 몇 가지 켑스트럼(cepstrum) 파라미터를 비롯하여, 주기성 및 그 동요 정도, 영교차율(zero-crossing rate, ZCR), 스텍트럼 중심 (spectral centroid, SC) 등 다양한 특징 파라미터를 이용한 감별 실험을 수행하였다. 후두암 감별 실험을 위해 부산대학교 병원 이비인후과에서 수집한 정상 남자 음성 데이터 50개, 양성 후두질환 남자 음성 데이터 50개 및 남성 후두암 환자 음성 데이터 105개를 사용하였다. 음성 데이터는 단모음 /아/ 발성만을 사용하였고, 정상인과 양성후두질환 환자, 그리고 MDVP 분석이 가능한 후두암 환자 음성 데이터 중 2/3는 학습에, 나머지 113은 감별실험에 사용하였다. 후두암 감별을 위한 분류기로는 Gaussian Mixture Model(GMM) 분류기를 사용하였으며, 이때 모델의 복잡도를 표현하는 mixture 수는 1에서 10까지 가변시키면서 가장 좋은 성능을 나타내는 값으로 결정하였다. 또한 모든 실험에서 켑스트럼 분석의 차수는 동일하게 12차로 고정시켰다. (중략)

  • PDF

Speech emotion recognition based on CNN - LSTM Model (CNN - LSTM 모델 기반 음성 감정인식)

  • Yoon, SangHyeuk;Jeon, Dayun;Park, Neungsoo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.939-941
    • /
    • 2021
  • 사람은 표정, 음성, 말 등을 통해 감정을 표출한다. 본 논문에서는 화자의 음성데이터만을 사용하여 감정을 분류하는 방법을 제안한다. 멜 스펙트로그램(Mel-Spectrogram)을 이용하여 음성데이터를 시간에 따른 주파수 영역으로 변화한다. 멜 스펙트로그램으로 변환된 데이터를 CNN을 이용하여 특징 벡터화한 후 Bi-Directional LSTM을 이용하여 화자의 발화 시간 동안 변화되는 감정을 분석한다. 마지막으로 완전 연결 네트워크를 통해 전체 감정을 분류한다. 감정은 Anger, Excitement, Fear, Happiness, Sadness, Neutral로, 총 6가지로 분류하였으며 데이터베이스로는 상명대 연구팀에서 구축한 한국어 음성 감정 데이터베이스를 사용하였다. 실험 결과 논문에서 제안한 CNN-LSTM 모델의 정확도는 88.89%로 측정되었다.

Speech/Music Signal Classification Based on Spectrum Flux and MFCC For Audio Coder (오디오 부호화기를 위한 스펙트럼 변화 및 MFCC 기반 음성/음악 신호 분류)

  • Sangkil Lee;In-Sung Lee
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.16 no.5
    • /
    • pp.239-246
    • /
    • 2023
  • In this paper, we propose an open-loop algorithm to classify speech and music signals using the spectral flux parameters and Mel Frequency Cepstral Coefficients(MFCC) parameters for the audio coder. To increase responsiveness, the MFCC was used as a short-term feature parameter and spectral fluxes were used as a long-term feature parameters to improve accuracy. The overall voice/music signal classification decision is made by combining the short-term classification method and the long-term classification method. The Gaussian Mixed Model (GMM) was used for pattern recognition and the optimal GMM parameters were extracted using the Expectation Maximization (EM) algorithm. The proposed long-term and short-term combined speech/music signal classification method showed an average classification error rate of 1.5% on various audio sound sources, and improved the classification error rate by 0.9% compared to the short-term single classification method and 0.6% compared to the long-term single classification method. The proposed speech/music signal classification method was able to improve the classification error rate performance by 9.1% in percussion music signals with attacks and 5.8% in voice signals compared to the Unified Speech Audio Coding (USAC) audio classification method.

An EMG study of the feature 'tensity' with reference to English and Korean (경음-연음 분류법에 관한 실험음성학적 연구)

  • 김대원
    • Proceedings of the KSLP Conference
    • /
    • 1993.12a
    • /
    • pp.11-11
    • /
    • 1993
  • 현존하는 문헌에 의하면, 입술근육의 수축과 운동시간의 측면에서 영어의 자음을 경음-연음분류를 할 수 있는 음성학적 실증이 없는 것으로 나타나고 있다. 본 연구는 근육운동 측정기를 사용하여 영어와 한국어의 양순 정지음의 발화시 근육(orbicularis oris superior muscle)운동을 측정하였다. 영어의 강세음절에서는 기존의 주장과 같이 /p/와 /b/의 발화시 근육운동에 차이가 없거나 일관성이 없는 것으로 나타났으나, 무강세음절에는 기존 이론과 달리 근육운동수축에 있어서 /p/가 /b/에 비하여 통계학적으로 훨씬 큰 것으로 나타났다.(중략)

  • PDF

A post processing of continuous speech recognition using N-gram words and sentence patterns (문형정보와 N-gram 단어정보를 이용한 연속음성인식 후처리)

  • 엄한용;황도삼
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.324-326
    • /
    • 2000
  • 본 논문에서는 항공편 예약이라는 제한 영역에서의 연속음성인식 시스템을 위한 후처리 본 논문에서는 항공편 예약이라는 제한 영역에서의 연속음성인식 시스템을 위한 후처리 방안을 제시한다. 제안하는 후처리 방안은 200 문장의 항공편 예약 텍스트 데이터를 이용하여 문형 정보를 추출한 뒤 특정 문형별로 분류하였다. 분류된 문형과 음성인식 후의 문장을 비교하여 가장 유사한 문형을 추론한다. 추론한 특정 문형에서 나올 수 있는 형태소를 형태소들간의 N-gram 정보가 수록된 데이터베이스를 이용하여 형태소를 수정하고 보완한 결과를 최종 문장으로 출력한다.

  • PDF

Recognition Performance Improvement for Noisy-speech by Parallel Model Compensation Adaptation Using Frequency-variant added with ML (최대우도를 부가한 주파수 변이 PMC 방법의 잡음 음성 인식 성능개선)

  • Choi, Sook-Nam;Chung, Hyun-Yeol
    • Journal of Korea Multimedia Society
    • /
    • v.16 no.8
    • /
    • pp.905-913
    • /
    • 2013
  • The Parallel Model Compensation Using Frequency-variant: FV-PMC for noise-robust speech recognition is a method to classify the noises, which are expected to be intermixed with input speech when recognized, into several groups of noises by setting average frequency variant as a threshold value; and to recognize the noises depending on the classified groups. This demonstrates the excellent performance considering noisy speech categorized as good using the standard threshold value. However, it also holds a problem to decrease the average speech recognition rate with regard to unclassified noisy speech, for it conducts the process of speech recognition, combined with noiseless model as in the existing PMC. To solve this problem, this paper suggests a enhanced method of recognition to prevent the unclassified through improving the extent of rating scales with use of maximum likelihood so that the noise groups, including input noisy speech, can be classified into more specific groups, which leads to improvement of the recognition rate. The findings from recognition experiments using Aurora 2.0 database showed the improved results compared with those from the method of the previous FV-PMC.