• 제목/요약/키워드: MFCC (Mel Frequency Cepstral Coefficient)

검색결과 54건 처리시간 0.022초

인지적 청각 특성을 이용한 고립 단어 전화 음성 인식 (Isolated-Word Speech Recognition in Telephone Environment Using Perceptual Auditory Characteristic)

  • 최형기;박기영;김종교
    • 대한전자공학회논문지TE
    • /
    • 제39권2호
    • /
    • pp.60-65
    • /
    • 2002
  • 본 논문에서는, 음성 인식률 향상을 위하여 청각 특성을 기반으로 한 GFCC(gammatone filter frequency cepstrum coefficients) 파라미터를 음성 특징 파라미터로 제안한다. 그리고 전화망을 통해 얻은 고립단어를 대상으로 인식실험을 수행하였다. 성능비교를 위하여 MFCC(mel frequency cepstrum coefficients)와 LPCC(linear predictive cepstrum coefficient)를 사용하여 인식 실험을 하였다. 또한, 각 파라미터에 대하여 전화망의 채널 왜곡 보상기법으로 CMS(cepstral mean subtraction)를 도입한 방법과 적용시키지 않은 방법으로 인식실험을 하였다. 실험 결과로서, GFCC를 사용하여 인식을 수행한 방법이 다른 파라미터를 사용한 방법에 비해 향상된 결과를 얻었다.

최대 빈도모델 탐색을 이용한 동물소리 인식용 소리모델생성 (Sound Model Generation using Most Frequent Model Search for Recognizing Animal Vocalization)

  • 고유정;김윤중
    • 한국정보전자통신기술학회논문지
    • /
    • 제10권1호
    • /
    • pp.85-94
    • /
    • 2017
  • 본 논문에서는 동물소리 인식시스템을 위하여 최대 빈도모델 탐색 알고리즘을 고안하고 이를 이용한 소리모델을 생성하는 방법을 제안하였다. 소리모델 생성 방법은 동물종의 소리 데이터로부터 학습과정, 비터비 탐색과정 및 최대 빈도모델 탐색과정을 반복하면서 HMM(Hidden Makcov Model)모델의 구조(상태의 수와 GMM의 수)를 탐색하여 최적의 인식률을 갖는 모델집합이 생성하는 방법이다. 최대 빈도모델 탐색 알고리즘은 입력 소리 데이터를 비터비(Viterbi) 알고리즘으로 탐색하여 모델리스트를 생성하고 이 리스트 중에서 최대 빈도수의 모델을 탐색하여 최종 인식결과로 결정하는 방법이다. 알고리즘에서 소리특징으로 MFCC(Mel Frequency Cepstral Coefficient), 모델형식으로 HMM을 이용하고 C# 프로그래밍언어로 구현 하였다. 알고리즘의 성능을 평가하기 위하여 27종의 동물소리를 선정하고 실험을 하였으며 27개의 HMM 모델집합이 97.29 퍼센트의 인식률로 생성됨을 확인하였다.

SVM에 기반한 음악 장르 분류를 위한 특징벡터 정규화 방법 (Feature-Vector Normalization for SVM-based Music Genre Classification)

  • 임신철;장세진;이석필;김무영
    • 전자공학회논문지SC
    • /
    • 제48권5호
    • /
    • pp.31-36
    • /
    • 2011
  • 본 논문에서는 Mel-Frequency Cepstral Coefficient (MFCC), Decorrelated Filter Bank (DFB), Octave-based Spectral Contrast (OSC), Zero-Crossing Rate (ZCR), 그리고 Spectral Contract/Roll-Off를 복합 특징벡터로 결합하여 Support Vector Machine (SVM)을 이용한 음악 장르 분류 시스템을 설계하였다. 기존 방식에서는 전체 학습 데이터에 대한 특징벡터를 정규화를 한 후 SVM 모델을 생성하여 분류를 시행하였다. 본 논문에서는 비교 대상이 되는 한 쌍의 클래스에 대해서 One-Against-One (OAO) SVM으로 모델을 생성할 때 선택된 두 클래스의 특징벡터에 대해서만 정규화를 시행하는 방식을 제안한다. 기존 정규화 방식을 이용하면 단일 특징벡터로 OSC를 사용할 경우에는 60.8%, 복합 특징벡터를 모두 이용하는 경우에는 77.4%의 인식율을 얻을 수 있었다. 또한, 제안된 정규화 방식을 이용하면 OSC와 복합 특징벡터에 대해서 각각 8.2%와 3.3%의 추가적인 성능 향상을 얻을 수 있었다.

다중 옥타브 밴드 기반 음악 장르 분류 시스템 (Musical Genre Classification System based on Multiple-Octave Bands)

  • 변가람;김무영
    • 전자공학회논문지
    • /
    • 제50권12호
    • /
    • pp.238-244
    • /
    • 2013
  • 음악 장르 분류를 위해서 다양한 종류의 특징 벡터들이 이용되고 있다. 대표적인 short-term 특징 벡터들로는 mel-frequency cepstral coefficient (MFCC), decorrelated filter bank (DFB), octave-based spectral contrast (OSC) 등이 있으며, 이들의 long-term variation이 함께 이용된다. 본 논문에서는 OSC 특징을 추출하는데 있어서 하나의 옥타브 밴드 뿐만 아니라 다중 옥타브 밴드를 동시에 이용하여 옥타브 밴드 간 상관관계를 함께 반영할 수 있도록 하였다. 2012년도 music information retrieval evaluation exchange (MIREX) 평가회의 mixed 장르 분류 분야에서 4위를 한 알고리즘에 다중 옥타브 밴드를 이용한 결과, GTZAN과 Ballroom 데이터베이스에 대해서 각각 0.40% 포인트와 3.15% 포인트의 성능 향상을 얻을 수 있었다.

음악 특징점간의 유사도 측정을 이용한 동일음원 인식 방법 (Same music file recognition method by using similarity measurement among music feature data)

  • 성보경;정명범;고일주
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권3호
    • /
    • pp.99-106
    • /
    • 2008
  • 최근 다양한 분야에서(웹 포털, 유료 음원서비스 등) 디지털 음악의 검색이 사용되고 있다. 기존의 디지털 음악의 검색은 음악 데이터에 포함된 자체 메타 정보를 이용하여 이루어진다. 하지만 메타 정보가 다르게 작성되었거나 작성되지 않은 경우 정확한 검색은 어렵다. 요즘 이러한 문제의 보완 방안으로 음악자체를 이용하는 내용기반정보 검색 기법에 대한 연구가 이루어지고 있다. 본 논문에서는 음악의 파형에서 추출된 특징 정보간의 유사도 측정을 통하여 동일음원을 인식하는 방법에 대해 논하고자 한다. 디지털 음악의 특징 정보는 단순화시킨 MFCC (Mel Frequency Cepstral Coefficient)를 이용하여 음악의 파형으로부터 추출하였다. 디지털 음악간의 유사도는 Vision 및 Speech Recognition 분야에서 사용되던 DTW (Dynamic Time Warping) 기법을 활용하여 측정하였다. 제안된 동일 음원 인식 방법의 검증을 위한 같은 장르에서 무작위 추출된 1000곡에서 시행한 500번의 검색은 모두 성공했다. 검색에 사용된 500개의 디지털 오디오는 60개의 디지털음원을 압축방식과 비트율을 다르게 조합하여 만들었다. 실험의 결과로 DTW을 이용한 유사도 측정법이 동일음원을 인식할 수 있음을 증명하였다.

  • PDF

GMM을 이용한 MFCC로부터 복원된 음성의 개선 (Improvement of Speech Reconstructed from MFCC Using GMM)

  • 최원영;최무열;김형순
    • 대한음성학회지:말소리
    • /
    • 제53호
    • /
    • pp.129-141
    • /
    • 2005
  • The goal of this research is to improve the quality of reconstructed speech in the Distributed Speech Recognition (DSR) system. For the extended DSR, we estimate the variable Maximum Voiced Frequency (MVF) from Mel-Frequency Cepstral Coefficient (MFCC) based on Gaussian Mixture Model (GMM), to implement realistic harmonic plus noise model for the excitation signal. For the standard DSR, we also make the voiced/unvoiced decision from MFCC based on GMM because the pitch information is not available in that case. The perceptual test reveals that speech reconstructed by the proposed method is preferred to the one by the conventional methods.

  • PDF

부분 손상된 음성의 인식 향상을 위한 채널집중 MFCC 기법 (Channel-attentive MFCC for Improved Recognition of Partially Corrupted Speech)

  • 조훈영;지상문;오영환
    • 한국음향학회지
    • /
    • 제22권4호
    • /
    • pp.315-322
    • /
    • 2003
  • 본 논문에서는 주파수 영역의 일부가 상대적으로 심하게 손상된 음성에 대한 음성 인식기의 성능을 향상시키기 위해 채널집중 멜 켑스트럼 특징추출법을 제안한다. 이 방법은 기존멜 켑스트럼 특징추출의 필터뱅크분석 단계에서 각 채널의 신뢰도를 구하고, 신뢰도가 높은 주파수 영역이 음성인식에 보다 중요하게 사용되도록 멜 켑스트럼 추출 및 HMM의 출력확률 계산식에 채널 가중을 도입한다. TIDIGITS 데이터베이스에 음성의 일부 주파수를 손상시키는 다양한 주파수 선택 잡음을 가산하여 인식 실험을 수행한 결과, 제안한 방법은 덜 손상된 주파수영역의 음성 정보를 효과적으로 활용하며, 주파수선택 잡음에 대해 우수하다고 알려진 다중대역 음성인식에 비해 평균 11.2%더 높은 성능을 얻었다.

MFCC를 이용한 수중소음원의 식별 (Identification of Underwater Ambient Noise Sources Using MFCC)

  • 황도진;김재수
    • 한국해양공학회:학술대회논문집
    • /
    • 한국해양공학회 2006년 창립20주년기념 정기학술대회 및 국제워크샵
    • /
    • pp.307-310
    • /
    • 2006
  • Underwater ambient noise originating from the geophysical, biological, and man-made acoustic sources contains much information on the sources and the ocean environment affecting the performance of the sonar equipments. In this paper, a set of feature vectors of the ambient noises using MFCC is proposed and extracted to form a data base for the purpose of identifying the noise sources. The developed algorithm for the pattern recognition is applied to the observed ocean data, and the initial results are presented and discussed.

  • PDF

Speech Emotion Recognition with SVM, KNN and DSVM

  • Hadhami Aouani ;Yassine Ben Ayed
    • International Journal of Computer Science & Network Security
    • /
    • 제23권8호
    • /
    • pp.40-48
    • /
    • 2023
  • Speech Emotions recognition has become the active research theme in speech processing and in applications based on human-machine interaction. In this work, our system is a two-stage approach, namely feature extraction and classification engine. Firstly, two sets of feature are investigated which are: the first one is extracting only 13 Mel-frequency Cepstral Coefficient (MFCC) from emotional speech samples and the second one is applying features fusions between the three features: Zero Crossing Rate (ZCR), Teager Energy Operator (TEO), and Harmonic to Noise Rate (HNR) and MFCC features. Secondly, we use two types of classification techniques which are: the Support Vector Machines (SVM) and the k-Nearest Neighbor (k-NN) to show the performance between them. Besides that, we investigate the importance of the recent advances in machine learning including the deep kernel learning. A large set of experiments are conducted on Surrey Audio-Visual Expressed Emotion (SAVEE) dataset for seven emotions. The results of our experiments showed given good accuracy compared with the previous studies.

Parts-Based Feature Extraction of Spectrum of Speech Signal Using Non-Negative Matrix Factorization

  • Park, Jeong-Won;Kim, Chang-Keun;Lee, Kwang-Seok;Koh, Si-Young;Hur, Kang-In
    • Journal of information and communication convergence engineering
    • /
    • 제1권4호
    • /
    • pp.209-212
    • /
    • 2003
  • In this paper, we proposed new speech feature parameter through parts-based feature extraction of speech spectrum using Non-Negative Matrix Factorization (NMF). NMF can effectively reduce dimension for multi-dimensional data through matrix factorization under the non-negativity constraints, and dimensionally reduced data should be presented parts-based features of input data. For speech feature extraction, we applied Mel-scaled filter bank outputs to inputs of NMF, than used outputs of NMF for inputs of speech recognizer. From recognition experiment result, we could confirm that proposed feature parameter is superior in recognition performance than mel frequency cepstral coefficient (MFCC) that is used generally.