• 제목/요약/키워드: Mfcc

검색결과 274건 처리시간 0.034초

SVM과 선택적 주파수 차감법을 이용한 음악에서의 보컬 분리 (Vocal Separation in Music Using SVM and Selective Frequency Subtraction)

  • 김현태
    • 한국전자통신학회논문지
    • /
    • 제10권1호
    • /
    • pp.1-6
    • /
    • 2015
  • 최근 원음 반주기에 대한 관심이 증가됨에 따라 고가의 스튜디오 직접 녹음 방법 대신 보다 저렴한 방법을 시도하고 있다. 그 구체적인 방법으로는 가수의 음악 앨범에서 가수의 목소리만 제거하여 원음 반주 음원을 만드는 것이다. 본 논문에서는 스테레오로 녹음된 반주음악에서 보컬을 분리하는 시스템을 제안한다. 제안하는 시스템은 두 단계로 구성된다. 첫 단계는 보컬을 검출하는 단계이다. 이 단계에서는 MFCC를 가지고 SVM 방법을 이용하여 입력 신호를 보컬 부분과 비보컬 부분으로 분리한다. 두 번째 단계에서는 보컬 부분에 대해 각 주파수 빈별로 선택적 주파수 차감을 수행한다. 제안하는 방법으로 보컬을 제거한 음악에 대한 청취실험에서 상대적으로 높은 만족도를 보여준다.

음악추천을 위한 다중 옥타브 밴드 기반 장르 분류기 (Multiple octave-band based genre classification algorithm for music recommendation)

  • 임신철;장세진;이석필;김무영
    • 한국정보통신학회논문지
    • /
    • 제15권7호
    • /
    • pp.1487-1494
    • /
    • 2011
  • 본 논문은 음악 추천을 위한 새로운 장르 분류 알고리즘을 제안하였다. 특히, 장르 분류 알고리즘에 사용되는 특정 벡터 중 octave-based spectral contrast (OSC)의 성능 개선을 위해서 심리청각 모델과 악기별 사용 octave 범위에 근거하여 새로운 band-pass filter를 설계하였다. 10개 장르별 음악을 포함하고 있는 GTZAN database에 대해서 10-fold cross validation 실험 결과, 다중 옥타브 밴드 OSC에 대해서 기존 OSC에 비해 2.26% 향상된 인식율을 얻을 수 있었다. 또한, 기존의 mel-frequency cepstral coefficient (MFCC)와 복합 특징 벡터를 구성하여 실험한 결과, 향상된 인식율을 얻을 수 있었다.

Proposed Efficient Architectures and Design Choices in SoPC System for Speech Recognition

  • Trang, Hoang;Hoang, Tran Van
    • 전기전자학회논문지
    • /
    • 제17권3호
    • /
    • pp.241-247
    • /
    • 2013
  • This paper presents the design of a System on Programmable Chip (SoPC) based on Field Programmable Gate Array (FPGA) for speech recognition in which Mel-Frequency Cepstral Coefficients (MFCC) for speech feature extraction and Vector Quantization for recognition are used. The implementing process of the speech recognition system undergoes the following steps: feature extraction, training codebook, recognition. In the first step of feature extraction, the input voice data will be transformed into spectral components and extracted to get the main features by using MFCC algorithm. In the recognition step, the obtained spectral features from the first step will be processed and compared with the trained components. The Vector Quantization (VQ) is applied in this step. In our experiment, Altera's DE2 board with Cyclone II FPGA is used to implement the recognition system which can recognize 64 words. The execution speed of the blocks in the speech recognition system is surveyed by calculating the number of clock cycles while executing each block. The recognition accuracies are also measured in different parameters of the system. These results in execution speed and recognition accuracy could help the designer to choose the best configurations in speech recognition on SoPC.

펄스 도플러 레이더에서 HMM을 이용한 이동표적의 도플러 오디오 신호 식별 (Classification of Doppler Audio Signals for Moving Target Using Hidden Markov Model in Pulse Doppler Radar)

  • 심재훈;이정호;배건성
    • 전기전자학회논문지
    • /
    • 제22권3호
    • /
    • pp.624-629
    • /
    • 2018
  • 감시 및 정찰용 펄스 도플러 레이더(Pulse Doppler Radar : PDR)에서 이동표적의 식별은 일반적으로 레이더 운용자의 도플러 오디오 신호 청취 및 훈련 경험을 바탕으로 수행된다. 본 논문에서는 음성인식 분야에서 널리 이용되는 Mel Frequency Cepstral Coefficients(MFCC) 특징 파라미터와 Hidden Markov Model(HMM) 식별 기법을 이용하여 이동 표적의 클래스를 자동 식별하는 방법을 제안하고, 시뮬레이션을 통해 식별성능을 분석하고 검증하였다.

화자 인식을 통한 등장인물 기반의 비디오 요약 (Character-Based Video Summarization Using Speaker Identification)

  • 이순탁;김종성;강찬미;백중환
    • 융합신호처리학회논문지
    • /
    • 제6권4호
    • /
    • pp.163-168
    • /
    • 2005
  • 본 논문에서는 인물 기반의 비디오 요약 방법으로써 비디오 내 음성정보를 이용하여 화자 인식 기법을 통한 등장인물 중심의 요약 기법을 제안한다. 먼저, 얼굴 영역을 포함하는 장면을 중심으로 비디오로부터 배우의 대사에 해당하는 음성 정보를 분리하고, 화자 인식 기법을 수행하여 등장인물 별로 분류하였다. 화자인식 기법은 각 화자별로 MFCC(Mel Frequency Cepstrum Coefficient) 값을 추출하고 GMM(Gaussian Mixture Model)을 이용하여 분류한다. 본 논문에서는 4명의 등장인물에 대해 GMM을 학습시키고 4명 중 1명을 검출하는 실험을 통해 학습된 GMM 분류기가 실험 비디오에 대해 0.138 정도의 오분류율을 보임을 확인하였다.

  • PDF

Speaker-Dependent Emotion Recognition For Audio Document Indexing

  • Hung LE Xuan;QUENOT Georges;CASTELLI Eric
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 ICEIC The International Conference on Electronics Informations and Communications
    • /
    • pp.92-96
    • /
    • 2004
  • The researches of the emotions are currently great interest in speech processing as well as in human-machine interaction domain. In the recent years, more and more of researches relating to emotion synthesis or emotion recognition are developed for the different purposes. Each approach uses its methods and its various parameters measured on the speech signal. In this paper, we proposed using a short-time parameter: MFCC coefficients (Mel­Frequency Cepstrum Coefficients) and a simple but efficient classifying method: Vector Quantification (VQ) for speaker-dependent emotion recognition. Many other features: energy, pitch, zero crossing, phonetic rate, LPC... and their derivatives are also tested and combined with MFCC coefficients in order to find the best combination. The other models: GMM and HMM (Discrete and Continuous Hidden Markov Model) are studied as well in the hope that the usage of continuous distribution and the temporal behaviour of this set of features will improve the quality of emotion recognition. The maximum accuracy recognizing five different emotions exceeds $88\%$ by using only MFCC coefficients with VQ model. This is a simple but efficient approach, the result is even much better than those obtained with the same database in human evaluation by listening and judging without returning permission nor comparison between sentences [8]; And this result is positively comparable with the other approaches.

  • PDF

Development of Parameters for Diagnosing Laryngeal Diseases

  • Kim, Yong-Ju;Wang, Soo-Geun;Kim, Gi-Ryun;Kwon, Soon-Bok;Jeon, Kye-Rok;Back, Moo-Jin;Yang, Byung-Gon;Jo, Cheol-Woo;Kim, Hyung-Soon
    • 음성과학
    • /
    • 제10권1호
    • /
    • pp.117-129
    • /
    • 2003
  • Many people suffer from various laryngeal diseases. Since we can notice voice change easily, acoustic analysis can be helpful to diagnose the diseases. Several attempts have been made to clarify the relation between the parameters and the state of sick vocal folds but any decisive parameters are not found yet. The purpose of this study was to select and develop those parameters useful for diagnosing and differentiating laryngeal diseases. We examined eight MDVP parameters, and two additional MFCC and LPC parameters obtained from the production of an open vowel by 252 subjects with or without laryngeal diseases. Using a statistical procedure through the artificial neural networks, we attempted to differentiate laryngeal disease groups. Results showed that the LPC parameters indicated the highest differentiating rate by the networks followed by the MFCC and the MDVP parameters. In addition, Jita, Shim and NHR among the MDVP parameters came out better parameters in diagnosing laryngeal diseases.

  • PDF

Decorrelated Filter Bank를 이용한 음악 장르 분류 시스템 (Music Genre Classification System Using Decorrelated Filter Bank)

  • 임신철;장세진;이석필;김무영
    • 한국음향학회지
    • /
    • 제30권2호
    • /
    • pp.100-106
    • /
    • 2011
  • 음원의 디지털화가 진행되면서 음악 데이터베이스가 방대해지고 있다. 따라서, 음악 데이터를 보다 효과적으로 관리하기 위해 음악의 특성에 따라 장르별로 자동 분류해주는 시스템이 필요하다. 기존 장르 분류 시스템은 대부분 Mel-Frequency Cepstral Coefficient (MFCC)를 특징 벡터로 이용하고 있다. 본 논문에서는 Auditory Filter Bank를 이용한 Decorrelated Filter Bank (DFB)와 Octave-based Spectral Contrast (OSC)에 texture window를 적용하여 특징을 추출한 후, Support Vector Machine (SVM)을 이용하여 장르 분류를 시도하였다. 기존의 Marsyas 장르 분류 시스템과 비교한 결과 DFB와 OSC로 복합적인 특징 벡터를 구성하면 더 적은 차수의 특징벡터를 사용함에도 4.2 %의 향상된 분류 성공률을 얻을 수 있었다.

Audio Fingerprint Retrieval Method Based on Feature Dimension Reduction and Feature Combination

  • Zhang, Qiu-yu;Xu, Fu-jiu;Bai, Jian
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권2호
    • /
    • pp.522-539
    • /
    • 2021
  • In order to solve the problems of the existing audio fingerprint method when extracting audio fingerprints from long speech segments, such as too large fingerprint dimension, poor robustness, and low retrieval accuracy and efficiency, a robust audio fingerprint retrieval method based on feature dimension reduction and feature combination is proposed. Firstly, the Mel-frequency cepstral coefficient (MFCC) and linear prediction cepstrum coefficient (LPCC) of the original speech are extracted respectively, and the MFCC feature matrix and LPCC feature matrix are combined. Secondly, the feature dimension reduction method based on information entropy is used for column dimension reduction, and the feature matrix after dimension reduction is used for row dimension reduction based on energy feature dimension reduction method. Finally, the audio fingerprint is constructed by using the feature combination matrix after dimension reduction. When speech's user retrieval, the normalized Hamming distance algorithm is used for matching retrieval. Experiment results show that the proposed method has smaller audio fingerprint dimension and better robustness for long speech segments, and has higher retrieval efficiency while maintaining a higher recall rate and precision rate.

Group Delay를 이용한 GMM기반의 성별 인식 알고리즘 (GMM-Based Gender Identification Employing Group Delay)

  • 이계환;임우형;김남수;장준혁
    • 한국음향학회지
    • /
    • 제26권6호
    • /
    • pp.243-249
    • /
    • 2007
  • 본 논문은 Group Delay(GD)를 이용한 음성신호 기반의 효과적인 성별인식 시스템을 제안한다. 일반적인 음성 인식과 관련된 시스템에서 사용되는 특징들은 위상에 관한 정보를 제거한 크기만의 정보를 이용하여 구성한다. 본 연구에서는 위상에 관한 정보를 토대로 유도되어 지는 GD의 성별에 따른 특징을 알아보고, 보다 향상된 성별인식을 위해 MFCC(Mel-frequency cepstral coefficient), LPC(linear predictive coding) 계수, 반사계수(reflection coefficient) 그리고 포만트(formant)등과 같은 크기 정보와 GD를 이용한 결합 특징 벡터를 적용하였다. 실험을 통해 성별에 따른 GD의 특징을 확인할 수 있었고, 이를 이용한 제안된 특징 벡터를 사용했을 때 우수한 인식 성능을 얻을 수 있었다.