DOI QR코드

DOI QR Code

Development of Music Classification of Light and Shade using VCM and Beat Tracking

VCM과 Beat Tracking을 이용한 음악의 명암 분류 기법 개발

  • 박승민 (중앙대학교 전자전기공학부) ;
  • 박준형 (중앙대학교 전자전기공학부) ;
  • 이영환 (중앙대학교 전자전기공학부) ;
  • 고광은 (중앙대학교 전자전기공학부) ;
  • 심귀보 (중앙대학교 전자전기공학부)
  • Received : 2010.10.21
  • Accepted : 2010.11.25
  • Published : 2010.12.25

Abstract

Recently, a music genre classification has been studied. However, experts use different criteria to classify each of these classifications is difficult to derive accurate results. In addition, when the emergence of a new genre of music genre is a newly re-defined. Music as a genre rather than to separate search should be classified as emotional words. In this paper, the feelings of people on the basis of brightness and darkness tries to categorize music. The proposed classification system by applying VCM(Variance Considered Machines) is the contrast of the music. In this paper, we are using three kinds of musical characteristics. Based on surveys made throughout the learning, based on musical attributes(beat, timbre, note) was used to study in the VCM. VCM is classified by the trained compared with the results of the survey were analyzed. Note extraction using the MATLAB, sampled at regular intervals to share music via the FFT frequency analysis by the sector average is defined as representing the element extracted note by quantifying the height of the entire distribution was identified. Cumulative frequency distribution in the entire frequency rage, using the difference in Timbre and were quantified. VCM applied to these three characteristics with the experimental results by comparing the survey results to see the contrast of the music with a probability of 95.4% confirmed that the two separate.

최근 음악을 장르로 분류하는 다양한 연구가 진행되고 있다. 하지만 이러한 분류는 전문가들 마다 분류하는 기준이 서로 상이하여 정확한 결과를 도출하기가 쉽지 않다. 또한 새로운 장르 출현 시, 새롭게 정의해야하는 번거로움이 발생한다. 따라서 음악을 장르로 구분하기 보다는 감정단어들로 분류, 검색하여야 한다. 본 논문에서는 사람이 느끼는 감정 중, 밝음과 어두움을 기준으로 음악을 분류하려고 한다. 음악이 내포하고 있는 특성들에 VCM(Variance Considered Machines)을 적용하여 음악의 명암 분류 시스템을 제안한다. 본 논문에서 이용한 음악적 특성은 3가지이다. 설문조사를 통해 명암이 정의된 기준 음악을 음의 높고 낮음의 분포, 음색의 가늘고 굵음과 비트의 빠르기를 이용하여 VCM에 먼저 학습을 시킨 후, 학습된 VCM을 통하여 분류 되지 않은 음악을 정의하여 설문조사를 통한 결과와 비교 분석 하였다. 음 추출은 Matlab을 이용하여 샘플링된 음악을 일정한 간격으로 나누어 FFT를 통해 주파수 분석을 한 후 평균값을 그 구간의 대표음이라 가정하고 추출된 음들의 높낮이를 수치화 하여 전체 분포를 파악하였다. 음색 부분에서는 음 추출에서 사용된 주파수 영역에서 전체 주파수 누적분포의 차이를 이용하여 수치화 하였다. 이 세 가지 특성을 VCM에 적용하여 실험 결과와 설문 조사 결과 비교하여 보니 약 95.4%의 확률로 음악의 명암이 분리된 것을 확인 하였다.

Keywords

References

  1. The Music Information Retrieval Evaluation eXchange, "MIREX HOME", Available : http://www.music-ir.org/mirex/wiki/ ,2010, [Accessed : September 3, 2010]
  2. 윤원중, 이강규, 박규식 , "Multi-feature clustering 을 이용한 강인한 내용 기반 음악 장르 분류 시스템에 관한 연구", 대한전자공학회, 전자공학회논문 지 vol.42 no.3, pp. 115-120 , 2005.
  3. 백준기, 신호와 시스템, INFINITYBOOKS, 2008
  4. E. Bruce Goldstein, Sensation and Perception,Wadsworth Publishing Company, 2009.
  5. D.P.W, "Beat Tracking by Dynamic Programming", Journal of New Music Research vol.36, no 3, pp.51-60, 2007. https://doi.org/10.1080/09298210701653344
  6. 박승민, 박준형, 이영환, 고광은, 심귀보, “음악적표현 최적화를 위한 Beat Tracking 기반 음악 특징 검출 기법 개발”, 한국지능시템학회, 2010 추계학술발표논문집, pp. 63-66, 2010. 11
  7. Kecman, V. Learning and Soft Computing,Cambridge, MA: MIT Press, 2001.
  8. Cristianini, N. and Shawe-Taylor, J, An Introduction to Support Vector Machines and Other Kernel-based Learning Methods, First Edition ,Cambridge: Cambridge University Press, 2000.
  9. Ethem Alpaydin, Introduction to machine learning,MIT Press, 2004.
  10. 이종인, 김병만, "대표구간의 음악 특징에 기반한 음악 장르 분류", 한국정보과학회 정보과학회논문지: 소프트웨어 및 응용 , vol.35 no.11 pp. 653-708, 2008.
  11. 김현주, "음악 장르 구분을 위한 대표 샘플 추출방법", 한국정보과학회 가을학술발표논문집, vol 35,no 2(B), pp. 165-168, 2008.
  12. H. G. Yeom, I. H. Jang, and K. B. Sim, “Variance Considered Machines: Modification of Optimal Hyperplanes in Support Vector Machines”, IEEE Int. Symp. Industrial Electronics, Seoul, Korea, pp. 1144-1147, July2009.