초록
최근 음악을 장르로 분류하는 다양한 연구가 진행되고 있다. 하지만 이러한 분류는 전문가들 마다 분류하는 기준이 서로 상이하여 정확한 결과를 도출하기가 쉽지 않다. 또한 새로운 장르 출현 시, 새롭게 정의해야하는 번거로움이 발생한다. 따라서 음악을 장르로 구분하기 보다는 감정단어들로 분류, 검색하여야 한다. 본 논문에서는 사람이 느끼는 감정 중, 밝음과 어두움을 기준으로 음악을 분류하려고 한다. 음악이 내포하고 있는 특성들에 VCM(Variance Considered Machines)을 적용하여 음악의 명암 분류 시스템을 제안한다. 본 논문에서 이용한 음악적 특성은 3가지이다. 설문조사를 통해 명암이 정의된 기준 음악을 음의 높고 낮음의 분포, 음색의 가늘고 굵음과 비트의 빠르기를 이용하여 VCM에 먼저 학습을 시킨 후, 학습된 VCM을 통하여 분류 되지 않은 음악을 정의하여 설문조사를 통한 결과와 비교 분석 하였다. 음 추출은 Matlab을 이용하여 샘플링된 음악을 일정한 간격으로 나누어 FFT를 통해 주파수 분석을 한 후 평균값을 그 구간의 대표음이라 가정하고 추출된 음들의 높낮이를 수치화 하여 전체 분포를 파악하였다. 음색 부분에서는 음 추출에서 사용된 주파수 영역에서 전체 주파수 누적분포의 차이를 이용하여 수치화 하였다. 이 세 가지 특성을 VCM에 적용하여 실험 결과와 설문 조사 결과 비교하여 보니 약 95.4%의 확률로 음악의 명암이 분리된 것을 확인 하였다.
Recently, a music genre classification has been studied. However, experts use different criteria to classify each of these classifications is difficult to derive accurate results. In addition, when the emergence of a new genre of music genre is a newly re-defined. Music as a genre rather than to separate search should be classified as emotional words. In this paper, the feelings of people on the basis of brightness and darkness tries to categorize music. The proposed classification system by applying VCM(Variance Considered Machines) is the contrast of the music. In this paper, we are using three kinds of musical characteristics. Based on surveys made throughout the learning, based on musical attributes(beat, timbre, note) was used to study in the VCM. VCM is classified by the trained compared with the results of the survey were analyzed. Note extraction using the MATLAB, sampled at regular intervals to share music via the FFT frequency analysis by the sector average is defined as representing the element extracted note by quantifying the height of the entire distribution was identified. Cumulative frequency distribution in the entire frequency rage, using the difference in Timbre and were quantified. VCM applied to these three characteristics with the experimental results by comparing the survey results to see the contrast of the music with a probability of 95.4% confirmed that the two separate.