• 제목/요약/키워드: Classification of Music

검색결과 241건 처리시간 0.02초

A Method for Measuring the Difficulty of Music Scores

  • Song, Yang-Eui;Lee, Yong Kyu
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권4호
    • /
    • pp.39-46
    • /
    • 2016
  • While the difficulty of the music can be classified by a variety of standard, conventional methods are classified by the subjective judgment based on the experience of many musicians or conductors. Music score is difficult to evaluate as there is no quantitative criterion to determine the degree of difficulty. In this paper, we propose a new classification method for determining the degree of difficulty of the music. In order to determine the degree of difficulty, we convert the score, which is expressed as a traditional music score, into electronic music sheet. Moreover, we calculate information about the elements needed to play sheet music by distance of notes, tempo, and quantifying the ease of interpretation. Calculating a degree of difficulty of the entire music via the numerical data, we suggest the difficulty evaluation of the score, and show the difficulty of music through experiments.

EVS 코덱에서 보청기를 위한 RNN 기반의 음성/음악 분류 성능 향상 (Improvement of Speech/Music Classification Based on RNN in EVS Codec for Hearing Aids)

  • 강상익;이상민
    • 재활복지공학회논문지
    • /
    • 제11권2호
    • /
    • pp.143-146
    • /
    • 2017
  • 본 논문에서는 recurrent neural network (RNN)을 이용하여 보청기 시스템을 위한 기존의 3GPP enhanced voice services (EVS) 코덱의 음성/음악 분류 성능을 향상시키는 방법을 제시한다. 구체적으로, EVS의 음성/음악 분류 알고리즘에서 사용된 특징벡터만을 사용하여 효과적으로 RNN을 구성한 분류기법을 제시한다. 다양한 음악장르 및 잡음 환경에 대해 시스템의 성능을 평가한 결과 RNN을 이용하였을 때 기존의 EVS의 방법보다 우수한 음성/음악 분류 성능을 보였다.

Music Similarity Search Based on Music Emotion Classification

  • Kim, Hyoung-Gook;Kim, Jang-Heon
    • The Journal of the Acoustical Society of Korea
    • /
    • 제26권3E호
    • /
    • pp.69-73
    • /
    • 2007
  • This paper presents an efficient algorithm to retrieve similar music files from a large archive of digital music database. Users are able to navigate and discover new music files which sound similar to a given query music file by searching for the archive. Since most of the methods for finding similar music files from a large database requires on computing the distance between a given query music file and every music file in the database, they are very time-consuming procedures. By measuring the acoustic distance between the pre-classified music files with the same type of emotion, the proposed method significantly speeds up the search process and increases the precision in comparison with the brute-force method.

정보코드 결합을 이용한 음원분류 시스템 구현 (Implementation of Music Source Classification System by Embedding Information Code)

  • 조재영;김윤호
    • 한국항행학회논문지
    • /
    • 제10권3호
    • /
    • pp.250-255
    • /
    • 2006
  • 디지털 멀티미디어 사회에서 음원은 과거 아날로그 방식에서 탈피하여 디지털 방식으로 생성, 저장 및 전송되는 음악 시스템이 주류를 이룬다. 이 과정에서 특정 규약에 따라 음악의 각종 정보를 위한 디지털 코드를 삽입해 놓는다면 음원분류 시스템이 내장된 Mp3 플레이어나 기타 디지털 음원 재생기에서 특정 곡의 선택, 분류등 여러 기능을 효율적으로 수행 할 수 있다. 본 논문에서는 기존의 음원에 정보 코드를 삽입하여 특정 재생기에서 개인이 원하는 방식으로 음악을 분류 및 검색할 수 있는 음원 분류 시스템을 구현하였다. 구현된 시스템을 이용하여 임의 장르에 대한 선별적 분류, 검색 실험 결과 제안한 방법의 타당성을 입증하였다.

  • PDF

Decorrelated Filter Bank를 이용한 음악 장르 분류 시스템 (Music Genre Classification System Using Decorrelated Filter Bank)

  • 임신철;장세진;이석필;김무영
    • 한국음향학회지
    • /
    • 제30권2호
    • /
    • pp.100-106
    • /
    • 2011
  • 음원의 디지털화가 진행되면서 음악 데이터베이스가 방대해지고 있다. 따라서, 음악 데이터를 보다 효과적으로 관리하기 위해 음악의 특성에 따라 장르별로 자동 분류해주는 시스템이 필요하다. 기존 장르 분류 시스템은 대부분 Mel-Frequency Cepstral Coefficient (MFCC)를 특징 벡터로 이용하고 있다. 본 논문에서는 Auditory Filter Bank를 이용한 Decorrelated Filter Bank (DFB)와 Octave-based Spectral Contrast (OSC)에 texture window를 적용하여 특징을 추출한 후, Support Vector Machine (SVM)을 이용하여 장르 분류를 시도하였다. 기존의 Marsyas 장르 분류 시스템과 비교한 결과 DFB와 OSC로 복합적인 특징 벡터를 구성하면 더 적은 차수의 특징벡터를 사용함에도 4.2 %의 향상된 분류 성공률을 얻을 수 있었다.

Brainwave-based Mood Classification Using Regularized Common Spatial Pattern Filter

  • Shin, Saim;Jang, Sei-Jin;Lee, Donghyun;Park, Unsang;Kim, Ji-Hwan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권2호
    • /
    • pp.807-824
    • /
    • 2016
  • In this paper, a method of mood classification based on user brainwaves is proposed for real-time application in commercial services. Unlike conventional mood analyzing systems, the proposed method focuses on classifying real-time user moods by analyzing the user's brainwaves. Applying brainwave-related research in commercial services requires two elements - robust performance and comfortable fit of. This paper proposes a filter based on Regularized Common Spatial Patterns (RCSP) and presents its use in the implementation of mood classification for a music service via a wireless consumer electroencephalography (EEG) device that has only 14 pins. Despite the use of fewer pins, the proposed system demonstrates approximately 10% point higher accuracy in mood classification, using the same dataset, compared to one of the best EEG-based mood-classification systems using a skullcap with 32 pins (EU FP7 PetaMedia project). This paper confirms the commercial viability of brainwave-based mood-classification technology. To analyze the improvements of the system, the changes of feature variations after applying RCSP filters and performance variations between users are also investigated. Furthermore, as a prototype service, this paper introduces a mood-based music list management system called MyMusicShuffler based on the proposed mood-classification method.

음악 장르 분류를 위한 데이터 생성 및 머신러닝 적용 방안 (Generating Data and Applying Machine Learning Methods for Music Genre Classification)

  • 엄빛찬;조동휘;남춘성
    • 인터넷정보학회논문지
    • /
    • 제25권4호
    • /
    • pp.57-64
    • /
    • 2024
  • 본 논문은 머신러닝을 활용하여 많은 양의 음악 데이터를 분류하여 장르 정보가 입력되어 있지 않은 음악 장르 분류 정확도 향상을 목표로 한다. 음악의 장르를 구분하기 위해 기존 연구에서 많이 사용되던 GTZAN 데이터 세트 대신 직접 데이터를 수집하고 전처리하는 방안을 제시한다. 이를 위해 GTZAN 데이터 세트보다 분류 성능이 뛰어난 데이터 세트를 생성하기 위해 Onset의 에너지 레벨이 가장 높은 일정 구간을 추출한다. 학습에 사용하는 음악 데이터의 주요 특성으로는 Mel Frequency Cepstral Coefficient(MFCC)를 포함한 57개의 특성을 이용한다. 전처리된 데이터를 통해 Support Vector Machine(SVM) 모델을 이용하여 Blues, Classical, Jazz, Country, Disco, Pop, Rock, Metal, Hiphop으로 분류한 학습 정확도가 85%를 기록하였고, 테스트 정확도가 71%를 보여주었다.

Determining Key Features of Recognition Korean Traditional Music Using Spectrogram

  • Kim Jae Chun;Kwak Kyung Sup
    • The Journal of the Acoustical Society of Korea
    • /
    • 제24권2E호
    • /
    • pp.67-70
    • /
    • 2005
  • To realize a traditional music recognition system, some characteristics pertinent to Far East Asian music should be found. Using Spectrogram, some distinct attributes of Korean traditional music are surveyed. Frequency distribution, beat cycle and frequency energy intensity within samples have distinct characteristics of their own. Experiment is done for pre-experimentation to realize Korean traditional music recognition system. Using characteristics of Korean traditional music, $94.5\%$ of classification accuracy is acquired. As Korea, Japan and China have the same musical roots, both in instruments and playing style, analyzing Korean traditional music can be helpful in the understanding of Far East Asian traditional music.

음악 장르 분류를 위한 부밴드 분해와 특징 차수 축소에 관한 연구 (An investigation of subband decomposition and feature-dimension reduction for musical genre classification)

  • 서진수;김정현;박지현
    • 한국음향학회지
    • /
    • 제36권2호
    • /
    • pp.144-150
    • /
    • 2017
  • 음악 장르는 음악 검색 및 분류 등의 정보 처리 시스템 구현에 있어서 필수적인 요소이다. 일반적으로 장르 분류를 위한 스펙트럼 특징은 음악의 화음 및 강약 구조를 표현하기 위해 부밴드로 분해하여 구해진다. 본 논문은 음악 장르 분류 성능 개선을 위한 특징 추출을 위한 부밴드 분해 방법에 관해 연구하였다. 또한 부밴드 음악 특징의 차수를 줄일 수 있는 방법에 대해서도 연구하였다. 널리 사용되고 있는 장르 데이터셋들에서 실험을 수행하여 널리 사용되고 있는 옥타브 스케일보다 세분화된 부밴드 분해가 장르 분류 성능을 향상시킬 수 있으며, 특징 차수 축소를 결합하여 분류기의 계산량도 줄일 수 있음을 보였다.

오디오 부호화기를 위한 스펙트럼 변화 및 MFCC 기반 음성/음악 신호 분류 (Speech/Music Signal Classification Based on Spectrum Flux and MFCC For Audio Coder)

  • 이상길;이인성
    • 한국정보전자통신기술학회논문지
    • /
    • 제16권5호
    • /
    • pp.239-246
    • /
    • 2023
  • 본 논문에서는 오디오 부호화기를 위한 스펙트럼 변화 파라미터와 Mel Frequency Cepstral Coefficients(MFCC) 파라미터를 이용하여 음성과 음악 신호를 분류하는 개루프 방식의 알고리즘을 제안한다. 반응성을 높이기 위해 단구간 특징 파라미터로 MFCC를 사용하고 정확도를 높이기 위해 장구간 특징 파라미터로 스펙트럼 변화를 사용하였다. 전체적인 음성/음악 신호 분류 결정은 단구간 분류와 장구간 분류를 결합하여 이루어진다. 패턴인식을 위해 Gaussian Mixed Model(GMM)을 사용하였고, Expectation Maximization(EM) 알고리즘을 사용하여 최적의 GMM 파라미터를 추출하였다. 제안된 장단구간 결합 음성/음악 신호 분류 방법은 다양한 오디오 음원에서 평균적으로 1.5% 분류 오류율을 보였고 단구간 단독 분류 방법 보다 0.9%, 장구간 단독 분류 방법보다 0.6%의 분류 오류율의 성능 개선을 이룰 수 있었다. 제안된 장단구간 결합 음성/음악 신호 분류 방법은 USAC 오디오 분류 방법보다 타악기 음악 신호에서 9.1% 분류 오류율, 음성신호에서 5.8% 분류 오류율의 성능 개선을 이룰 수 있었다.