• 제목/요약/키워드: Music emotion classification

검색결과 27건 처리시간 0.025초

Attention-based CNN-BiGRU for Bengali Music Emotion Classification

  • Subhasish Ghosh;Omar Faruk Riad
    • International Journal of Computer Science & Network Security
    • /
    • 제23권9호
    • /
    • pp.47-54
    • /
    • 2023
  • For Bengali music emotion classification, deep learning models, particularly CNN and RNN are frequently used. But previous researches had the flaws of low accuracy and overfitting problem. In this research, attention-based Conv1D and BiGRU model is designed for music emotion classification and comparative experimentation shows that the proposed model is classifying emotions more accurate. We have proposed a Conv1D and Bi-GRU with the attention-based model for emotion classification of our Bengali music dataset. The model integrates attention-based. Wav preprocessing makes use of MFCCs. To reduce the dimensionality of the feature space, contextual features were extracted from two Conv1D layers. In order to solve the overfitting problems, dropouts are utilized. Two bidirectional GRUs networks are used to update previous and future emotion representation of the output from the Conv1D layers. Two BiGRU layers are conntected to an attention mechanism to give various MFCC feature vectors more attention. Moreover, the attention mechanism has increased the accuracy of the proposed classification model. The vector is finally classified into four emotion classes: Angry, Happy, Relax, Sad; using a dense, fully connected layer with softmax activation. The proposed Conv1D+BiGRU+Attention model is efficient at classifying emotions in the Bengali music dataset than baseline methods. For our Bengali music dataset, the performance of our proposed model is 95%.

음악에 따른 감정분류을 위한 EEG특징벡터 비교 (Comparison of EEG Feature Vector for Emotion Classification according to Music Listening)

  • 이소민;변성우;이석필
    • 전기학회논문지
    • /
    • 제63권5호
    • /
    • pp.696-702
    • /
    • 2014
  • Recently, researches on analyzing relationship between the state of emotion and musical stimuli using EEG are increasing. A selection of feature vectors is very important for the performance of EEG pattern classifiers. This paper proposes a comparison of EEG feature vectors for emotion classification according to music listening. For this, we extract some feature vectors like DAMV, IAV, LPC, LPCC from EEG signals in each class related to music listening and compare a separability of the extracted feature vectors using Bhattacharyya distance. So more effective feature vectors are recommended for emotion classification according to music listening.

3 레벨 구조 기반의 음악 무드분류 (Music Emotion Classification Based On Three-Level Structure)

  • 김형국;정진국
    • The Journal of the Acoustical Society of Korea
    • /
    • 제26권2E호
    • /
    • pp.56-62
    • /
    • 2007
  • This paper presents the automatic music emotion classification on acoustic data. A three-level structure is developed. The low-level extracts the timbre and rhythm features. The middle-level estimates the indication functions that represent the emotion probability of a single analysis unit. The high-level predicts the emotion result based on the indication function values. Experiments are carried out on 695 homogeneous music pieces labeled with four emotions, including pleasant, calm, sad, and excited. Three machine learning methods, GMM, MLP, and SVM, are compared on the high-level. The best result of 90.16% is obtained by MLP method.

Music Similarity Search Based on Music Emotion Classification

  • Kim, Hyoung-Gook;Kim, Jang-Heon
    • The Journal of the Acoustical Society of Korea
    • /
    • 제26권3E호
    • /
    • pp.69-73
    • /
    • 2007
  • This paper presents an efficient algorithm to retrieve similar music files from a large archive of digital music database. Users are able to navigate and discover new music files which sound similar to a given query music file by searching for the archive. Since most of the methods for finding similar music files from a large database requires on computing the distance between a given query music file and every music file in the database, they are very time-consuming procedures. By measuring the acoustic distance between the pre-classified music files with the same type of emotion, the proposed method significantly speeds up the search process and increases the precision in comparison with the brute-force method.

음악 추천을 위한 감정 전이 모델 기반의 음악 분류 기법 (Emotion Transition Model based Music Classification Scheme for Music Recommendation)

  • 한병준;황인준
    • 전기전자학회논문지
    • /
    • 제13권2호
    • /
    • pp.159-166
    • /
    • 2009
  • 최근까지 장르나 무드 등의 정적 분류 기술자를 이용한 음악 정보 검색에 관한 다양한 연구가 진행되어 왔다. 정적 분류 기술자는 주로 음악의 다양한 내용적 특징에 기반하기 때문에 그러한 특징에 유사한 음악을 검색하는 데 효과적이다. 하지만 음악을 들었을 때 느끼게 되는 감정 내지 기분 전이를 이용하면 정적 분류 기술자보다 더 효과적이고 정교한 검색이 가능하다. 사람이 음악을 들었을 때 발생하는 감정 전이의 효과에 관한 연구는 현재까지 미비한 실정이다. 감정 전이의 효과를 체계적으로 표현할 수 있다면 기존의 음악 분류에 의한 검색에 비해 음악 추천 등의 새로운 응용에서 더 효과적인 개인화 서비스를 제공할 수 있다. 본 논문에서는 음악에 의한 인간 감정 전이를 표현하기 위한 감정 상태 전이 모델을 제안하고 이를 기반으로 새로운 음악 분류 및 추천 기법을 제안한다. 제안하는 모델의 개발을 위하여 다양한 내용 기반의 특징을 추출하였으며, 고차원 특징 벡터의 차원 감쇄를 위하여 NMF (Non-negative Matrix Factorization)를 사용하였다. 성능 분석을 위한 실험에서 SVM (Support Vector Machine)을 분류기로 사용한 실험에서 평균 67.54%, 최대 87.78%의 분류 정확도를 달성하였다.

  • PDF

다중 회귀 기반의 음악 감성 분류 기법 (Multiple Regression-Based Music Emotion Classification Technique)

  • 이동현;박정욱;서영석
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권6호
    • /
    • pp.239-248
    • /
    • 2018
  • 4차 산업혁명 시대가 도래하면서 기존 IoT에 감성지능이 포함된 신기술들이 연구되고 있다. 그 중 현재까지 다양하게 진행된 음악 서비스 제공을 위한 감성 분석 연구에서는 인공지능, 패턴인식 등을 활용한 사용자의 감성 인식 및 분류 등에만 초점을 맞추고 있는 상황이나, 사용자의 특정 감성에 해당하는 음악들을 어떻게 자동적으로 분류할지에 대한 감성별 음악 분류기법들에 대한 연구는 매우 부족한 상황이다. 본 연구에서는 최근 각광을 받고 있는 사람들의 감성과 관련된 음악관련 서비스를 개발할 시, 음악을 감성 범위에 따라 높은 정확도로 분류할 수 있도록 하는 감성 기반 자동 음악 분류기법을 제안한다. 데이터수집 시 Russell 모델을 바탕으로 설문조사를 하였으며, 음악의 특성으로 평균파장크기(Average amplitude), peak평균(Peak-average), 파장 수(The number of wavelength), 평균파장 길이(Average wavelength), BPM(Beats per minute)을 추출하였다. 해당 데이터들을 바탕으로 회귀 분석을 이용하여 다중회귀식을 도출하였으며, 각 감성에 대한 표준 수치들을 도출하여 새로운 음악 데이터와 해당 각 감성에 대한 표준 수치들과의 거리 비교를 통해 음악의 감성을 분류시키는 작업을 실시하였다. 이를 통해 나온 결과에 회귀분석을 통하여 나온 데이터를 대입하여 해당 데이터와 각 감성들의 비율을 통해 최종적으로 판단된 감성을 추출하였다. 본 연구에서 실험한 감성 일치율의 2가지 방식에 대해서 제안한 기법의 경우 70.94%, 86.21%의 일치율이 나왔고, 설문참가자들의 경우 66.83%, 76.85%의 일치율이 나옴으로써, 연구 기법을 통한 감성의 판단이 설문참가자들의 평균적인 판단보다 4.11%, 9.36%의 향상된 수치를 제공함을 알 수 있었다.

Rough Set-Based Approach for Automatic Emotion Classification of Music

  • Baniya, Babu Kaji;Lee, Joonwhoan
    • Journal of Information Processing Systems
    • /
    • 제13권2호
    • /
    • pp.400-416
    • /
    • 2017
  • Music emotion is an important component in the field of music information retrieval and computational musicology. This paper proposes an approach for automatic emotion classification, based on rough set (RS) theory. In the proposed approach, four different sets of music features are extracted, representing dynamics, rhythm, spectral, and harmony. From the features, five different statistical parameters are considered as attributes, including up to the $4^{th}$ order central moments of each feature, and covariance components of mutual ones. The large number of attributes is controlled by RS-based approach, in which superfluous features are removed, to obtain indispensable ones. In addition, RS-based approach makes it possible to visualize which attributes play a significant role in the generated rules, and also determine the strength of each rule for classification. The experiments have been performed to find out which audio features and which of the different statistical parameters derived from them are important for emotion classification. Also, the resulting indispensable attributes and the usefulness of covariance components have been discussed. The overall classification accuracy with all statistical parameters has recorded comparatively better than currently existing methods on a pair of datasets.

음악신호와 뇌파 특징의 회귀 모델 기반 감정 인식을 통한 음악 분류 시스템 (Music classification system through emotion recognition based on regression model of music signal and electroencephalogram features)

  • 이주환;김진영;정동기;김형국
    • 한국음향학회지
    • /
    • 제41권2호
    • /
    • pp.115-121
    • /
    • 2022
  • 본 논문에서는 음악 청취 시에 나타나는 뇌파 특징을 이용하여 사용자 감정에 따른 음악 분류 시스템을 제안한다. 제안된 시스템에서는 뇌파 신호로부터 추출한 감정별 뇌파 특징과 음악신호에서 추출한 청각적 특징 간의 관계를 회귀 심층신경망을 통해 학습한다. 실제 적용 시에는 이러한 회귀모델을 기반으로 제안된 시스템은 입력되는 음악의 청각 특성에 매핑된 뇌파 신호 특징을 자동으로 생성하고, 이 특징을 주의집중 기반의 심층신경망에 적용함으로써 음악을 자동으로 분류한다. 실험결과는 제안된 자동 음악분류 프레임 워크의 음악 분류 정확도를 제시한다.

맞춤형 감성 뮤직 플레이어를 위한 음악 분류 및 추천 기법 구현 (An Implementation of a Classification and Recommendation Method for a Music Player Using Customized Emotion)

  • 송유정;강수연;임선영;박영호
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권4호
    • /
    • pp.195-200
    • /
    • 2015
  • 최근 한국에서는 대부분의 사람들이 안드로이드 기반의 스마트폰을 사용하고 있고, 뮤직플레이어는 어느 스마트폰에서나 찾아볼 수 있다. 그러나 뮤직 플레이어들 중 사용자의 취향이나, 음악을 듣는 성향에 맞춰진 개인화된 애플리케이션은 찾아보기 힘든 실정이다. 본 논문에서는 음악을 분석하여 감정에 따라 자동으로 분류하고, 사용자가 입력한 감정에 따라 추천하며, 사용자의 선호도를 반영하는 기능을 제공할 뿐만 아니라, 음악을 색채를 통해 시각화함으로써 사용자가 음악을 보다 쉽게 느낄 수 있도록 구현된 감성 뮤직 플레이어를 제안한다. 이를 통해 사용자는 선곡의 어려움을 해소하고 자신에게 최적화된 애플리케이션을 사용할 수 있다.

SYMMER: A Systematic Approach to Multiple Musical Emotion Recognition

  • Lee, Jae-Sung;Jo, Jin-Hyuk;Lee, Jae-Joon;Kim, Dae-Won
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제11권2호
    • /
    • pp.124-128
    • /
    • 2011
  • Music emotion recognition is currently one of the most attractive research areas in music information retrieval. In order to use emotion as clues when searching for a particular music, several music based emotion recognizing systems are fundamentally utilized. In order to maximize user satisfaction, the recognition accuracy is very important. In this paper, we develop a new music emotion recognition system, which employs a multilabel feature selector and multilabel classifier. The performance of the proposed system is demonstrated using novel musical emotion data.