• 제목/요약/키워드: Music emotion recognition

검색결과 21건 처리시간 0.012초

SYMMER: A Systematic Approach to Multiple Musical Emotion Recognition

  • Lee, Jae-Sung;Jo, Jin-Hyuk;Lee, Jae-Joon;Kim, Dae-Won
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제11권2호
    • /
    • pp.124-128
    • /
    • 2011
  • Music emotion recognition is currently one of the most attractive research areas in music information retrieval. In order to use emotion as clues when searching for a particular music, several music based emotion recognizing systems are fundamentally utilized. In order to maximize user satisfaction, the recognition accuracy is very important. In this paper, we develop a new music emotion recognition system, which employs a multilabel feature selector and multilabel classifier. The performance of the proposed system is demonstrated using novel musical emotion data.

Ranking Tag Pairs for Music Recommendation Using Acoustic Similarity

  • Lee, Jaesung;Kim, Dae-Won
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제15권3호
    • /
    • pp.159-165
    • /
    • 2015
  • The need for the recognition of music emotion has become apparent in many music information retrieval applications. In addition to the large pool of techniques that have already been developed in machine learning and data mining, various emerging applications have led to a wealth of newly proposed techniques. In the music information retrieval community, many studies and applications have concentrated on tag-based music recommendation. The limitation of music emotion tags is the ambiguity caused by a single music tag covering too many subcategories. To overcome this, multiple tags can be used simultaneously to specify music clips more precisely. In this paper, we propose a novel technique to rank the proper tag combinations based on the acoustic similarity of music clips.

감정 인식을 통한 음악 검색 성능 분석 (A Study on the Performance of Music Retrieval Based on the Emotion Recognition)

  • 서진수
    • 한국음향학회지
    • /
    • 제34권3호
    • /
    • pp.247-255
    • /
    • 2015
  • 본 논문은 자동으로 분류된 음악 신호의 감정을 기반으로 하는 음악 검색 의 성능을 분석하였다. 음성, 영상 등의 다른 미디어 신호와 마찬가지로 음악은 인간에게 특정한 감정을 불러일으킬 수 있다. 이러한 감정은 사람들이 음악을 검색할 때 중요한 고려요소가 될 수 있다. 그렇지만 아직까지 음악의 감정을 직접 인식하여 음악 검색을 수행하고 성능을 검증한 경우는 거의 없었다. 본 논문에서는 음악 감정을 표현하는 주요한 세 축인 유발성, 활성, 긴장 과 기본 5대 감정인 행복, 슬픔, 위안, 분노, 불안의 정도를 구하고, 그 값들의 유사도를 기반으로 음악 검색을 수행하였다. 장르와 가수 데이터셋에서 실험을 수행하였다. 제안된 감정 기반 음악 검색 성능은 기존의 특징 기반 방법의 성능에 대비해서 최대 75 % 수준의 검색 정확도를 보였다. 또한 특징 기반 방법을 제안된 감정 기반 방법과 병합할 경우 최대 14 % 검색 성능 향상을 이룰 수 있었다.

음악 감성의 사용자 조절에 따른 음악의 특성 변형에 관한 연구 (A Study on the Variation of Music Characteristics based on User Controlled Music Emotion)

  • 응웬반로이;허빈;김동림;임영환
    • 한국콘텐츠학회논문지
    • /
    • 제17권3호
    • /
    • pp.421-430
    • /
    • 2017
  • 본 논문은 기존에 연구되었던 음악 감성 모델을 이용하여 음악의 감성을 판단하고 해당 감성 데이터를 사용자가 원하는 감도의 감성으로 변화 시켰을 때 그에 맞는 감성이 표현될 수 있도록 음악의 특성을 변화시키는 것에 대한 논문이다. 기존의 음악 감성 유형만을 판단하는 1차원적 음악 감성 모델을 이용하여 음악의 템포, 역동성, 진폭변화, 밝기, 잡음 등 5가지 요소의 가중치를 계산하여 실제적인 음악의 감성 데이터(X,Y)를 추출하였으며, 예측된 음악의 감성을 다른 감성 값(X',Y')으로 변형시킴으로써 대응되는 5가지 변형 요소의 데이터 계산이 가능하도록 하였다. 이는 밝은 분위기의 음악을 데이터 변형만으로 우울한 분위기의 음악으로 조절이 가능하다는 점에서 향후 음악 감성 변화에 대한 기초모델을 제시하였다.

Enhancing Music Recommendation Systems Through Emotion Recognition and User Behavior Analysis

  • Qi Zhang
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권5호
    • /
    • pp.177-187
    • /
    • 2024
  • 요약 배경: 기존 음악 추천 시스템은 가사의 의도된 감정과 사용자가 실제로 느끼는 감정 사이의 불일치를 충분히 고려하지 않았다. 모델: 본 연구에서는 LDA 모델을 활용하여 가사와 사용자 댓글의 주제 벡터를 생성하고, 시간 감쇠 효과와 재생 횟수를 반영한 사용자 행동 궤적과 통계 특성을 결합하여 사용자 선호도 모델을 구축했다. 결과: 실증 분석 결과, 제안 모델이 가사만 활용한 기존 모델보다 높은 정확도로 음악을 추천했다. 시사점: 본 연구는 감정 인식과 사용자 행동 분석을 통합하여 개인화된 음악 추천 시스템을 개선하는 새로운 방법론을 제시한다.

LED조명 시스템을 이용한 음악 감성 시각화에 대한 연구 (Emotion-based music visualization using LED lighting control system)

  • 응웬반로이;김동림;임영환
    • 한국게임학회 논문지
    • /
    • 제17권3호
    • /
    • pp.45-52
    • /
    • 2017
  • 본 논문은 음악의 감성을 시각화하는 새로운 방법을 제안하는 논문으로 시각화를 위하여 감성 LED조명 제어 시스템을 고안하였으며 이 시스템은 청중들의 음악 경험을 더욱 풍요롭게 하기 위함에 목적이 있다. 이 시스템은 기존 연구의 음악 감성 분석 알고리즘을 이용하였는데 하나의 음악에서 하나의 감성을 추출하는 기존 연구의 한계를 보완하고자 음악의 1초당 세그먼트에서 감성을 추출 하여 감성 변화를 감지하는 방법을 연구하였다. 또한 LED조명의 감성 컬러는 IRI컬러 모델과 Thayer의 감성 모델을 기초로 새로운 감성 컬러 36가지를 정의 하여 각 감성에 맞는 색으로 연출 할 수 있도록 구성하고 애니메이션과 더불어 감성 LED 조명으로 표현 할 수 있도록 하였다. 이 시스템의 검증을 위한 실험 결과, 듣는이의 감성과 감성 LED 조명 시스템의 감성 일치율이 60% 이상으로 향후 음악 감성 기반 서비스의 중요한 밑거름이 될 것으로 보인다.

다중 회귀 기반의 음악 감성 분류 기법 (Multiple Regression-Based Music Emotion Classification Technique)

  • 이동현;박정욱;서영석
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권6호
    • /
    • pp.239-248
    • /
    • 2018
  • 4차 산업혁명 시대가 도래하면서 기존 IoT에 감성지능이 포함된 신기술들이 연구되고 있다. 그 중 현재까지 다양하게 진행된 음악 서비스 제공을 위한 감성 분석 연구에서는 인공지능, 패턴인식 등을 활용한 사용자의 감성 인식 및 분류 등에만 초점을 맞추고 있는 상황이나, 사용자의 특정 감성에 해당하는 음악들을 어떻게 자동적으로 분류할지에 대한 감성별 음악 분류기법들에 대한 연구는 매우 부족한 상황이다. 본 연구에서는 최근 각광을 받고 있는 사람들의 감성과 관련된 음악관련 서비스를 개발할 시, 음악을 감성 범위에 따라 높은 정확도로 분류할 수 있도록 하는 감성 기반 자동 음악 분류기법을 제안한다. 데이터수집 시 Russell 모델을 바탕으로 설문조사를 하였으며, 음악의 특성으로 평균파장크기(Average amplitude), peak평균(Peak-average), 파장 수(The number of wavelength), 평균파장 길이(Average wavelength), BPM(Beats per minute)을 추출하였다. 해당 데이터들을 바탕으로 회귀 분석을 이용하여 다중회귀식을 도출하였으며, 각 감성에 대한 표준 수치들을 도출하여 새로운 음악 데이터와 해당 각 감성에 대한 표준 수치들과의 거리 비교를 통해 음악의 감성을 분류시키는 작업을 실시하였다. 이를 통해 나온 결과에 회귀분석을 통하여 나온 데이터를 대입하여 해당 데이터와 각 감성들의 비율을 통해 최종적으로 판단된 감성을 추출하였다. 본 연구에서 실험한 감성 일치율의 2가지 방식에 대해서 제안한 기법의 경우 70.94%, 86.21%의 일치율이 나왔고, 설문참가자들의 경우 66.83%, 76.85%의 일치율이 나옴으로써, 연구 기법을 통한 감성의 판단이 설문참가자들의 평균적인 판단보다 4.11%, 9.36%의 향상된 수치를 제공함을 알 수 있었다.

감성기반 음악.이미지 검색 추천 시스템 설계 및 구현 (A Design and Implementation of Music & Image Retrieval Recommendation System based on Emotion)

  • 김태연;송병호;배상현
    • 전자공학회논문지CI
    • /
    • 제47권1호
    • /
    • pp.73-79
    • /
    • 2010
  • 감성 지능형 컴퓨팅은 컴퓨터가 학습과 적응을 통하여 인간의 감성을 처리할 수 있는 감성인지 능력을 갖는 것으로 보다 효율적인 인간과 컴퓨터의 상호 작용을 가능하게 한다. 감성 정보들 중 시각과 청각 정보인 음악 이미지는 짧은 시간에 형성되고 기억에 오랫동안 지속되기 때문에 성공적인 마케팅에 있어서 중요한 요인으로 꼽히고 있으며, 인간의 정서를 이해하고 해석하는데 있어서 매우 중요한 역할을 한다. 본 논문에서는 사용자의 감성키워드(짜증, 우울, 차분, 기쁨)를 고려하여 매칭된 음악과 이미지를 검색하는 시스템을 구축하였다. 제안된 시스템은 인간의 감성을 4단계 경우로 상황을 정의하며, 정규화 된 음악과 이미지를 검색하기 위해 음악 이미지 온톨로지와 감성 온톨로지를 사용하였으며, 이미지의 특징정보를 추출, 유사성을 측정하여 원하는 결과를 얻게 하도록 하였다. 또한, 이미지 감성인식정보를 분류하기위해 대응일치분석과 요인분석을 통한 성컬러와 감성어휘를 하나의 공간에 매칭하였다. 실험결과 제안된 시스템은 4가지 감성상태에 대해 82.4%의 매칭율를 가져올 수 있었다.

음악신호와 뇌파 특징의 회귀 모델 기반 감정 인식을 통한 음악 분류 시스템 (Music classification system through emotion recognition based on regression model of music signal and electroencephalogram features)

  • 이주환;김진영;정동기;김형국
    • 한국음향학회지
    • /
    • 제41권2호
    • /
    • pp.115-121
    • /
    • 2022
  • 본 논문에서는 음악 청취 시에 나타나는 뇌파 특징을 이용하여 사용자 감정에 따른 음악 분류 시스템을 제안한다. 제안된 시스템에서는 뇌파 신호로부터 추출한 감정별 뇌파 특징과 음악신호에서 추출한 청각적 특징 간의 관계를 회귀 심층신경망을 통해 학습한다. 실제 적용 시에는 이러한 회귀모델을 기반으로 제안된 시스템은 입력되는 음악의 청각 특성에 매핑된 뇌파 신호 특징을 자동으로 생성하고, 이 특징을 주의집중 기반의 심층신경망에 적용함으로써 음악을 자동으로 분류한다. 실험결과는 제안된 자동 음악분류 프레임 워크의 음악 분류 정확도를 제시한다.

음악 단서와 시각 단서 조건에 따른 학령기 자폐스펙트럼장애 아동과 일반아동의 정서 인식 비교 (Emotion Recognition in Children With Autism Spectrum Disorder: A Comparison of Musical and Visual Cues)

  • 윤예은
    • 인간행동과 음악연구
    • /
    • 제19권1호
    • /
    • pp.1-20
    • /
    • 2022
  • 본 연구의 목적은 국내 자폐스펙트럼장애 아동(Autism Spectrum Disorder, 이하 ASD)과 일반 아동(Typically developing, 이하 TD)의 음악 단서와 시각 단서 조건에 따른 4가지 기본정서(행복, 슬픔, 분노, 두려움) 인식 정확도를 평가하기 위해 실험연구가 실시되었다. 본 연구의 참여자는 ASD 진단 기준을 충족한 만 7세~13세 아동 9명과 일반 아동 14명으로, 모든 참가자를 대상으로 4가지 기본정서 인식 능력을 평가하는 음악 과제와 시각 과제를 실시하였다. ASD 아동과 TD 아동의 단서 조건, 즉 음악 단서와 시각 단서에 따른 정서를 인식하는 정확도와 정서 유형에 있어 차이가 있는지를 비교 분석한 결과, ASD 아동이 TD 아동에 비해 정서 인식 정확도가 유의하게 낮게 나타났다. 또한, 시각 단서보다 음악 단서에서 정서 인식 정확도가 높은 경향으로 나왔다. 마지막으로 정서 유형에 따른 차이는 ASD 아동과 TD 아동 두 그룹 모두 음악 단서에서 행복이 정서 인식 정확도가 높게 나타났고, 시각 단서에서 ASD 아동은 행복이 TD 아동은 분노가 가장 높게 나타났다. 이 결과를 바탕으로 ASD 아동은 음악 매체가 제공되었을 때 시각 매체보다 정서를 보다 잘 인식할 수 있음을 확인하였다. 본 연구는 국내에서 ASD 아동 대상 정서와 관련된 첫 시도라는 점에 의의가 있으며 본 연구의 결과를 바탕으로 관련한 후속 연구가 지속적으로 시행되기를 기대한다.