• 제목/요약/키워드: 감정 기반 음악분류

검색결과 26건 처리시간 0.036초

음악신호와 뇌파 특징의 회귀 모델 기반 감정 인식을 통한 음악 분류 시스템 (Music classification system through emotion recognition based on regression model of music signal and electroencephalogram features)

  • 이주환;김진영;정동기;김형국
    • 한국음향학회지
    • /
    • 제41권2호
    • /
    • pp.115-121
    • /
    • 2022
  • 본 논문에서는 음악 청취 시에 나타나는 뇌파 특징을 이용하여 사용자 감정에 따른 음악 분류 시스템을 제안한다. 제안된 시스템에서는 뇌파 신호로부터 추출한 감정별 뇌파 특징과 음악신호에서 추출한 청각적 특징 간의 관계를 회귀 심층신경망을 통해 학습한다. 실제 적용 시에는 이러한 회귀모델을 기반으로 제안된 시스템은 입력되는 음악의 청각 특성에 매핑된 뇌파 신호 특징을 자동으로 생성하고, 이 특징을 주의집중 기반의 심층신경망에 적용함으로써 음악을 자동으로 분류한다. 실험결과는 제안된 자동 음악분류 프레임 워크의 음악 분류 정확도를 제시한다.

음악 추천을 위한 감정 전이 모델 기반의 음악 분류 기법 (Emotion Transition Model based Music Classification Scheme for Music Recommendation)

  • 한병준;황인준
    • 전기전자학회논문지
    • /
    • 제13권2호
    • /
    • pp.159-166
    • /
    • 2009
  • 최근까지 장르나 무드 등의 정적 분류 기술자를 이용한 음악 정보 검색에 관한 다양한 연구가 진행되어 왔다. 정적 분류 기술자는 주로 음악의 다양한 내용적 특징에 기반하기 때문에 그러한 특징에 유사한 음악을 검색하는 데 효과적이다. 하지만 음악을 들었을 때 느끼게 되는 감정 내지 기분 전이를 이용하면 정적 분류 기술자보다 더 효과적이고 정교한 검색이 가능하다. 사람이 음악을 들었을 때 발생하는 감정 전이의 효과에 관한 연구는 현재까지 미비한 실정이다. 감정 전이의 효과를 체계적으로 표현할 수 있다면 기존의 음악 분류에 의한 검색에 비해 음악 추천 등의 새로운 응용에서 더 효과적인 개인화 서비스를 제공할 수 있다. 본 논문에서는 음악에 의한 인간 감정 전이를 표현하기 위한 감정 상태 전이 모델을 제안하고 이를 기반으로 새로운 음악 분류 및 추천 기법을 제안한다. 제안하는 모델의 개발을 위하여 다양한 내용 기반의 특징을 추출하였으며, 고차원 특징 벡터의 차원 감쇄를 위하여 NMF (Non-negative Matrix Factorization)를 사용하였다. 성능 분석을 위한 실험에서 SVM (Support Vector Machine)을 분류기로 사용한 실험에서 평균 67.54%, 최대 87.78%의 분류 정확도를 달성하였다.

  • PDF

음원자극에 따른 개인 성향 기반 심전도의 반응 연구 (A Study of Personal Inclimation Based Electrocardigram Reactions Using Sound Stimulation)

  • 장계선;박선희;고일주
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2008년도 제38차 하계학술발표논문집 16권1호
    • /
    • pp.343-350
    • /
    • 2008
  • 사람들은 다양한 매체를 통하여 음악을 청취하고 있으며, 느낌별, 장르별, 연령별, 날씨별, 시간별, 장소별, 상황별, 직업별, 악기별, 템포별 등으로 다양한 분류 방법으로 음악을 제공받고 있다. 이는 음악을 분류하는 방법들이 음악 자체에 대한 분석이나 음악을 듣는 환경에 대한 분류로만 제공되고 있기 때문이다. 같은 상황, 환경이라도 개인에 따라서 같은 음악을 듣더라도 다른 감정의 상태를 나타내기 때문에, 개인을 고려한 분류 방법이 요구된다. 본 논문에서는 인간의 성격을 통해 감정의 표현 방식에 차이가 있다는 면을 초점으로 접근하였다. 감정이 미치는 심전도에 미치는 영향과 음악이 신체와 감정에 미치는 영향들을 통해 심전도를 이용하여 개인의 성향에 따른 음원자극에 대한 반응 차이를 통해 개인의 성향이 반영된 분류 방법을 제시하고자 했다.

  • PDF

데이터마이닝 기법을 이용한 감정 기반 음악 분류 (Music Classification Based On Emotion Utilizing Data Mining)

  • 조우연;손태식
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 춘계학술발표대회
    • /
    • pp.941-944
    • /
    • 2015
  • 저장 장치의 급속한 발전으로 인해 기존에 서비스할 수 없었던 개인 사용자를 위한 클라우드 서비스가 활성화되고 있다. 이 중 음악을 대상으로 하는 스트리밍 및 공유 서비스는 다양한 음악의 종류를 수용하기 위해 체계적인 분류를 필요로 한다. 기존의 분류체계는 단순히 작곡가나 업로더의 의견에 의해서 일방적으로 정해지기 때문에 사용자가 중심이 되는 클라우드 서비스에는 어울리지 않는다. 따라서 본 논문은 이와 같은 문제점을 해결하기 위해 사랑의 감정을 기준으로 새로운 분류체계를 제안한다. 자동적인 분류를 위해 데이터마이닝 기법을 접목시켰으며, 원활한 마이닝을 위해 오디오 음악 파일(raw data)을 정해진 크기로 자르고 feature extraction을 통해 오디오 음악 파일에 대한 전처리를 수행하였다. 이후 feature selection을 수행하기 위해 clustering을 이용해 유효한 중요도를 지나는 feature를 선별하였으며 선별된 feature를 토대로 SVN(Support Vector Machine)을 이용해 feature의 중요도에 대한 유효성을 검증함과 동시에 분류를 수행하여 감정을 기반으로 분류한 결과를 보였다.

딥러닝 감정 인식 기반 배경음악 매칭 설계 (Design for Mood-Matched Music Based on Deep Learning Emotion Recognition)

  • 정문식;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.834-836
    • /
    • 2021
  • 멀티모달 감정인식을 통해 사람의 감정을 정확하게 분류하고, 사람의 감정에 어울리는 음악을 매칭하는 시스템을 설계한다. 멀티모달 감정 인식 방법으로는 IEMOCAP(Interactive Emotional Dyadic Motion Capture) 데이터셋을 활용해 감정을 분류하고, 분류된 감정의 분위기에 맞는 음악을 매칭시키는 시스템을 구축하고자 한다. 유니모달 대비 멀티모달 감정인식의 정확도를 개선한 시스템을 통해 텍스트, 음성, 표정을 포함하고 있는 동영상의 감성 분위기에 적합한 음악 매칭 시스템을 연구한다.

얼굴표정을 통한 감정 분류 및 음악재생 프로그램 (Music player using emotion classification of facial expressions)

  • 윤경섭;이상원
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제59차 동계학술대회논문집 27권1호
    • /
    • pp.243-246
    • /
    • 2019
  • 본 논문에서는 감성과 힐링, 머신러닝이라는 주제를 바탕으로 딥러닝을 통한 사용자의 얼굴표정을 인식하고 그 얼굴표정을 기반으로 음악을 재생해주는 얼굴표정 기반의 음악재생 프로그램을 제안한다. 얼굴표정 기반 음악재생 프로그램은 딥러닝 기반의 음악 프로그램으로써, 이미지 인식 분야에서 뛰어난 성능을 보여주고 있는 CNN 모델을 기반으로 얼굴의 표정을 인식할 수 있도록 데이터 학습을 진행하였고, 학습된 모델을 이용하여 웹캠으로부터 사용자의 얼굴표정을 인식하는 것을 통해 사용자의 감정을 추측해낸다. 그 후, 해당 감정에 맞게 감정을 더 증폭시켜줄 수 있도록, 감정과 매칭되는 노래를 재생해주고, 이를 통해, 사용자의 감정이 힐링 및 완화될 수 있도록 도움을 준다.

  • PDF

감정 인식을 통한 음악 검색 성능 분석 (A Study on the Performance of Music Retrieval Based on the Emotion Recognition)

  • 서진수
    • 한국음향학회지
    • /
    • 제34권3호
    • /
    • pp.247-255
    • /
    • 2015
  • 본 논문은 자동으로 분류된 음악 신호의 감정을 기반으로 하는 음악 검색 의 성능을 분석하였다. 음성, 영상 등의 다른 미디어 신호와 마찬가지로 음악은 인간에게 특정한 감정을 불러일으킬 수 있다. 이러한 감정은 사람들이 음악을 검색할 때 중요한 고려요소가 될 수 있다. 그렇지만 아직까지 음악의 감정을 직접 인식하여 음악 검색을 수행하고 성능을 검증한 경우는 거의 없었다. 본 논문에서는 음악 감정을 표현하는 주요한 세 축인 유발성, 활성, 긴장 과 기본 5대 감정인 행복, 슬픔, 위안, 분노, 불안의 정도를 구하고, 그 값들의 유사도를 기반으로 음악 검색을 수행하였다. 장르와 가수 데이터셋에서 실험을 수행하였다. 제안된 감정 기반 음악 검색 성능은 기존의 특징 기반 방법의 성능에 대비해서 최대 75 % 수준의 검색 정확도를 보였다. 또한 특징 기반 방법을 제안된 감정 기반 방법과 병합할 경우 최대 14 % 검색 성능 향상을 이룰 수 있었다.

멀티 모달 음악 무드 분류 기법 (Multi-Modal Scheme for Music Mood Classification)

  • 최홍구;전상훈;황인준
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(A)
    • /
    • pp.259-262
    • /
    • 2011
  • 최근 들어 소리의 세기나 하모니, 템포, 리듬 등의 다양한 음악 신호 특성을 기반으로 한 음악 무드 분류에 대한 연구가 활발하게 진행되고 있다. 본 논문에서는 음악 무드 분류의 정확도를 높이기 위하여 음악 신호 특성과 더불어 노래 가사와 소셜 네트워크 상에서의 사용자 평가 등을 함께 고려하는 멀티 모달 음악 무드 분류 기법을 제안한다. 이를 위해, 우선 음악 신호 특성에 대해 퍼지 추론 기반의 음악 무드 추출 기법을 적용하여 다수의 가능한 음악 무드를 추출한다. 다음으로 음악 가사에 대해 TF-IDF 기법을 적용하여 대표 감정 키워드를 추출하고 학습시킨 가사 무드 분류기를 사용하여 가사 음악 무드를 추출한다. 마지막으로 소셜 네트워크 상에서의 사용자 태그 등 사용자 피드백을 통한 음악 무드를 추출한다. 특정 음악에 대해 이러한 다양한 경로를 통한 음악 무드를 교차 분석하여 최종적으로 음악 무드를 결정한다. 음악 분류를 기반한 자동 음악 추천을 수행하는 사용자 만족도 평가 실험을 통해서 제안하는 기법의 효율성을 검증한다.

음악 구성요소의 감정 구조 분석에 기반 한 시각화 연구 (Sound Visualization based on Emotional Analysis of Musical Parameters)

  • 김혜란;송은성
    • 한국콘텐츠학회논문지
    • /
    • 제21권6호
    • /
    • pp.104-112
    • /
    • 2021
  • 본 연구에서는 음악의 속성인 구성 요소 데이터들과 심리학의 감정 차원 모델을 기반으로 감정분석을 하였고 그 결과를 조형예술에서의 시각화 규칙에 적용하였다. 음악 속성 데이터를 활용한 기존의 연구들에서는 사람들이 원하는 음악을 분류, 검색, 추천할 수 있도록 하는 보다 실용적인 목적을 가진 사례들이 많았다. 본 연구에서는 특히 음원 분석에 따른 음악의 감정분석을 기반으로 사운드 데이터가 예술작품 창작의 재료가 되어 심미적 표현에 활용될 수 있도록 하는 것에 집중하였다. 음악의 시각화 연구를 위해서는 예술이 가지는 중요한 속성인 감정표현을 가능하게 하는 방법이 필요하였고 이를 위해 잘 구조화된 음악의 기본 속성 분류 및 감정 정보의 분류 체계를 마련하였다. 그리고 조형요소의 형태, 색상, 애니메이션을 통해 음악 요소들에 대해 감정을 기반으로 세분화 된 입력 매개 변수들을 반영하여 시각화하는 작업을 수행하였다. 본 연구는 음악 시각화를 활용하는 작가들에게 기초 자료로 활용될 수 있을 것이다. 또한 감정분석에 기반 한 음악 구성요소와 시각화 매칭을 위한 분석 방법 및 작품 결과는 향후 인공지능 기반의 자동화 된 시각화 연구의 기반이 될 수 있을 것이다.

소셜네트워크 기반 음악 추천시스템 (Social Network Based Music Recommendation System)

  • 박태수;정옥란
    • 인터넷정보학회논문지
    • /
    • 제16권6호
    • /
    • pp.133-141
    • /
    • 2015
  • 소셜 네트워크를 비롯해 다양한 소셜 미디어 서비스들에서 대량의 멀티미디어 콘텐츠들이 공유되고 있다. 소셜 네트워크에는 사용자의 현재 상황과 관심사가 드러나기 때문에 이러한 특징들을 추천시스템에 적용한다면 만족도가 높은 개인화된 추천이 가능할 것이다. 또한 음악을 감정에 따라 분류하고 사용자의 소셜 네트워크를 분석해 사용자가 최근 느끼고 있는 감정이나 현재 상황에 대해 분석한 정보를 이용한다면 사용자의 음악을 추천할 때에 유용할 것이다. 본 논문에서는 음악을 분류하기 위한 감정 모델을 만들고, 감정모델에 따라 음악을 분류하여 소셜 네트워크에 나타나는 사용자의 현재 감정 상태를 추출하여 음악추천을 하는 방법을 제안하고 실험을 통해 제안한 방법의 유효성을 검증한다.