• 제목/요약/키워드: Music Segment Detection

검색결과 4건 처리시간 0.022초

상황인지 음악추천을 위한 음악 분위기 검출 (Detection of Music Mood for Context-aware Music Recommendation)

  • 이종인;여동규;김병만
    • 정보처리학회논문지B
    • /
    • 제17B권4호
    • /
    • pp.263-274
    • /
    • 2010
  • 상황인지 음악추천 서비스를 제공하기 위해서는 무엇보다 상황 또는 문맥에 따라 사용자가 선호하는 음악의 분위기를 파악할 필요가 있다. 음악 분위기 검출에 대한 기존 연구의 대부분은 수작업으로 대표구간을 선정하고, 그 구간의 특징을 이용하여 분위기를 판별한다. 이러한 접근 방법은 분류 성능이 좋은 반면 전문가의 간섭을 요구하기 때문에 새로운 음악에 대해서는 적용하기 어렵다. 더욱이, 곡의 진행에 따라 음악 분위기가 달라지기 때문에 음악의 대표 분위기를 검출하는 것이 더욱 어려워진다. 본 논문에서는 이러한 문제점들을 보완하기 위해 음악 분위기를 자동으로 판별하는 새로운 방법을 제안하였다. 먼저 곡 전체를 구조적 분석 방법을 통하여 비슷한 특성을 갖는 세그먼트들로 분리한 후 각각에 대해 분위기를 판별한다. 그리고 세그먼트별 분위기 파악 시 Thayer 의 2차원 분위기 모델에 기초한 회귀분석 방법으로 개인별 주관적 분위기 성향을 모델링하였다. 실험결과, 제안된 방법이 80% 이상의 정확도를 보였다.

LED조명 시스템을 이용한 음악 감성 시각화에 대한 연구 (Emotion-based music visualization using LED lighting control system)

  • 응웬반로이;김동림;임영환
    • 한국게임학회 논문지
    • /
    • 제17권3호
    • /
    • pp.45-52
    • /
    • 2017
  • 본 논문은 음악의 감성을 시각화하는 새로운 방법을 제안하는 논문으로 시각화를 위하여 감성 LED조명 제어 시스템을 고안하였으며 이 시스템은 청중들의 음악 경험을 더욱 풍요롭게 하기 위함에 목적이 있다. 이 시스템은 기존 연구의 음악 감성 분석 알고리즘을 이용하였는데 하나의 음악에서 하나의 감성을 추출하는 기존 연구의 한계를 보완하고자 음악의 1초당 세그먼트에서 감성을 추출 하여 감성 변화를 감지하는 방법을 연구하였다. 또한 LED조명의 감성 컬러는 IRI컬러 모델과 Thayer의 감성 모델을 기초로 새로운 감성 컬러 36가지를 정의 하여 각 감성에 맞는 색으로 연출 할 수 있도록 구성하고 애니메이션과 더불어 감성 LED 조명으로 표현 할 수 있도록 하였다. 이 시스템의 검증을 위한 실험 결과, 듣는이의 감성과 감성 LED 조명 시스템의 감성 일치율이 60% 이상으로 향후 음악 감성 기반 서비스의 중요한 밑거름이 될 것으로 보인다.

대표구간의 음악 특징에 기반한 음악 장르 분류 (Music Genre Classification based on Musical Features of Representative Segments)

  • 이종인;김병만
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권11호
    • /
    • pp.692-700
    • /
    • 2008
  • 일부 음악 장르 분류에 관한 기존 연구에서는 특징 추출을 위한 구간 선택 시 사람이 직접 곡의 주요 구간을 지정하는 방법을 사용하였다. 이러한 방법은 분류 성능이 좋은 반면 수작업으로 인한 부담으로 새롭게 등록되는 음악들에 대해 지속적으로 적용하기가 곤란하다. 수작업 없이 음악 특징을 추출하기 위해 최근 음악 장르 분류와 관련된 연구에서는 자동으로 추출구간을 선정하는 방법을 사용하고 있지만 이러한 연구의 대부분이 고정된 구간 (예, 30초 이후의 30초 구간)에서 특징을 추출하는 관계로 분류의 정확도가 떨어지는 문제점을 갖고 있다. 본 논문에서는 이러한 문제점을 해결하기 위해 곡 전체 구간에 대하여 반복구간들을 파악하고 이들의 위치와 에너지를 고려하여 곡을 대표할 수 있는 단일 대표구간을 선정한 후, 대표구간으로 부터 특징을 추출하여 장르 분류시스템에 적용하는 방법을 제안하였다. 실험 결과, 기존 고정구간을 사용한 방법에 비해 괄목할 만한 성능 향상을 얻을 수 있었다.

오디오 정보를 이용한 골프 동영상 자동 색인 알고리즘 (Automatic Indexing Algorithm of Golf Video Using Audio Information)

  • 김형국
    • 한국음향학회지
    • /
    • 제28권5호
    • /
    • pp.441-446
    • /
    • 2009
  • 본 논문에서는 오디오 정보 분석을 이용하여 골프 통영상을 자동 색인하는 알고리즘을 제안한다. 제안하는 알고리즘에서는 입력되는 골프 동영상을 비디오 신호와 오디오 신호로 분리한 후에, 연속적인 오디오 스트림을 Adaboost Cascade 분류방식을 통하여 스튜디오 환경에서의 아나운서의 음성구간, 선수이름이 TV 화면에 소개 될 때 수반되는 음악구간, 선수들의 플레이에 따라 반응하는 관중들의 박수 및 환호성 소리구간, 필드에서의 레포터의 음성구간, 바다나 바람 등의 필드환경 잡음 사운드구간 등의 5가지 구간으로 분류한다. 그리고 드라이브 샷, 아이런 샷과 퍼팅 샷 시에 발생하는 스윙 사운드는 onset 검출과 변조스펙트럼 검증 방법을 통해 검출되며, 관객의 박수 소리 구간과 결합하여 액션 및 하이라이트를 효율적으로 색인할 수 있게 한다. 제안된 알고리즘은 오디오 신호의 간단한 연산을 통해 의미를 지니고 있는 기본구조들을 검출하기 때문에 골프 동영상에서 사용자가 원하는 부분을 빠르게 브라우징하는 임베이디드 시스템에 적용가능하다.