• 제목/요약/키워드: Musical Information REtrieval

검색결과 22건 처리시간 0.023초

SYMMER: A Systematic Approach to Multiple Musical Emotion Recognition

  • Lee, Jae-Sung;Jo, Jin-Hyuk;Lee, Jae-Joon;Kim, Dae-Won
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제11권2호
    • /
    • pp.124-128
    • /
    • 2011
  • Music emotion recognition is currently one of the most attractive research areas in music information retrieval. In order to use emotion as clues when searching for a particular music, several music based emotion recognizing systems are fundamentally utilized. In order to maximize user satisfaction, the recognition accuracy is very important. In this paper, we develop a new music emotion recognition system, which employs a multilabel feature selector and multilabel classifier. The performance of the proposed system is demonstrated using novel musical emotion data.

음렬 탐색을 위한 주제소절 자동분류에 관한 연구 (A Study on the Musical Theme Clustering for Searching Note Sequences)

  • 심지영;김태수
    • 정보관리학회지
    • /
    • 제19권3호
    • /
    • pp.5-30
    • /
    • 2002
  • 본 연구는 음악의 내용에 해당하는 음렬 패턴을 대상으로 분류자질을 선정하고 이를 기준으로 음렬간 유사도를 측정한 후 음렬간 군집을 형성하였다. 이는 내용기반음악검색 시스템에서 유사한 음렬을 검색 결과로 제시함으로써 이용자 탐색을 용이하게 하기 위함이다. 실험문헌집단으로는 $\ulcorner$A Dictionary of Musical Themes$\lrcorner$에 수록된 주제소절의 kern 형식 파일을 사용하였으며, 음렬 처리도구로는 Humdrum Toolkit version 1.0을 사용하였다. 음렬의 분절 여부와 시작 위치에 따른 네 가지 형태의 유사도 행렬을 대상으로 계층적 클러스터링 기법을 사용하여 유사한 음렬간 군집을 형성하였다. 이들 결과에 대한 평가는 외적 기준이 되는 수작업 분류표가 있는 경우 WACS 척도를 사용하였고, 음렬 내 임의의 위치에서부터 시작한 음렬을 대상으로 한 경우, 클러스터링 결과로부터 얻어낸 군집 내 공통 자질 패턴 분포를 통해 내적 기준을 마련하여 평가하였다. 평가 결과에 의하면 음렬의 시작 위치와 무관하게 분절한 자질을 사용하여 클러스터링한 결과가 그렇지 않은 것에 비해 뚜렷한 차이를 보이며 높게 나타났다.

내용기반 음악정보 검색시스템을 위한 이용자 중심의 질의 인터페이스 설계에 관한 연구 (A User Study on Information Searching Behaviors for Designing User-centered Query Interface of Content-Based Music Information Retrieval System)

  • 이윤주;문성빈
    • 정보관리학회지
    • /
    • 제23권2호
    • /
    • pp.5-19
    • /
    • 2006
  • 본 연구에서는 기존의 시스템 중심의 방식에서 벗어나 각 이용자 집단에게 효율적이고 만족스러운 내용기반 음악 정보검색(Music Information Retrieval : MIR)의 질의인터페이스를 설계하고자 각 집단의 음악정보탐색행위를 연구하였다. 연구대상 집단은 음악분야의 전문 지식 여부에 따라 2개의 전공자 집단(작곡전공, 성악/기악전공)과 2개의 비전문가 집단(아마추어 비전문가, 순수 비전문가)으로 구분하여 모집하였다. 모집방법은 연구대상자 선정과정을 포함한 누증표집(snowball sampling) 기법과 이론적 샘플링(theoretical sampling) 기법을 이용하였고 최종적으로 전공자 집단 7명, 비전문가 집단 7명 모두 14명이 실험에 참가하였다. 탐색실험, think-aloud, 참여관찰, 탐색후 질문지법과 심층 인터뷰를 통해 얻은 자료를 분석 및 통합하여 결과를 도출하였다. 작곡 전공의 전문가 집단은 정확한 음렬로 질의를 입력할 수 있는 인터페이스(건반, 텍스트, 악보 입력)를 선호하였고, 비작곡 전공의 전문가 집단과 비전문가 집단은 허밍 질의 인터페이스를 선호하였다. 각 질의 방법의 입력오류를 최소화시키기 위한 연구가 더 필요하다.

A Method for Measuring the Difficulty of Music Scores

  • Song, Yang-Eui;Lee, Yong Kyu
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권4호
    • /
    • pp.39-46
    • /
    • 2016
  • While the difficulty of the music can be classified by a variety of standard, conventional methods are classified by the subjective judgment based on the experience of many musicians or conductors. Music score is difficult to evaluate as there is no quantitative criterion to determine the degree of difficulty. In this paper, we propose a new classification method for determining the degree of difficulty of the music. In order to determine the degree of difficulty, we convert the score, which is expressed as a traditional music score, into electronic music sheet. Moreover, we calculate information about the elements needed to play sheet music by distance of notes, tempo, and quantifying the ease of interpretation. Calculating a degree of difficulty of the entire music via the numerical data, we suggest the difficulty evaluation of the score, and show the difficulty of music through experiments.

음악 무드와 감정의 퍼지 추론을 기반한 음악 검색 기법 (A Music Retrieval Scheme based on Fuzzy Inference on Musical Mood and Emotion)

  • 전상훈;노승민;황인준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2008년도 춘계학술발표대회
    • /
    • pp.51-53
    • /
    • 2008
  • 최근 오디오 압축 기술의 발전에 힘입은 디지털 음원과 웹 스트리밍의 보급으로, 사용자가 음악 정보에 손쉽게 접할 수 있게 되었다. 이에 따라 음악을 보다 쉽고 효율적인 방법으로 검색하는 방법뿐 아니라 사용자의 환경에 따라 적절한 음악을 검색할 수 있는 기능의 필요성이 증가하게 되었다. 본 논문에서는 음악의 특징에 따라 분류된 데이터베이스를 사용하고, 사용자의 감정을 분석하여 적절한 음악을 검색하는 시스템을 제안한다. 본 시스템은 사용자의 감정 입력을 효율적으로 처리하기 위한 방법으로 Thayer의 2D emotional space를 적용하여 Valence-Arousal model의 두 가지의 입력을 처리한다. 가장 적합한 음악의 정보를 얻기 위해 사용된 Fuzzy Inference System의 IF-THEN 규칙을 정의하기 위하여 언어적으로 정의된 기존의 음악 감정 연구 결과를 적용하였고, 도출된 결과와 가장 유사도가 깊은 음악을 우선적으로 검색하도록 설계하였다. 이와 같이 구현된 시스템의 타당성을 검증하기 위해 사용자 설문조사를 수행하였다.

대화형 유전자 알고리즘을 이용한 감성적 음악검색 (Emotional Musical Expression Retrieval Using Interactive Genetic Algorithm)

  • 이준승;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2002년도 가을 학술발표논문집 Vol.29 No.2 (2)
    • /
    • pp.175-177
    • /
    • 2002
  • 본 논문에서는 대화형 유전자 알고리즘을 이용한 음악검색 시스템을 개발한다. 기존의 음악검색 시스템은 찾고자 하는 음악에 대한 정보를 필요로 하기 때문에 사용자가 시스템이 요구하는 정보를 가지고 있지 않는 경우 검색이 힘들다. 하지만 대화형 유전자 알고리즘을 통한 질의어 생성방식을 이용하면 사용자의 주관적 감정에 의한 음악검색을 할 수 있다. 먼저 사용자가 초기 유전자형에 의해 선택된 음악을 듣고 주관적인 평가를 내리면 이 평가값으로 유전자 알고리즘을 이용하여 질의어를 생성, 가장 가까운 음악을 검색하여 들려준다. 사용자는 이러한 과정을 반복하여 자신의 주관적 평가에 따라 진화되는 유전자형에 의해 원하는 음악을 점진적으로 검색한다. 이를 통해 사용자는 전문적인 음악적 지식이나 찾고자 하는 음악에 대한 특별한 정보없이 개인의 주관에 의한 검색을 할 수 있을 것이다.

  • PDF

음악 무드의 변화 기반 유사 음악 검색 기법 (A Music Retrieval Scheme based on Variation of Musical Mood)

  • 전상훈;한병준;황인준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2008년도 추계학술발표대회
    • /
    • pp.760-762
    • /
    • 2008
  • 음악에서는 다양한 감정의 표현을 시간에 따른 음악 무드의 전이로 표현한다. 본 연구에서는 Longest Common Subsequence (LCS) 알고리즘 및 k-Means 알고리즘에 기반한 유사 음악 검색 기법을 제안한다. 우선, 음악 무드의 흐름을 무드 세그먼트 단위로 나누고, 이를 추출된 다양한 음악 특성을 k-Means 알고리즘으로 분류하여 무드 시퀀스로 변환한다. 또한, 유사한 무드의 흐름을 가지는 음악을 검색하기 위해 LCS 알고리즘에 기반한 무드 시퀀스의 유사도를 정의한다. 본 논문은 제안된 내용을 바탕으로 실험과 설문 조사를 통해, 기존의 전역적 특성 검색 방식보다 시퀀스를 이용한 검색방식이 좀 더 효율적임을 증명하였다.

Improvement of Vocal Detection Accuracy Using Convolutional Neural Networks

  • You, Shingchern D.;Liu, Chien-Hung;Lin, Jia-Wei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권2호
    • /
    • pp.729-748
    • /
    • 2021
  • Vocal detection is one of the fundamental steps in musical information retrieval. Typically, the detection process consists of feature extraction and classification steps. Recently, neural networks are shown to outperform traditional classifiers. In this paper, we report our study on how to improve detection accuracy further by carefully choosing the parameters of the deep network model. Through experiments, we conclude that a feature-classifier model is still better than an end-to-end model. The recommended model uses a spectrogram as the input plane and the classifier is an 18-layer convolutional neural network (CNN). With this arrangement, when compared with existing literature, the proposed model improves the accuracy from 91.8% to 94.1% in Jamendo dataset. As the dataset has an accuracy of more than 90%, the improvement of 2.3% is difficult and valuable. If even higher accuracy is required, the ensemble learning may be used. The recommend setting is a majority vote with seven proposed models. Doing so, the accuracy increases by about 1.1% in Jamendo dataset.

음악 추천을 위한 감정 전이 모델 기반의 음악 분류 기법 (Emotion Transition Model based Music Classification Scheme for Music Recommendation)

  • 한병준;황인준
    • 전기전자학회논문지
    • /
    • 제13권2호
    • /
    • pp.159-166
    • /
    • 2009
  • 최근까지 장르나 무드 등의 정적 분류 기술자를 이용한 음악 정보 검색에 관한 다양한 연구가 진행되어 왔다. 정적 분류 기술자는 주로 음악의 다양한 내용적 특징에 기반하기 때문에 그러한 특징에 유사한 음악을 검색하는 데 효과적이다. 하지만 음악을 들었을 때 느끼게 되는 감정 내지 기분 전이를 이용하면 정적 분류 기술자보다 더 효과적이고 정교한 검색이 가능하다. 사람이 음악을 들었을 때 발생하는 감정 전이의 효과에 관한 연구는 현재까지 미비한 실정이다. 감정 전이의 효과를 체계적으로 표현할 수 있다면 기존의 음악 분류에 의한 검색에 비해 음악 추천 등의 새로운 응용에서 더 효과적인 개인화 서비스를 제공할 수 있다. 본 논문에서는 음악에 의한 인간 감정 전이를 표현하기 위한 감정 상태 전이 모델을 제안하고 이를 기반으로 새로운 음악 분류 및 추천 기법을 제안한다. 제안하는 모델의 개발을 위하여 다양한 내용 기반의 특징을 추출하였으며, 고차원 특징 벡터의 차원 감쇄를 위하여 NMF (Non-negative Matrix Factorization)를 사용하였다. 성능 분석을 위한 실험에서 SVM (Support Vector Machine)을 분류기로 사용한 실험에서 평균 67.54%, 최대 87.78%의 분류 정확도를 달성하였다.

  • PDF

LED조명 시스템을 이용한 음악 감성 시각화에 대한 연구 (Emotion-based music visualization using LED lighting control system)

  • 응웬반로이;김동림;임영환
    • 한국게임학회 논문지
    • /
    • 제17권3호
    • /
    • pp.45-52
    • /
    • 2017
  • 본 논문은 음악의 감성을 시각화하는 새로운 방법을 제안하는 논문으로 시각화를 위하여 감성 LED조명 제어 시스템을 고안하였으며 이 시스템은 청중들의 음악 경험을 더욱 풍요롭게 하기 위함에 목적이 있다. 이 시스템은 기존 연구의 음악 감성 분석 알고리즘을 이용하였는데 하나의 음악에서 하나의 감성을 추출하는 기존 연구의 한계를 보완하고자 음악의 1초당 세그먼트에서 감성을 추출 하여 감성 변화를 감지하는 방법을 연구하였다. 또한 LED조명의 감성 컬러는 IRI컬러 모델과 Thayer의 감성 모델을 기초로 새로운 감성 컬러 36가지를 정의 하여 각 감성에 맞는 색으로 연출 할 수 있도록 구성하고 애니메이션과 더불어 감성 LED 조명으로 표현 할 수 있도록 하였다. 이 시스템의 검증을 위한 실험 결과, 듣는이의 감성과 감성 LED 조명 시스템의 감성 일치율이 60% 이상으로 향후 음악 감성 기반 서비스의 중요한 밑거름이 될 것으로 보인다.