• 제목/요약/키워드: computer music

검색결과 507건 처리시간 0.024초

A Novel Speech/Music Discrimination Using Feature Dimensionality Reduction

  • Keum, Ji-Soo;Lee, Hyon-Soo;Hagiwara, Masafumi
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제10권1호
    • /
    • pp.7-11
    • /
    • 2010
  • In this paper, we propose an improved speech/music discrimination method based on a feature combination and dimensionality reduction approach. To improve discrimination ability, we use a feature based on spectral duration analysis and employ the hierarchical dimensionality reduction (HDR) method to reduce the effect of correlated features. Through various kinds of experiments on speech and music, it is shown that the proposed method showed high discrimination results when compared with conventional methods.

프리뷰 분석에 기반한 악보 기울기 보정을 통한 효과적인 오선 인식 기법의 설계 및 구현 (Design and Implementation of the Effective Staff-Line Recognition Using Tilt-Correction Through Preview Analysis)

  • 김성룡;김태희;김미선;이보람;김근정;이상준
    • 전기전자학회논문지
    • /
    • 제18권3호
    • /
    • pp.362-367
    • /
    • 2014
  • 현대인의 필수품 중에 하나인 스마트폰을 이용한 악보 인식 어플리케이션은 이미 시중에도 출시가 되어 있다. 이러한 어플리케이션들은 몇 가지 아쉬운 점이 존재하며, 특히 인쇄된 악보의 인식률이 낮아서 이를 연주하는 부분에서 많은 오류가 발생하게 된다. 인쇄된 악보의 인식률을 저하시키는 중요한 원인 중의 하나는 찍은 사진에서 인식한 오선이 수평이 되지 못하고 기울어져 있기 때문에 발생한다. 본 논문에서는 프리뷰 이미지를 분석하여 기울기를 보정하여 인쇄된 악보를 촬영하는 방식을 제안한다. 제안된 기법은 수동으로 조작하여 촬영한 악보를 인식할 때보다 인쇄된 악보의 인식률을 높이는 데 기여한다.

UniTag 온톨로지를 이용한 태그 기반 음악 추천 기법 (A Tag-based Music Recommendation Using UniTag Ontology)

  • 김현희
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권11호
    • /
    • pp.133-140
    • /
    • 2012
  • 본 논문에서는 소셜 음악 사이트에서 사용자들이 생성한 태그를 바탕으로 음악을 추천하는 기법을 제안한다. 협력적 태깅 시스템은 사용자가 직접 선정한 단어를 콘텐츠에 부여할 수 있도록 하므로, 사용자의 선호도를 구체적으로 파악할 수 있는 정보를 제공한다. 특히, 감정을 표현하는 감정 태그들은 음악 장르나 음악가와 같이 사실을 나타내는 사실 태그들과는 다르게 선호도를 훨씬 직접 표현하고 있다. 따라서 태그의 의미를 파악하여 감정 태그와 사실 태그로 분류하고, 감정 태그는 감정표현의 정도에 따라 가중치를 부여하기 위해서 UniTag라고 하는 태그 온톨로지를 개발하였다. UniTag 온톨로지를 이용하여 정제된 태그 집합은 사용자 프로파일 생성에 사용되며, 태그 기반 사용자 프로파일을 바탕으로 음악 추천 알고리즘을 수행하였다. 제안하는 추천 방법의 효율성을 평가하기 위해서, 전통적인 청취 횟수 기반 추천, 감정 태그 가중치를 고려하지 않은 추천, 그리고 감정 태그 가중치를 고려한 추천의 세 가지 추천 방법의 정확도와 재현율을 비교하였다. 실험 결과는, 감정 태그 가중치를 고려한 추천 방식이 정확도의 측면에서 다른 두 가지 방식보다 효율적이라는 것을 보여준다.

m-CRM을 위한 음악추천시스템: 웹 마이닝과 서열척도를 이용한 협업 필터링 (A Music Recommender System for m-CRM: Collaborative Filtering using Web Mining and Ordinal Scale)

  • 이석기
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권1호
    • /
    • pp.45-54
    • /
    • 2008
  • 모바일 웹 (Web)과 관련한 기술이 점점 발달함에 따라 모바일 전자상거래 시장, 그 중에서도 벨소리나 컬러링과 같은 음악 다운로드 시장의 크기는 괄목할 만한 성장을 거듭하고 있다. 하지만, 이러한 급성장에도 불구하고 소비자들은 여전히 자신이 원하는 음악을 찾는 과정에서 많은 불편함을 겪고 있다. 이는 소비자들의 음악에 대한 재구매율을 저하시키게 되고, 모바일 음악을 제공하는 서비스 업체 입장에서도 수익 정체의 원인으로 작용할 수 있다. 따라서 고객관계 관리 측면에서 모바일 고객의 불편을 최소화함으로써 결국 수익을 더욱 많이 창출하기 위한 새로운 방법이 절실한 상황이다. 이에 본 연구는 모바일 웹 환경 하에서 소비자들이 편리하게 자신이 원하는 음악을 검색할 수 있도록 하기 위하여, 모바일 웹 마이닝과 서열척도를 활용하는 협업 필터링 기반의 새로운 음악 추천 시스템을 제안한다. 또한 실험을 통해 우리가 제안하는 새로운 추천 시스템이 기존의 추천 시스템들에 비하여 우수한 성능을 나타냄을 입증하고자 한다.

  • PDF

연관규칙을 이용한 상황인식 음악 추천 시스템 (A Music Recommendation System based on Context-awareness using Association Rules)

  • 오재택;이상용
    • 디지털융복합연구
    • /
    • 제17권9호
    • /
    • pp.375-381
    • /
    • 2019
  • 최근 추천 시스템은 패션, 동영상, 음악 등을 중심으로 맞춤형 추천 서비스가 제공되어 사용자들의 관심을 모으고 있다. 그러나 이러한 서비스들은 실시간으로 발생하는 상황 정보를 사용하지 않아 여러 상황에 따른 적합한 서비스를 사용자에게 제공하기가 어렵다. 또한 적용되는 상황 정보가 차원을 확장시킬 경우, 데이터 희소성(Data Sparsity)을 증가시켜 사용자들에게 적합한 음악들을 추천할 수 없는 문제가 발생한다. 본 연구에서는 이러한 문제점을 해소시키기 위해 연관규칙(Association Rules)을 적용하여 사용자의 현재 위치 정보와 시간 정보에 대한 관계성 및 규칙들을 이용하여 실시간 상황에서 적합한 음악을 추천하는 시스템을 제안하였다. 수집된 상황 정보를 바탕으로 5-fold Cross Validation을 진행하여 위치와 시간 정보에 따른 추천 시스템의 정확도를 측정하였다. 그 결과 상황 정보가 누적됨에 따라 추천 시스템의 정확도가 향상되는 것을 확인할 수 있었다.

A Study on "A Midsummer Night's Palace" Using VR Sound Engineering Technology

  • Seok, MooHyun;Kim, HyungGi
    • International Journal of Contents
    • /
    • 제16권4호
    • /
    • pp.68-77
    • /
    • 2020
  • VR (Virtual Reality) contents make the audience perceive virtual space as real through the virtual Z axis which creates a space that could not be created in 2D due to the space between the eyes of the audience. This visual change has led to the need for technological changes to sound and sound sources inserted into VR contents. However, studies to increase immersion in VR contents are still more focused on scientific and visual fields. This is because composing and producing VR sounds require professional views in two areas: sound-based engineering and computer-based interactive sound engineering. Sound-based engineering is difficult to reflect changes in user interaction or time and space by directing the sound effects, script sound, and background music according to the storyboard organized by the director. However, it has the advantage of producing the sound effects, script sound, and background music in one track and not having to go through the coding phase. Computer-based interactive sound engineering, on the other hand, is produced in different files, including the sound effects, script sound, and background music. It can increase immersion by reflecting user interaction or time and space, but it can also suffer from noise cancelling and sound collisions. Therefore in this study, the following methods were devised and utilized to produce sound for VR contents called "A Midsummer Night" so as to take advantage of each sound-making technology. First, the storyboard is analyzed according to the user's interaction. It is to analyze sound effects, script sound, and background music which is required according to user interaction. Second, the sounds are classified and analyzed as 'simultaneous sound' and 'individual sound'. Thirdly, work on interaction coding for sound effects, script sound, and background music that were produced from the simultaneous sound and individual time sound categories is done. Then, the contents are completed by applying the sound to the video. By going through the process, sound quality inhibitors such as noise cancelling can be removed while allowing sound production that fits to user interaction and time and space.

가우시안의 차를 이용하여 검색속도를 향상한 최소 오디오 핑거프린팅 (Search speed improved minimum audio fingerprinting using the difference of Gaussian)

  • 권진만;고일주;장대식
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권12호
    • /
    • pp.75-87
    • /
    • 2009
  • 본 논문은 오디오 핑거프린트 데이터 생성 방법과 이를 이용한 오디오 데이터 비교 방법에 관한 것으로서, 오디오 데이터의 특징을 이용하여 음악을 식별하는 방법을 제시한다. 일반적으로 영상인식을 위해 많이 사용되는 가우시안의 차(Difference of Gaussian, DoG)를 오디오 데이터에 적용하여 음악이 급진적으로 변하는 부분을 추출하고, 해당 위치를 핑거프린트로 정의하는 방식이다. 이렇게 만들어진 핑거프린트는 음질의 변화에 민감하지 않으며, 음악 데이터의 일정 부분만으로도 원본과 동일 위치의 핑거프린트 추출이 가능하다. 이 시스템은 기존의 주파수 영역을 이용한 시스템 보다 오디오 핑거프린트의 데이터량과 계산량을 줄여줌으로써 검색을 할 때 보다 효율적인 성능을 나타낸다. 이를 응용하여 인터넷에 유통되는 복사된 음악의 저작권 보호, 또는 음악의 메타정보 등을 사용자에게 나타낼 수 있다.

정신지체장애인의 음악 인지 능력 향상을 위한 MMCP 이론을 활용한 웹기반 학습 시스템 설계 (Design of a Web-based Learning System for Enhancing Music Cognition Ability of Mentally Retarded Children Using MMCP Theory)

  • 권미경;전우천
    • 한국정보교육학회:학술대회논문집
    • /
    • 한국정보교육학회 2010년도 하계학술대회
    • /
    • pp.143-149
    • /
    • 2010
  • 최근 정신지체아들을 위한 음악교육의 중요성이 크게 부각되고 있으나 그들의 인지적 정의적 결함으로 인해 종래의 일반적인 음악수업 방식만으로는 음악 인지를 발달시키는 학습을 기대하기 어렵다. 이에 본 연구에서는 MMCP (Manhattanville Music Curriculum Program)이론에 근거한 정신지체아의 음악인지능력 (음악 동일성, 음악 유목화, 음악 서열화)을 향상시키기 위한 컨텐츠를 설계하였다. MMCP 이론은 음악의 본질을 이해시키며 특징음악 (18~19C의 음악) 만을 취급하는 음악이 아닌 모든 민족의 음악문화를 이해하고 포함하는 보다 포괄적인 음악교육이다. 본 시스템으로 기대할 수 있는 효과로는 첫째, 정신지체장애인의 음악적 인지 발달 뿐 아니라 인지적, 신체적, 사회적, 정서적 발달을 고양시킬 수 있다. 둘째, 정신지체장애인을 위한 개별화 음악교육이 가능하다. 셋째, 능동적이고 상호작용적인 음악교육이 가능하다.

  • PDF

영상 처리와 딥러닝을 이용한 악보 코드 변환 프로그램 (Conversion Program of Music Score Chord using OpenCV and Deep Learning)

  • 문지수;김민지;임영규;공기석
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권1호
    • /
    • pp.69-77
    • /
    • 2021
  • 본 논문은 사용자가 입력한 PDF 악보를 사용자가 원하는 조(chord)의 MIDI 파일로 제공하는 앱의 개발을 다룬다. 이 앱은 사용자가 PDF 악보 파일과 바꾸고자 하는 조를 입력하면 조 변환을 위해 PDF 파일을 PNG 파일로 변환한다. 이를 영상 처리 알고리즘을 통해 악보의 음계를 인식하여 구분하고, 딥러닝을 통해 악보 음표의 박자를 인식하여 구분한다. 이를 통해 사용자가 원하는 조와 기존 악보의 MIDI 파일을 제공한다. 개발한 영상 처리 알고리즘과 딥러닝은 2, 4, 8, 16분 음표, 2, 4, 8, 16분 쉼표, 잇단 음표, 화음 음표가 인식 가능하다. 실험결과 악보의 음표 인식률 100%, 딥러닝 모델을 통한 박자 인식률은 90% 이상인 것을 확인하였다.

사용자 감성과 음원 무드기반 음악 추천 시스템 (Music Recommendation System Based on User Emotion and Music Mood)

  • 최현석;이종형;김민욱;김지나;조현태;이한덕;윤경로
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2010년도 하계학술대회
    • /
    • pp.142-145
    • /
    • 2010
  • 본 논문에서는 사용자의 12가지 감성 정보와 음악의 8가지 무드 카테고리를 기반으로 음악을 추천해주는 시스템을 구현하였다. 사용자의 감성과 음악의 무드를 기반으로 음악을 검색하기 위해 전공자 집단 5명과 비전공자 집단 13명, 총 18명으로부터 감성 히스토리 정보와 무드 분류 정보를 얻었다. 감성 히스토리 정보는 참여자가 자신의 감성 정보를 지정하고 어떤 음악을 들었는지를 나타내며, 무드 분류 정보는 각 곡이 어떤 무드를 갖는지를 나타낸다. 위에서 얻어진 정보를 바탕으로 사용자의 감성 정보를 기반으로 3가지 각기 다른 추천 알고리즘을 구현했다. 첫 번째 알고리즘은 사용자 감성 정보를 기반으로 얻어진 유사도 곡 리스트 중 1위곡의 무드 정보를 이용하여 음악을 추천한다. 두 번째 알고리즘은 첫 번째 알고리즘에서 1위곡부터 20위곡까지의 무드 정보를 이용하여 음악을 추천한다. 마지막 추천 알고리즘은 사용자 감성 정보를 기반으로 얻어진 유사도 곡 리스트를 등록된 사용자들이 가장 많이 들었던 순서대로 정렬하여 음악을 추천한다.

  • PDF