초록
본 논문에서는 기존의 오디오검색 관련 시스템의 텍스트 정보기반의 음악 검색의 한계를 극복하기 위해 사용자가 입력한 음악데이터에서 리듬정보를 추출해 내어 데이터 베이스 내의 음악 정보 검색이 가능하게 하는 내용기반 검색 시스템의 일종인 리듬 추출 시스템을 제안하였다. 본 논문에서는 음악정보에서 리듬의 특징 정보를 추출하여 특정 파라미터를 생성하고 신경회로망을 사용하여 악기 인식을 통한 악보생성 시뮬레이션을 하였다.
Traditional indexing mechanism are based on the song's metadata such as the title and the composer and so on. However, these system have a major limitation that users have to know the metadata of the songs they want to retrieve. In order to solve these limitation, we proposed a rhythm extraction system that allows users to retrieve music information efficiently from a large music database using the rhythm that is defined as the parts of the music.