• Title/Summary/Keyword: 음악 비트 정보추출

Search Result 12, Processing Time 0.035 seconds

Motion Generation and Control of a Character Dancing with Music (음악 속도에 따른 캐릭터의 춤동작 생성 및 제어)

  • Kim, Gun-Woo;Wang, Yan;Seo, Hye-Won
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.616-623
    • /
    • 2007
  • 본 논문에서는 음악 신호로부터 추출한 비트 정보를 사용하여 가상 캐릭터의 움직임을 제어하는 방법에 대해 논한다. 특히 주기를 가지는 반복적인 동작, 그 중에서도 춤동작에 대한 음악 신호와의 동기화 방법을 제안한다. 서버로 구현된 음악 비트 인식기는 입력 음악 신호에 대한 분석 정보를 규칙적으로 출력한다. 동작 클라이언트는 동작 캡쳐를 통해 얻은 동작 데이터를 여러 개의 기본 동작들로 나누고, 사용자가 선택한 새로운 순서대로 기본 동작들을 연결하여 부드럽게 재생한다. 또한 서버에 접속하여 전송 받은 음악의 템포에 맞게 동작데이터를 와핑(warping)하고 음악의 주요 비트 시각에 맞추어 기본 동작들의 재생시작 시간을 동기화한다. 음원에 의한, 즉 박자, 강약, 비트와 같은 기본적인 정보뿐만 아니라 분위기, 박자 변화와 같은 고급 정보에도 동적으로 반응하여 춤을 추는 가상 캐릭터를 개발하는 것이 본 연구의 궁극적인 목표이다.

  • PDF

Music retrieval system implementation based on multi-level quantization scheme (다중 레벨 양자화 기법 기반의 음악 검색기 구현)

  • Song, Won-Sik;Park, Man-Soo;Kim, Hoi-Rin
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.1182-1187
    • /
    • 2006
  • 본 논문은 필립스의 오디오 핑거프린트 추출 방식을 기반으로 기존의 방식이 주파수 영역을 너무 조밀하게 분석하는 특징을 지적하고 개선 방안으로 양자화를 통해 필터 뱅크의 에너지 변화율을 오디오 핑거프린트 추출시 반영하는 방법을 제안하였다. 또한 제안된 알고리즘을 사용하여 PDA 로 실제 어플리케이션을 구현하는 것을 목적으로 하고 있다. 제안된 방식은 필립스 방식과 동일한 메모리 크기를 유지하기 위하여 필터 뱅크의 개수를 33 개에서 17 개로 줄이고 필터 뱅크의 변화량을 2 비트로 할당하는 방식을 사용하였다. 변화량을 비트에 할당하기 위하여 음악 데이터 베이스로부터 추출된 각 밴드의 pmf를 통해 음악의 고유성을 최대로 증진 시킬 수 있는 임계치를 찾아내고 이것을 바탕으로 필터 뱅크의 변화량을 2 비트로 할당하였다. 이 같이 추출된 오디오 핑거프린트를 기반으로 PDA 와 음악 검색기 서버와의 통신을 이용하여 사용자가 요청한 쿼리 음악에 관련된 정보를 제공하는 시스템을 구현했다. 제안된 방식은 다양한 주변 잡음 환경에서 평가되어 기존의 필립스 방식 보다 성능 향상 물론 검색 속도 또한 개선되는 특징을 확인할 수 있었다.

  • PDF

Automatic Musical Fountain Scenario Generation using Example-based approach (예제기반 방식을 이용한 자동 음악분수 시나리오 생성)

  • Yoo, Min-Joon;Lee, In-Kwon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06b
    • /
    • pp.135-140
    • /
    • 2008
  • 최근 주변에서 다양한 음악분수를 찾아볼 수 있다. 음악분수의 연출을 위해서는 음악과 동기화되는 물의 움직임을 정의하는 음악분수 시나리오가 요구된다. 하지만 일반적으로 이러한 시나리오는 전문가들에 의하여 생성되기 때문에, 비용적인 문제로 인하여 다양한 음악에 대한 시나리오가 생성되지 못하고 있는 현실이다. 본 논문에서는 예제 기반 방식을 이용하여 자동으로 음악 분수의 시나리오를 생성하는 방법을 제안한다. 즉 기존에 전문가들에 의하여 생성되었던 음악분수의 시나리오를 분석하여 데이터베이스화 시킨 후, 이를 새롭게 합성하여 시나리오를 생성한다. 또한 음악분수 시나리오 생성에서 중요하게 요구되는 음악과 물 모양의 동기화를 위하여 본 논문에서는 임의의 음악이 들어왔을 때, 이 음악의 비트를 추출한 후 비트를 단위로 시나리오를 합성하게 된다. 사용자 실험결과 본 기술에 의하여 자동 생성된 시나리오는 전문가가 생성한 시나리오와 큰 차이가 나지 않음을 알 수 있었다. 본 기술을 이용하면 음악분수 시나리오를 생성할 때 요구되는 시간을 크게 줄일 수 있으며, 이로 인해 음악분수의 유지비용을 크게 절감할 수 있다.

  • PDF

A Content-based Music Similarity Retrieval System (내용 기반 음악 유사 구간 검색 시스템)

  • Kim, Hyunwoo;Han, Byeong-jun;Kim, Cheol-Hwan;Lee, Kyogu
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.732-735
    • /
    • 2010
  • 본 연구에서는 음악 데이터 베이스에서 노래의 특정 구간과 가장 유사한 구간을 검색하는 시스템을 제안한다. 제안된 시스템에서는 음악을 다차원 시계열 데이터로 간주하고, 음악의 조성 차이 및 템포(tempo) 차이를 고려한 음악의 유사도 계산 방법을 사용한다. 유사도 계산의 전처리 단계에서 조성 차이를 보정하고, 비트(beat)를 검출하며, 추출된 크로마그램(chromagram)을 검출된 비트와 동기화 하여 평균한다. 이후, 동적 시간 왜곡(DTW; dynamic time warping)을 사용하여 두 구간사이의 유사도를 계산한 후 계산된 유사도 순서로 정렬된 검색 결과를 출력한다. 사용자는 제안된 시스템을 사용하여 선택 구간 유사도 검색과 자동 유사 검색 결과로 도출된 구간 쌍을 검토하여 유사 구간을 보다 쉽게 찾을 수 있다.

Same music file recognition method by using similarity measurement among music feature data (음악 특징점간의 유사도 측정을 이용한 동일음원 인식 방법)

  • Sung, Bo-Kyung;Chung, Myoung-Beom;Ko, Il-Ju
    • Journal of the Korea Society of Computer and Information
    • /
    • v.13 no.3
    • /
    • pp.99-106
    • /
    • 2008
  • Recently, digital music retrieval is using in many fields (Web portal. audio service site etc). In existing fields, Meta data of music are used for digital music retrieval. If Meta data are not right or do not exist, it is hard to get high accurate retrieval result. Contents based information retrieval that use music itself are researched for solving upper problem. In this paper, we propose Same music recognition method using similarity measurement. Feature data of digital music are extracted from waveform of music using Simplified MFCC (Mel Frequency Cepstral Coefficient). Similarity between digital music files are measured using DTW (Dynamic time Warping) that are used in Vision and Speech recognition fields. We success all of 500 times experiment in randomly collected 1000 songs from same genre for preying of proposed same music recognition method. 500 digital music were made by mixing different compressing codec and bit-rate from 60 digital audios. We ploved that similarity measurement using DTW can recognize same music.

  • PDF

An Audio watermarking method robust against time- and frequency- scaling (피치 및 시간 스케일링에 강인한 오디오 워터마킹 기법)

  • Park Changmok;Byun Youngbae;Kim Jongweon;Choi Jonguk
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • spring
    • /
    • pp.335-338
    • /
    • 2002
  • 본 연구에서는 주파수 영역에서의 확산 스펙트럼 방식을 이용한 오디오 워터마킹 기법을 사용하고 있다. 워터마크 삽입은 오디오 신호를 MCLT(Modulated Complex Lapped Transform)로 분석한 후, 특정 주파수 영역의 진폭에 삽입되며 추출은 상관도를 이용하여 추출하게 된다. 워터마크 삽입은 44.1 kHz의 음악에 80 bits의 정보가 4초 단위로 반복적으로 삽입되며, 추출에서는 무작위로 추출된 8초 분량의 오디오 신호로부터 80 bits 비트 열과의 상관도를 계산하여 선정된 문턱 값을 초과하게 되면 워터마크가 존재하는 것으로 판단하게 된다 피치 스케일에 대응하기 위하여 120개 정도의 탐색을 수행하며, 시간 스케일에 대응하기 위하여 상관도의 지역 최대 점을 추출하고, 이러한 지역 최대 점들로부터 추출된 비트 열과 실제 비트 열과의 상관도를 계산하게 된다. 그러나 추출된 비트 열은 삽입 에러와 삭제 에러를 가질 수 있기 때문에 이러한 비트 열과의 최대 상관도를 구하기 위하여 본 연구에서는 동적계획법에 의한 최대 상관도 추출 알고리즘을 제시한다. 제안된 방법은 피치 및 시간 스케일링 변환 뿐만 아니라, 오디오 압축에도 견고함을 보인다.

  • PDF

Audio fingerprint matching based on a power weight (파워 가중치를 이용한 오디오 핑거프린트 정합)

  • Seo, Jin Soo;Kim, Junghyun;Kim, Hyemi
    • The Journal of the Acoustical Society of Korea
    • /
    • v.38 no.6
    • /
    • pp.716-723
    • /
    • 2019
  • Fingerprint matching accuracy is essential in deploying a music search service. This paper deals with a method to improve fingerprint matching accuracy by utilizing an auxiliary information which is called power weight. Power weight is an expected robustness of each hash bit. While the previous power mask binarizes the expected robustness into strong and weak bits, the proposed method utilizes a real-valued function of the expected robustness as weights for fingerprint matching. As a countermeasure to the increased storage cost, we propose a compression method for the power weight which has strong temporal correlation. Experiments on the publicly-available music datasets confirmed that the proposed power weight is effective in improving fingerprint matching performance.

An Embedding /Extracting Method of Audio Watermark Information for High Quality Stereo Music (고품질 스테레오 음악을 위한 오디오 워터마크 정보 삽입/추출 기술)

  • Bae, Kyungyul
    • Journal of Intelligence and Information Systems
    • /
    • v.24 no.2
    • /
    • pp.21-35
    • /
    • 2018
  • Since the introduction of MP3 players, CD recordings have gradually been vanishing, and the music consuming environment of music users is shifting to mobile devices. The introduction of smart devices has increased the utilization of music through music playback, mass storage, and search functions that are integrated into smartphones and tablets. At the time of initial MP3 player supply, the bitrate of the compressed music contents generally was 128 Kbps. However, as increasing of the demand for high quality music, sound quality of 384 Kbps appeared. Recently, music content of FLAC (Free License Audio Codec) format using lossless compression method is becoming popular. The download service of many music sites in Korea has classified by unlimited download with technical protection and limited download without technical protection. Digital Rights Management (DRM) technology is used as a technical protection measure for unlimited download, but it can only be used with authenticated devices that have DRM installed. Even if music purchased by the user, it cannot be used by other devices. On the contrary, in the case of music that is limited in quantity but not technically protected, there is no way to enforce anyone who distributes it, and in the case of high quality music such as FLAC, the loss is greater. In this paper, the author proposes an audio watermarking technology for copyright protection of high quality stereo music. Two kinds of information, "Copyright" and "Copy_free", are generated by using the turbo code. The two watermarks are composed of 9 bytes (72 bits). If turbo code is applied for error correction, the amount of information to be inserted as 222 bits increases. The 222-bit watermark was expanded to 1024 bits to be robust against additional errors and finally used as a watermark to insert into stereo music. Turbo code is a way to recover raw data if the damaged amount is less than 15% even if part of the code is damaged due to attack of watermarked content. It can be extended to 1024 bits or it can find 222 bits from some damaged contents by increasing the probability, the watermark itself has made it more resistant to attack. The proposed algorithm uses quantization in DCT so that watermark can be detected efficiently and SNR can be improved when stereo music is converted into mono. As a result, on average SNR exceeded 40dB, resulting in sound quality improvements of over 10dB over traditional quantization methods. This is a very significant result because it means relatively 10 times improvement in sound quality. In addition, the sample length required for extracting the watermark can be extracted sufficiently if the length is shorter than 1 second, and the watermark can be completely extracted from music samples of less than one second in all of the MP3 compression having a bit rate of 128 Kbps. The conventional quantization method can extract the watermark with a length of only 1/10 compared to the case where the sampling of the 10-second length largely fails to extract the watermark. In this study, since the length of the watermark embedded into music is 72 bits, it provides sufficient capacity to embed necessary information for music. It is enough bits to identify the music distributed all over the world. 272 can identify $4*10^{21}$, so it can be used as an identifier and it can be used for copyright protection of high quality music service. The proposed algorithm can be used not only for high quality audio but also for development of watermarking algorithm in multimedia such as UHD (Ultra High Definition) TV and high-resolution image. In addition, with the development of digital devices, users are demanding high quality music in the music industry, and artificial intelligence assistant is coming along with high quality music and streaming service. The results of this study can be used to protect the rights of copyright holders in these industries.

Audio Fingerprint Extraction Method Using Multi-Level Quantization Scheme (다중 레벨 양자화 기법을 적용한 오디오 핑거프린트 추출 방법)

  • Song Won-Sik;Park Man-Soo;Kim Hoi-Rin
    • The Journal of the Acoustical Society of Korea
    • /
    • v.25 no.4
    • /
    • pp.151-158
    • /
    • 2006
  • In this paper, we proposed a new audio fingerprint extraction method, based on Philips' music retrieval algorithm, which uses the energy difference of neighboring filter-bank and probabilistic characteristics of music. Since Philips method uses too many filter-banks in limited frequency band, it may cause audio fingerprints to be highly sensitive to additive noises and to have too high correlation between neighboring bands. The proposed method improves robustness to noises by reducing the number of filter-banks while it maintains the discriminative power by representing the energy difference of bands with 2 bits where the quantization levels are determined by probabilistic characteristics. The correlation which exists among 4 different levels in 2 bits is not only utilized in similarity measurement. but also in efficient reduction of searching area. Experiments show that the proposed method is not only more robust to various environmental noises (street, department, car, office, and restaurant), but also takes less time for database search than Philips in the case where music is highly degraded.

A New Tempo Feature Extraction Based on Modulation Spectrum Analysis for Music Information Retrieval Tasks

  • Kim, Hyoung-Gook
    • The Journal of The Korea Institute of Intelligent Transport Systems
    • /
    • v.6 no.2
    • /
    • pp.95-106
    • /
    • 2007
  • This paper proposes an effective tempo feature extraction method for music information retrieval. The tempo information is modeled by the narrow-band temporal modulation components, which are decomposed into a modulation spectrum via joint frequency analysis. In implementation, the tempo feature is directly extracted from the modified discrete cosine transform coefficients, which is the output of partial MP3(MPEG 1 Layer 3) decoder. Then, different features are extracted from the amplitudes of modulation spectrum and applied to different music information retrieval tasks. The logarithmic scale modulation frequency coefficients are employed in automatic music emotion classification and music genre classification. The classification precision in both systems is improved significantly. The bit vectors derived from adaptive modulation spectrum is used in audio fingerprinting task That is proved to be able to achieve high robustness in this application. The experimental results in these tasks validate the effectiveness of the proposed tempo feature.

  • PDF