• Title/Summary/Keyword: 멜로디 표현

Search Result 32, Processing Time 0.144 seconds

Development of melody similarity based on chroma representation, dynamic time warping, and hinge distance (크로마 레벨 표현, 동적 시간 왜곡, 꺾인 거리함수에 기반한 멜로디 사이의 유사도 개발)

  • Jang, Dalwon;Park, Sung-Ju;Jang, Sei-Jin;Lee, Seok-Pil
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.258-260
    • /
    • 2011
  • 이 논문에서는 쿼리-바이-싱잉/허밍 (Query-by-singing/humming, QbSH) 시스템 또는 커버 노래 인식 (cover song identification) 시스템에서 사용 가능한 멜로디 유사도를 제안한다. QbSH 또는 커버 노래 인식은 디지털 음악의 사용이 보편화되면서 음악 검색의 방법으로 많은 연구가 진행되어 오고 있다. 멜로디 유사도는 이런 시스템을 구현하는데 필수적인 요소이며, 두 개의 음악에서 멜로디가 추출되었다고 가정하고, 추출된 멜로디 사이의 유사한 정도를 수치로 표현한다. QbSh 시스템이나 커버 노래 인식 시스템은 멜로디 유사도에 기반하여 입력 노래와 유사한 노래를 데이터베이스에서 검색하는 작업을 수행한다. 이 논문에서 제안하는 멜로디 유사도 방식은 기존의 많이 연구되던 동적 시간 왜곡 (dynamic time warping, DTW) 방법과 크로마 표현 방법 (chroma representation)을 사용하였다. DTW방법은 비대칭적으로 사용하고 미디 노트 영역에서 표현된 멜로디 특징은 0이상 12 미만의 크로마 레벨로 표현하였다. 기존의 방법에서는 정수값을 많이 사용하였으나 이 논문에서는 실수값을 사용한다. DTW 에 사용하는 거리 함수를 기존에 사용하던 차이의 절대값 대신 꺾인 함수 형태를 사용함으로써 성능을 높였다. QbSH 시스템에서의 실험을 통해서 성능을 검증하였다. 본 논문에서는 10-12초 길이의 1000번의 쿼리(Query)에 대해서 28시간 정도의 데이터베이스에서 실험한 결과, 순위 역의 평균 (Mean reciprocal rank, MRR) 값이 0.713을 보였다.

  • PDF

The Study on Articulation Method for Pop Melody (대중가요의 멜로디 표현기법에 관한 연구)

  • Oh, Han-Seung
    • Proceedings of the KAIS Fall Conference
    • /
    • 2011.05b
    • /
    • pp.619-621
    • /
    • 2011
  • 본 논문에서는 대중음악의 대부분을 차지하는 대중가요의 가창에서 효과적인 가창을 위해 사용하는 멜로디의 가창법, 그 중에서 멜로디의 세부적인 느낌을 크게 좌우하는 대표적인 표현기법들을 살펴보고, 이것이 다른 장르의 음악을 가창하는데 있어서의 공통점과 차이점을 분석해 보았다.

  • PDF

High Precision Audio Contents Retrieval Method by Effective Melody Representation Method (효과적인 멜로디 표현법에 의한 고정도 오디오 콘텐츠 검색 기법)

  • Heo Sung-Phil;Suk Soo-Young;Chung Hyun-Yeol
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.147-150
    • /
    • 2004
  • 허밍에 의한 고정도의 오디오 정보 검색 시스템을 구현하기 위해서는 시스템 측에서 발생 가능한 문제점과 유저 측에서 발생 가능한 문제점을 함께 고려한 해결 기법이 요구된다. 유저 측에서는 허밍시 자신의 애매한 기억에 기인한 음표의 삽입이나 탈락과 같은 가창실수, 허밍 도중에 음정 및 박자의 불안정한 변화, 같은 곡을 노래 부를지라도 개인차에 의해 상이한 음정과 템포 등이 발생한다. 또한 시스템 측에서 발생 가능한 사항으로써, 비록 허밍질의가 완벽하더라도 입력 허밍 신호를 멜로디 매칭에 이용되는 정확한 특징량의 추출 및 음악 표기로의 변환이 어렵다는 점이다. 종래의 오디오 정보 검색 시스템에서는 이러한 문제점을 해결하기 위해 다양한 멜로디 표현법과 매칭 방법이 제안되고 있으나, 성능 면에서는 아직 만족할 만한 결과를 얻지 못하고 있다. 따라서 이러한 문제점들을 해결하기 위해서 본 논문에서는 허밍 멜로디의 효과적인 표현방법과 시스템 및 유저 측에서 발생 가능한 오류에 강건한 멜로디 매칭 방법을 제안한다.

  • PDF

Extracting Melodies from Polyphonic Piano Solo Music Based on Patterns of Music Structure (음악 구조의 패턴에 기반을 둔 다음(Polyphonic) 피아노 솔로 음악으로부터의 멜로디 추출)

  • Choi, Yoon-Jae;Lee, Ho-Dong;Lee, Ho-Joon;Park, Jong C.
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.725-732
    • /
    • 2009
  • Thanks to the development of the Internet, people can easily access a vast amount of music. This brings attention to application systems such as a melody-based music search service or music recommendation service. Extracting melodies from music is a crucial process to provide such services. This paper introduces a novel algorithm that can extract melodies from piano music. Since piano can produce polyphonic music, we expect that by studying melody extraction from piano music, we can help extract melodies from general polyphonic music.

  • PDF

The Study on the Analysis for Korean Pop Ballad, 'You Come Back to Me Again' ('그대 내게 다시'의 가창 해석에 관한 연구)

  • Oh, Han-Seung
    • Proceedings of the KAIS Fall Conference
    • /
    • 2011.05b
    • /
    • pp.701-703
    • /
    • 2011
  • 본 논문에서는 한국 대중가요에서 중요한 역할을 하는 발라드, 특히 '그대 내게 다시'의 가창에서 효과적인 가창을 위한 멜로디의 가창 해석, 그리고 멜로디의 세부적인 느낌을 크게 좌우하는 표현 방법들을 살펴보고, 이것이 다른 장르의 음악을 가창하는데 있어서의 어떻게 적용될 수 있는지를 분석해 보았다.

  • PDF

Tonal Characteristics Based on Intonation Pattern of the Korean Emotion Words (감정단어 발화 시 억양 패턴을 반영한 멜로디 특성)

  • Yi, Soo Yon;Oh, Jeahyuk;Chong, Hyun Ju
    • Journal of Music and Human Behavior
    • /
    • v.13 no.2
    • /
    • pp.67-83
    • /
    • 2016
  • This study investigated the tonal characteristics in Korean emotion words by analyzing the pitch patterns transformed from word utterance. Participants were 30 women, ages 19-23. Each participant was instructed to talk about their emotional experiences using 4-syllable target words. A total of 180 utterances were analyzed in terms of the frequency of each syllable using the Praat. The data were transformed into meantones based on the semi-tone scale. When emotion words were used in the middle of a sentence, the pitch pattern was transformed to A3-A3-G3-G3 for '즐거워서(joyful)', C4-D4-B3-A3 for '행복해서(happy)', G3-A3-G3-G3 for '억울해서(resentful)', A3-A3-G3-A3 for '불안해서(anxious)', and C4-C4-A3-G3 for '침울해서(frustrated)'. When the emotion words were used at the end of a sentence, the pitch pattern was transformed to G4-G4-F4-F4 for '즐거워요(joyful)', D4-D4-A3-G3 for '행복해요(happy)', G3-G3-G3-A3 and F3-G3-E3-D3 for '억울해요(resentful)', A3-G3-F3-F3 for '불안해요(anxious)', and A3-A3-F3-F3 for '침울해요(frustrated)'. These results indicate the differences in pitch patterns depending on the conveyed emotions and the position of words in a sentence. This study presents the baseline data on the tonal characteristics of emotion words, thereby suggesting how pitch patterns could be utilized when creating a melody during songwriting for emotional expression.

The relationship between general creativity and musical creativity of children (유아의 일반적 창의성과 음악적 창의성과의 관계)

  • Kim, Youn-Ju
    • Korean Journal of Childcare and Education
    • /
    • v.1 no.1
    • /
    • pp.21-35
    • /
    • 2005
  • The goal of this study was to examine the relationship between general creativity and musical creativity of children, and utilize the results as the basic data to develope of children' music education. The subjects were 50 children of a kindergarten located in the Jeonlabukdo area. The instruments employed were general creativity and musical creativity scales. The data were analyzed with the SPSS program. They were analyzed by Pearson Correlation. The results of this study are as follows: First, creativity was correlated positively with 'making of the melody'. Second, fluency was correlated positively with 'making of the melody', abstraction of title was correlated positively with 'making of the song words', and elaboration was correlated positively with making of the melody and expression by rhythmic movement.

  • PDF

The Study on Training Methods for Slow-Tempo Pop Songs (느린 템포의 팝송 가창지도에 관한 고찰)

  • Choi, Yeong-Seon
    • Proceedings of the KAIS Fall Conference
    • /
    • 2012.05a
    • /
    • pp.249-251
    • /
    • 2012
  • 본 논문에서는 우리나라의 언어가 아닌 외국어, 그 중 가장 보펀적인 외국어인 영어로 된 노래, 즉 팝송(Pop-song) 가창 시 효과적인 가창을 위해 멜로디의 세부적인 부분의 표현기법들을 살펴보고 이를 가창지도할 때 실제로 어떻게 적용할 수 있을지를 살펴보고 분석해 보았다.

  • PDF

Fingering Algorithm for Accordion Music Play used Petri nets (패트리넷을 이용한 아코디온 연주의 손가락 알고리즘)

  • Kim, Young-Chan;Lee, Jong-kun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1639-1642
    • /
    • 2013
  • 아코디온은 키보드와 건반 그리고 공기주머니로 구성 되어 있는 악기로써 건반 악기의 특성과 화음을 위한 키보드 코드의 손가락 운영 기법이 요구되는 악기의 특성을 갖는다. 따라서, 연주를 자습하거나 독자적인 교습을 위한 연주법에 대한 알고리즘이 요구된다. 본 연구에서는 아코디온의 효율적인 연주를 위하여 손가락 연주의 알고리즘을 패트리 넷으로 표현하여 화음과 멜로디의 관계성을 표현하였다. 또한 사례를 들어 모델링을 검증하였다.

Implementation of the System Converting Image into Music Signals based on Intentional Synesthesia (의도적인 공감각 기반 영상-음악 변환 시스템 구현)

  • Bae, Myung-Jin;Kim, Sung-Ill
    • Journal of IKEEE
    • /
    • v.24 no.1
    • /
    • pp.254-259
    • /
    • 2020
  • This paper is the implementation of the conversion system from image to music based on intentional synesthesia. The input image based on color, texture, and shape was converted into melodies, harmonies and rhythms of music, respectively. Depending on the histogram of colors, the melody can be selected and obtained probabilistically to form the melody. The texture in the image expressed harmony and minor key with 7 characteristics of GLCM, a statistical texture feature extraction method. Finally, the shape of the image was extracted from the edge image, and using Hough Transform, a frequency component analysis, the line components were detected to produce music by selecting the rhythm according to the distribution of angles.