• 제목/요약/키워드: Music Performance

검색결과 657건 처리시간 0.032초

음악 장르 분류를 위한 데이터 생성 및 머신러닝 적용 방안 (Generating Data and Applying Machine Learning Methods for Music Genre Classification)

  • 엄빛찬;조동휘;남춘성
    • 인터넷정보학회논문지
    • /
    • 제25권4호
    • /
    • pp.57-64
    • /
    • 2024
  • 본 논문은 머신러닝을 활용하여 많은 양의 음악 데이터를 분류하여 장르 정보가 입력되어 있지 않은 음악 장르 분류 정확도 향상을 목표로 한다. 음악의 장르를 구분하기 위해 기존 연구에서 많이 사용되던 GTZAN 데이터 세트 대신 직접 데이터를 수집하고 전처리하는 방안을 제시한다. 이를 위해 GTZAN 데이터 세트보다 분류 성능이 뛰어난 데이터 세트를 생성하기 위해 Onset의 에너지 레벨이 가장 높은 일정 구간을 추출한다. 학습에 사용하는 음악 데이터의 주요 특성으로는 Mel Frequency Cepstral Coefficient(MFCC)를 포함한 57개의 특성을 이용한다. 전처리된 데이터를 통해 Support Vector Machine(SVM) 모델을 이용하여 Blues, Classical, Jazz, Country, Disco, Pop, Rock, Metal, Hiphop으로 분류한 학습 정확도가 85%를 기록하였고, 테스트 정확도가 71%를 보여주었다.

빔포밍이 적용된 블라인드 터보 등화기 (Blind Turbo Equalization System with Beamforming)

  • 김용국;유흥균
    • 한국통신학회논문지
    • /
    • 제38A권10호
    • /
    • pp.850-857
    • /
    • 2013
  • 터보 등화기 시스템은 디코더와 등화기를 결합을 통해서 등화성능을 높일 수 있는 방법이다. 터보 등화기에는 주로 MAP 등화기가 사용되어 왔다. 하지만 MAP 등화기를 적용한 터보 등화기는 높은 계산 복잡도를 가지는 단점이 있다. 이러한 단점을 극복하고 데이터 전송 효율을 높이기 위해 선형 SISO-MMSE을 적용한 터보 등화기에 데이터 전송 효율을 높이기 위해 블라인드 알고리즘을 적용한 블라인드 터보 등화기가 제안되었다. 블라인드 터보등화기는 기존의 터보 등화기에 비해 등화 성능이 낮은 단점이 있다. 이를 보완하기 위해 우리는 MUSIC 알고리즘 기반의 빔포밍을 적용한 시스템을 제안한다. 시뮬레이션을 통해서 다양한 멀티패스 환경에서 제안된 시스템을 통한 등화 성능의 향상을 확인 할 수 있다.

Effect of Carnatic Music Listening Training on Speech in Noise Performance in Adults

  • Amemane, Raksha;Gundmi, Archana;Mohan, Kishan Madikeri
    • Journal of Audiology & Otology
    • /
    • 제25권1호
    • /
    • pp.22-26
    • /
    • 2021
  • Background and Objectives: Music listening has a concomitant effect on structural and functional organization of the brain. It helps in relaxation, mind training and neural strengthening. In relation to it, the present study was aimed to find the effect of Carnatic music listening training (MLT) on speech in noise performance in adults. Subjects and Methods: A total of 28 participants (40-70 years) were recruited in the study. Based on randomized control trial, they were divided into intervention and control group. Intervention group underwent a short-term MLT. Quick Speech-in-Noise in Kannada was used as an outcome measure. Results: Results were analysed using mixed method analysis of variance (ANOVA) and repeated measures ANOVA. There was a significant difference between intervention and control group post MLT. The results of the second continuum revealed no statistically significant difference between post training and follow-up scores in both the groups. Conclusions: In conclusion short-term MLT resulted in betterment of speech in noise performance. MLT can be hence used as a viable tool in formal auditory training for better prognosis.

Effect of Carnatic Music Listening Training on Speech in Noise Performance in Adults

  • Amemane, Raksha;Gundmi, Archana;Mohan, Kishan Madikeri
    • 대한청각학회지
    • /
    • 제25권1호
    • /
    • pp.22-26
    • /
    • 2021
  • Background and Objectives: Music listening has a concomitant effect on structural and functional organization of the brain. It helps in relaxation, mind training and neural strengthening. In relation to it, the present study was aimed to find the effect of Carnatic music listening training (MLT) on speech in noise performance in adults. Subjects and Methods: A total of 28 participants (40-70 years) were recruited in the study. Based on randomized control trial, they were divided into intervention and control group. Intervention group underwent a short-term MLT. Quick Speech-in-Noise in Kannada was used as an outcome measure. Results: Results were analysed using mixed method analysis of variance (ANOVA) and repeated measures ANOVA. There was a significant difference between intervention and control group post MLT. The results of the second continuum revealed no statistically significant difference between post training and follow-up scores in both the groups. Conclusions: In conclusion short-term MLT resulted in betterment of speech in noise performance. MLT can be hence used as a viable tool in formal auditory training for better prognosis.

다성음원 기반 QbSH 시스템을 위한 매칭엔진의 설계 및 구현 (Design and Implementation of Matching Engine for QbSH System Based on Polyphonic Music)

  • 박성주;정광수
    • 한국멀티미디어학회논문지
    • /
    • 제15권1호
    • /
    • pp.18-31
    • /
    • 2012
  • 본 논문은 다성음원에서 추출된 특성정보 기반 QbSH (Query-by-Singing/ Humming) 시스템의 매칭엔진에 대해 제안하였다. 다성음원 기반 QbSH 시스템은 사람의 노래나 허밍에서 추출된 특성정보와 MP3 파일과 같은 다성음원에서 추출된 특성정보를 비교하여, 가장 유사한 음원을 검색하는 시스템이다. 제안된 매칭엔진에는 다성음원에서 특성 추출시 발생하는 오류를 줄이고, 매칭성능을 향상시키기 위해 크로마-스케일 표현기법 (Chroma-Scale Representation), 보상기법 (Compensation) 및 비대칭적 DTW (Asymmetric Dynamic Time Warping) 알고리즘을 적용하였다. 또한 다양한 거리 함수 (Distance Metric)를 적용하여 매칭엔진의 성능향상을 확인하였다. 1,000개의 허밍 질의와 450곡의 다성음원 데이터베이스를 기반으로 제안한 QbSH 시스템의 성능 실험을 수행하다. 성능 평가를 통해 제안한 QbSH 시스템이 MRR (Mean Reciprocal Rank) 0.718의 정확도를 가지는 것으로 확인되었다.

스파이크그램과 심층 신경망을 이용한 음악 장르 분류 (Music Genre Classification using Spikegram and Deep Neural Network)

  • 장우진;윤호원;신성현;조효진;장원;박호종
    • 방송공학회논문지
    • /
    • 제22권6호
    • /
    • pp.693-701
    • /
    • 2017
  • 본 논문은 스파이크그램과 심층 신경망을 이용한 새로운 음악 장르 분류 방법을 제안한다. 인간의 청각 시스템은 최소 에너지와 신경 자원을 사용하여 최대 청각 정보를 뇌로 전달하기 위하여 입력 소리를 시간과 주파수 영역에서 부호화한다. 스파이크그램은 이러한 청각 시스템의 부호화 동작을 기반으로 파형을 분석하는 기법이다. 제안하는 방법은 스파이크그램을 이용하여 신호를 분석하고 그 결과로부터 장르 분류를 위한 핵심 정보로 구성된 특성 벡터를 추출하고, 이를 심층 신경망의 입력 벡터로 사용한다. 성능 측정에는 10개의 음악 장르로 구성된 GTZAN 데이터 세트를 사용하였고, 제안 방법이 기존 방법에 비해 낮은 차원의 특성 벡터를 사용하여 우수한 성능을 제공하는 것을 확인하였다.

대역 확산 신호를 위한 고유치 해석 기반의 초 분해능 지연 시간 추정 알고리즘 (Eigen-Analysis Based Super-Resolution Time Delay Estimation Algorithms for Spread Spectrum Signals)

  • 박형래;신준호
    • 한국통신학회논문지
    • /
    • 제38A권12호
    • /
    • pp.1013-1020
    • /
    • 2013
  • 본 논문에서는 대역 확산 신호를 위한 고유치 해석 기반의 초 분해능 지연 시간 추정(super-resolution time delay estimation) 알고리즘을 개발하고 각 알고리즘의 성능을 비교, 분석한다. 먼저, 고유치 해석 기반의 대표적인 도래각 추정 알고리즘인 MUSIC, ESPRIT, Minimum-Norm을 이용하여 초 분해능 지연 시간 추정 알고리즘을 개발하고 직접 대역확산 방식의 ISO/IEC 24730-2.1 실시간 위치 추적 시스템 (real-time locating system: RTLS)에 적용하여 RTLS 환경에서 각 알고리즘의 성능을 시뮬레이션을 통해 비교, 분석한다. 시뮬레이션 결과로부터 세 알고리즘 모두 레일리이 분해능 한계 이내로 수신되는 다중 신호의 지연 시간을 모두 분리, 추정함을 알 수 있었다. 그러나, RTLS 환경에서는 MUSIC과 Minimum-Norm의 성능은 서로 비슷하나 ESPRIT은 두 알고리즘에 비해 성능이 현격히 저하됨을 알 수 있다.

사운드 카드를 이용한 전자 음악 장갑 (Electronic Music Glove Using Sound Card)

  • 정의필;이창원
    • 한국음향학회지
    • /
    • 제21권2호
    • /
    • pp.128-133
    • /
    • 2002
  • 본 논문에서는 실시간으로 MIDI (Musical Instrument Digital Interface)를 이용하여 음악을 연주학 수 있는 전자음악장갑 (Electronic Music Glove, EMG) 시스템을 소개한다. 마이크로 컨트롤러를 통해 장갑으로부터 입력받은 아날로그 신호를 분석하고, 이 신호를 MIDI 메시지로 변환한 후, 컴퓨터에 내장된 사운드카드의 MIDI 음원을 이용하여 스피커로 음악을 재생한다. 컴퓨터의 직렬 포트를 통해 손가락에 부탁된 센서들과 풋 스위치의 상태를 입력받아 C++ 언어로 작성한 프로그램에서 MIDI 메시지로 변환한다. EMG 시스템은 음표의 옥타브와 음표의 길이, 그리고 코러스나 잔향, 리듬 그리고 볼륨과 같은 다양한 음악적 효과를 MIDI를 이용해 제어할 수 있다.

멀티모달 가이던스가 독보 기능 습득에 미치는 영향: 드럼 타격 시퀀스에서의 사례 연구 (Effects of Multi-modal Guidance for the Acquisition of Sight Reading Skills: A Case Study with Simple Drum Sequences)

  • 이인;최승문
    • 로봇학회논문지
    • /
    • 제8권3호
    • /
    • pp.217-227
    • /
    • 2013
  • We introduce a learning system for the sight reading of simple drum sequences. Sight reading is a cognitive-motor skill that requires reading of music symbols and actions of multiple limbs for playing the music. The system provides knowledge of results (KR) pertaining to the learner's performance by color-coding music symbols, and guides the learner by indicating the corresponding action for a given music symbol using additional auditory or vibrotactile cues. To evaluate the effects of KR and guidance cues, three learning methods were experimentally compared: KR only, KR with auditory cues, and KR with vibrotactile cues. The task was to play a random 16-note-long drum sequence displayed on a screen. Thirty university students learned the task using one of the learning methods in a between-subjects design. The experimental results did not show statistically significant differences between the methods in terms of task accuracy and completion time.

주파수 변화율을 이용한 음성과 음악의 구분 (Speech and Music Discrimination Using Spectral Transition Rate)

  • 양경철;방용찬;조선호;육동석
    • 한국음향학회지
    • /
    • 제28권3호
    • /
    • pp.273-278
    • /
    • 2009
  • 주파수 분석을 통해 음성과 음악의 특성을 살펴보면, 대부분 악기는 특정 주파수 소리를 지속적으로 내도록 고안되어 있다는 것을 알 수 있고, 음성은 조음 현상에 의해서 점차적인 주파수 변화가 발생하는 것을 알 수 있다. 본 논문에서는 이러한 음성과 음악이 갖고 있는 주파수 변화 특성을 이용하여 음성과 음악을 구별하는 방법을 제안한다. 즉, 음성과 음악을 구분해 주는 특성 값으로서 주파수 변화율을 사용하고자 한다. 제안한 주파수 변화율인 STR (spectral transition rate) 기반의 SMD (speech music discrimination) 실험 결과, 기존의 알고리즘보다 빠른 응답 속도에서 상대적으로 높은 성능을 보임을 알 수 있었다.