• 제목/요약/키워드: Sound source separation

검색결과 28건 처리시간 0.023초

반사음이 존재하는 양귀 모델의 음원분리에 관한 연구 (A study on sound source segregation of frequency domain binaural model with reflection)

  • 이채봉
    • 융합신호처리학회논문지
    • /
    • 제15권3호
    • /
    • pp.91-96
    • /
    • 2014
  • 두 개의 입력소자에 의한 음원방향 및 분리방법으로서는 연산량이 적고, 음원분리 성능이 높은 주파수 양귀 모델(Frequency Domain Binaural Model : FDBM)이 있다. FDBM은 주파수 영역에서 양귀간 위상차(Interaural Phase Difference : IPD) 및 양귀간 레벨차(Interaural Level Difference : ILD)를 구하여 음향신호가 오는 방향과 음원의 분리처리를 한다. 그러나 실제 환경에서는 반사음의 문제가 되고 있다. 이러한 반사음에 의한 영향을 줄이기 위하여 선행음 효과에 의한 직접음의 음상정위를 모의하여 초기 도착음을 검출하고 직접음이 오는 방향과 음원분리 방법을 제시하였다. 제시한 방법을 이용하여 음원방향 추정 및 분리에 대한 성능을 시뮬레이션으로 검토하였다. 그 결과, 방향추정은 음원이 오는 방향에서 ${\pm}10%$의 범위로 집중되어 음원의 방향과 가까운 값으로 추정되었다, 반사음이 존재하는 경우의 음원분리는 기존의 FDBM에 비하여 코히런스(Coherence), 음성품질 지각평가 PESQ(Perceptual Evaluation of Speech Quality : PESQ)가 높고, 정면에서의 지향특성 감쇠량이 작아 분리의 정도가 개선됨을 나타내었다. 그러나 반사음이 존재하지 않는 경우는 분리 정도가 낮았다.

인접 배치된 스테레오 무지향성 마이크로폰 환경에서 양이간 강도차를 활용한 음원 분리 기법 (Sound Source Separation Using Interaural Intensity Difference in Closely Spaced Stereo Omnidirectional Microphones)

  • 전찬준;정석희;김홍국
    • 전자공학회논문지
    • /
    • 제50권12호
    • /
    • pp.191-196
    • /
    • 2013
  • 본 논문에서는 실제 환경에서 인접 배치된 무지향성 스테레오 마이크로폰을 활용하여 녹음받은 스테레오 오디오 신호를 양이간 강도차에 기반하여 원하는 방위각에 존재하는 음원을 추출하는 음원 분리 기법을 제안한다. 먼저, 최소 분산 무손실 응답빔형성기를 활용하여 스테레오 오디오 신호의 양이간 강도차를 극대화하고, 강도차 기반의 음원 분리 기법을 적용한다. 제안된 기법의 성능을 검증하기 위하여 stereo audio source separation evaluation campaign (SASSEC)에서 제공하는 객관적 성능평가 지표인 source-to-distortion ratio (SDR), source-to-interference ratio (SIR), sources-to-artifacts ratio (SAR)을 측정하였다. 측정한 결과, 음원 분리 기법에 빔형성기까지 적용한 결과가 높은 성능을 보인 것으로 평가되었다.

감성로봇을 위한 음원의 위치측정 및 분리 (Sound Source Localization and Separation for Emotional Robot)

  • 김경환;김연훈;곽윤근
    • 한국정밀공학회지
    • /
    • 제20권5호
    • /
    • pp.116-123
    • /
    • 2003
  • These days, the researches related with the emotional robots are actively investigated and in progress. And human language, expression, action etc. are merged in the emotional robot to understand the human emotion. However, there are so many sound sources and background noise around the robot, that the robots should be able to separate the mixture of these sound sources into the original sound sources, moreover to understand the meaning of voice of a specific person. Also they should be able to turn or move to the direction of a specific person to observe his expression or action effectively. Until now, the researches on the localization and separation of sound sources have been so theoretical and computative that real-time processing is hardly possible. In this reason for the practical emotional robot, fast computation should be realized by using simple principle. In this paper the methods for detecting the direction of sound sources by using the phase difference between peaks on spectrums, and the separating the sound sources by using fundamental frequency and its overtones of human voice, are proposed. Also by using these methods, it is shown that the effective and real-time localization and separation of sound sources in living room are possible.

스테레오 패닝 음원을 위한 음원 분리 알고리즘 (A Source Separation Algorithm for Stereo Panning Sources)

  • 백용현;박영철
    • 한국정보전자통신기술학회논문지
    • /
    • 제4권2호
    • /
    • pp.77-82
    • /
    • 2011
  • 본 논문에서는 패닝 기법을 이용하여 믹싱된 스테레오 음원에서 음원을 분리하는 방법에 대하여 고찰한다. 음원 분리 알고리즘은 다채널 포맷 변환을 위한 업믹스나 음질 개선, 고품질 음원 분리 등 다양한 응용분야에 사용될 수 있다. 본 논문에서 사용하는 음원 분리 알고리즘은 믹싱된 스테레오 채널을 시간-주파수 별로 PCA(Principal Component Analysis) 분석 방법을 이용하여 각각의 음원들이 패닝된 방향을 추정하며, 추정된 방향의 성분만을 추출하는 방향 필터링 과정을 거쳐 음원들을 독립적으로 분리 해 낸다. 실험을 통해 각 음원 분리 알고리즘의 성능을 평가하였다.

Separation of Single Channel Mixture Using Time-domain Basis Functions

  • Jang, Gil-Jin;Oh, Yung-Hwan
    • The Journal of the Acoustical Society of Korea
    • /
    • 제21권4E호
    • /
    • pp.146-155
    • /
    • 2002
  • We present a new technique for achieving source separation when given only a single charmel recording. The main idea is based on exploiting the inherent time structure of sound sources by learning a priori sets of time-domain basis functions that encode the sources in a statistically efficient manner. We derive a learning algorithm using a maximum likelihood approach given the observed single charmel data and sets of basis functions. For each time point we infer the source parameters and their contribution factors. This inference is possible due to the prior knowledge of the basis functions and the associated coefficient densities. A flexible model for density estimation allows accurate modeling of the observation, and our experimental results exhibit a high level of separation performance for simulated mixtures as well as real environment recordings employing mixtures of two different sources. We show separation results of two music signals as well as the separation of two voice signals.

Separation of Single Channel Mixture Using Time-domain Basis Functions

  • 장길진;오영환
    • 한국음향학회지
    • /
    • 제21권4호
    • /
    • pp.146-146
    • /
    • 2002
  • We present a new technique for achieving source separation when given only a single channel recording. The main idea is based on exploiting the inherent time structure of sound sources by learning a priori sets of time-domain basis functions that encode the sources in a statistically efficient manner. We derive a learning algorithm using a maximum likelihood approach given the observed single channel data and sets of basis functions. For each time point we infer the source parameters and their contribution factors. This inference is possible due to the prior knowledge of the basis functions and the associated coefficient densities. A flexible model for density estimation allows accurate modeling of the observation, and our experimental results exhibit a high level of separation performance for simulated mixtures as well as real environment recordings employing mixtures of two different sources. We show separation results of two music signals as well as the separation of two voice signals.

청각장애인을 위한 사운드 이벤트 검출 기반 홈 모니터링 시스템 (Home monitoring system based on sound event detection for the hard-of-hearing)

  • 김지연;신승수;김형국
    • 한국음향학회지
    • /
    • 제38권4호
    • /
    • pp.427-432
    • /
    • 2019
  • 본 논문에서는 청각장애인을 위해 양방향 게이트 순환 신경망을 이용한 사운드 이벤트 검출 기반의 홈 모니터링 시스템을 제안한다. 제안된 시스템에서는 우선적으로 효과적인 사운드 이벤트 검출을 위해 패킷손실 은닉을 이용하여 무선 센서 네트워크로 인해 손실된 신호를 복원하고, 멀티채널 상호 상관관계 계수를 이용하여 신뢰할 수 있는 채널을 선택한다. 선택된 채널의 사운드는 이벤트 검출을 위해 두 개의 오디오 채널을 사용하는 양방향 게이트 순환신경망에 적용된다. 검출된 사운드 이벤트는 텍스트로 변환되며, 이와 함께 하모닉/퍼커시브 음원 분리 방식을 통해 햅틱 신호로 변환되어 청각장애인에게 제공된다. 실험결과는 제안한 사운드 검출기반의 성능이 기존 방식보다 더 우수하다는 것과 음원 분리 방식을 통해 사운드를 세밀한 햅틱 신호로 표현할 수 있음을 보인다.

Active Noise Cancellation using a Teacher Forced BSS Learning Algorithm

  • 손준일;이민호;이왕하
    • 센서학회지
    • /
    • 제13권3호
    • /
    • pp.224-229
    • /
    • 2004
  • In this paper, we propose a new Active Noise Control (ANC) system using a teacher forced Blind Source Separation (BSS) algorithm. The Blind Source Separation based on the Independent Component Analysis (ICA) separates the desired sound signal from the unwanted noise signal. In the proposed system, the BSS algorithm is used as a preprocessor of ANC system. Also, we develop a teacher forced BSS learning algorithm to enhance the performance of BSS. The teacher signal is obtained from the output signal of the ANC system. Computer experimental results show that the proposed ANC system in conjunction with the BSS algorithm effectively cancels only the ship engine noise signal from the linear and convolved mixtures with human voice.

가상 콘서트홀 기반의 인터랙티브 음향 체험 인터페이스 (Interactive sound experience interface based on virtual concert hall)

  • 조혜승;김형국
    • 한국음향학회지
    • /
    • 제36권2호
    • /
    • pp.130-135
    • /
    • 2017
  • 본 논문에서는 가상 콘서트홀에서 사용자가 인터랙티브한 음향 체험을 할 수 있는 인터페이스에 대해 제안한다. 제안하는 인터페이스는 가상 콘서트홀을 기반으로 좌석 위치별 음향 체험 시스템과 악기 제어 및 음향 체험 시스템으로 구성된다. 제안하는 인터페이스의 각 시스템을 구현하기 위해 인공 잔향 알고리즘과 멀티채널 음원 분리, 머리전달함수를 적용하였다. 제안하는 인터페이스는 유니티(Unity)를 사용하여 구현되었으며 사용자는 가상현실기기인 오큘러스 리프트(Oculus Rift)를 통해 가상 콘서트홀을 체험할 수 있고 립 모션(Leap Motion)을 통해 별도의 입력 도구없이 손동작만으로 시스템을 제어할 수 있으며 헤드폰을 통해 시스템이 제공하는 음향을 체험할 수 있다.

채널 기반에서 객체 기반의 오디오 콘텐츠로의 변환을 위한 비균등 선형 마이크로폰 어레이 기반의 음원분리 방법 (Non-uniform Linear Microphone Array Based Source Separation for Conversion from Channel-based to Object-based Audio Content)

  • 전찬준;김홍국
    • 방송공학회논문지
    • /
    • 제21권2호
    • /
    • pp.169-179
    • /
    • 2016
  • 오늘날 UHDTV (Ultra-High-Definition TV) 시대에 사용될 멀티미디어 부호화기로 MPEG-H에 대한 표준화가 진행되고 있다. 향후 방송용 오디오 콘텐츠는 채널 기반 오디오 콘텐츠에서 진화하여 객체 기반 오디오 콘텐츠까지도 포함하게 될 예정이다. 이에 따라, 채널 기반 오디오 콘텐츠의 객체 기반 오디오 콘텐츠로의 유기적인 변환이 필요한 실정이다. 본 논문에서는 이러한 유기적인 변환을 실현 가능하게 할 수 있는 비균등 선형 마이크로폰 어레이 기반의 음원분리 기법을 제안한다. 제안된 기법은 주어진 어레이 배치에 따라 채널간의 시간차를 분석하고, 분석된 시간차에 따라 주파수별로 특정 방위각에 위치한 입력 오디오 신호의 spectral magnitude를 예측한다. 이후, azimuth와 width 파라메타를 조정함으로써 객체 오디오 생성을 위한 음원을 분리한다. 제안된 음원분리 기법의 성능을 평가하기 위하여 객관적 음원분리 지표 및 분리정확도를 측정하였고, 최소 분산 무손실 응답 빔형성기와 독립 성분 분석 기법 등 기존 음원분리 기법과의 그 성능을 비교하였다. 비교 결과, 제안된 기법이 기존 음원분리 기법들에 비하여 우수한 음원분리 성능을 보이는 것을 알 수 있었다.