• 제목/요약/키워드: Single channel speech enhancement

검색결과 19건 처리시간 0.021초

Improved Single Channel Speech Enhancement Algorithm Using Adaptive Postfiltering

  • 송은우;강홍구
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2011년도 하계학술대회
    • /
    • pp.122-125
    • /
    • 2011
  • In real environment, background noise exists everywhere and degrades the performance of system. To reduce this distortion, a speech enhancement algorithm can be very useful and variety methods have been proposed. In this paper, we propose a postfilter to improve the performance of optimally modified log-spectral amplitude (OM-LSA) estimator. Proposed algorithm uses the formant postfilter to minimize perceptual distortion caused by background noise. We adjust an emphasizing parameter which is varied by spectral flatness and first reflection coefficient. The performance of the proposed algorithm is evaluated by measuring the log-spectral distance (LSD) and the perceptual evaluation of speech quality (PESQ) score. The test results show the improvement of proposed algorithm compared to conventional OM-LSA.

  • PDF

재귀적 지연추정기를 갖는 적응잡음제거 기법을 이용한 음성개선 (Speech Enhancement Using the Adaptive Noise Canceling Technique with a Recursive Time Delay Estimator)

  • 강해동;배근성
    • 전자공학회논문지B
    • /
    • 제31B권7호
    • /
    • pp.33-41
    • /
    • 1994
  • A single channel adaptive noise canceling (ANC) technique with a recursive time delay estimator (RTDE) is presented for removing effects of additive noise on the speech signal. While the conventional method makes a reference signal for the adaptive filter using the pitch estimated on a frame basis from the input speech, the proposed method makes the reference signal using the delay estimated recursively on a sample-by-sample basis. As the RTDEs, the recursion formulae of autocorrelation function (ACF) and average magnitude difference function (AMDF) are derived. The normalized least mean square (NLMS) and recursive least square (RLS) algorithms are applied for adaptation of filter coefficients. Experimental results with noisy speech demonstrate that the proposed method improves the perceived speech quality as well as the signal-to-noise ratio and cepstral distance when compared with the conventional method.

  • PDF

임베디드 연산을 위한 잡음에서 음성추출 U-Net 설계 (Design of Speech Enhancement U-Net for Embedded Computing)

  • 김현돈
    • 대한임베디드공학회논문지
    • /
    • 제15권5호
    • /
    • pp.227-234
    • /
    • 2020
  • In this paper, we propose wav-U-Net to improve speech enhancement in heavy noisy environments, and it has implemented three principal techniques. First, as input data, we use 128 modified Mel-scale filter banks which can reduce computational burden instead of 512 frequency bins. Mel-scale aims to mimic the non-linear human ear perception of sound by being more discriminative at lower frequencies and less discriminative at higher frequencies. Therefore, Mel-scale is the suitable feature considering both performance and computing power because our proposed network focuses on speech signals. Second, we add a simple ResNet as pre-processing that helps our proposed network make estimated speech signals clear and suppress high-frequency noises. Finally, the proposed U-Net model shows significant performance regardless of the kinds of noise. Especially, despite using a single channel, we confirmed that it can well deal with non-stationary noises whose frequency properties are dynamically changed, and it is possible to estimate speech signals from noisy speech signals even in extremely noisy environments where noises are much lauder than speech (less than SNR 0dB). The performance on our proposed wav-U-Net was improved by about 200% on SDR and 460% on NSDR compared to the conventional Jansson's wav-U-Net. Also, it was confirmed that the processing time of out wav-U-Net with 128 modified Mel-scale filter banks was about 2.7 times faster than the common wav-U-Net with 512 frequency bins as input values.

위상 모델 기반의 소프트 마스크를 이용한 단일 채널 음성분리 (Single-Channel Speech Separation Using Phase Model-Based Soft Mask)

  • 이윤경;권오욱
    • 한국음향학회지
    • /
    • 제29권2호
    • /
    • pp.141-147
    • /
    • 2010
  • 본 논문은 혼합 음성 신호로부터 크기와 위상 정보를 모두 고려하여 목표 음성 신호를 추출하고 향상하는 음성 분리 알고리듬을 제안한다.기존 연구에서는 혼합된 음성 신호의 로그 전력 스펙트럼 값이 시간-주파수 영역에서 서로 독립이라고 가정한 통계적 모델을 적용하기 때문에 음성 분리 결과 파형에 불연속을 야기한다. 본 논문에서는 이러한 불연속을 감소시키기 위하여 시간-주파수 영역에서의 스무딩 필터를 적용한다. 음성 분리 성능을 더욱 향상시키기 위하여 음성 신호의 크기와 함께 위상 정보를 고려하는 통계적 모델을 제안한다. 실혐 결과, 제안된 알고리즘이 기존의 크기 정보만을 사용한 알고리즘에 비하여 1.5 dB의 화자대간섭비 (SIR)를 개선하는 것으로 나타난다.

음성 향상에서 강인한 새로운 선행 SNR 추정 기법에 관한 연구 (A Novel Approach to a Robust A Priori SNR Estimator in Speech Enhancement)

  • 박윤식;장준혁
    • 한국음향학회지
    • /
    • 제25권8호
    • /
    • pp.383-388
    • /
    • 2006
  • 본 논문에서는 잡음 환경에서 단일 마이크로폰의 음성 향상에 대한 새로운 기법을 제시했다. 일반적으로 널리 알려진 스펙트럼 차감법에 근거한 음성 향상 기술은 신호 대 잡음비에 따른 스펙트럼 이득으로 표현된다. 대표적인 Ephraim과 Malah의 decision-directed (DD) 추정치는 잡음 구간에서 효율적으로 뮤지컬 잡음을 제거하지만 음성 구간에서는 이전 프레임의 음성 스펙트럼 성분에 더 큰 비중을 두기 때문에 a priori SNR의 프레임 지연이 발생한다. 따라서 DD에 의해 추정된 a priori SNR이 적용된 잡음 제거 이득은 현재 프레임보다 이전 프레임에 영향을 받으므로 음성 전이 구간에서 잡음 제거 성능을 저하시킨다. 본 논문은 DD의 가중치 파라미터에 Sigmoid Type의 함수를 적용하여 계산적으로는 간단하지만 효과적인 음성 향상 알고리즘을 제안한다. 제안된 접근 방식은 DD의 주요 파라미터인 a priori SNR 지연의 문제점을 해결하면서 뮤지컬 잡음 제거에 우수한 DD의 이점은 유지한다. 제안된 알고리즘의 성능은 다양한 잡음 환경에서 ITU-T P.862 Perceptual Evaluation of Speech Quality (PESQ) 와 Mean Opinion Score (MOS). 그리고 음성 스펙트로그램 (Spectrogram)에 의해 평가했고 기존의 DD의 고정된 가중치 파라미터를 사용했을 때 보다 향상된 결과를 나타내었다.

MAV 환경에서의 CNN 기반 듀얼 채널 음향 향상 기법 (CNN based dual-channel sound enhancement in the MAV environment)

  • 김영진;김은경
    • 한국정보통신학회논문지
    • /
    • 제23권12호
    • /
    • pp.1506-1513
    • /
    • 2019
  • 최근 드론과 같은 멀티로터 UAV(Unmanned Aerial Vehicle, 무인항공기)의 산업 범위가 크게 확대됨에 따라, UAV를 활용한 데이터의 수집 및 처리, 분석에 대한 요구도 함께 증가하고 있다. 그러나 UAV를 이용해서 수집된 음향 데이터는 UAV의 모터 소음과 바람 소리 등으로 크게 손상되어, 음향 데이터의 처리 및 분석이 어렵다는 단점이 있다. 따라서 본 논문에서는 UAV에 연결된 마이크를 통해 수신된 음향 신호로부터 목표 음향 신호의 품질을 향상시킬 수 있는 방법에 대해 연구하였다. 본 논문에서는 기존의 단일 채널 음향 향상 기술 중 하나인 densely connected dilated convolutional network를 음향 신호의 채널 간 특성을 반영할 수 있도록 확장하였으며, 그 결과 SDR, PESQ, STOI과 같은 평가 지표에서 기존 연구 대비 좋은 성능을 보였다.

Spectral Subtraction과 Two Channel Beamfomer를 이용한 음성 강조 기법 (Speech Enhancement using Spectral Subtraction and Two Channel Beamfomer)

  • 김학윤
    • 한국음향학회지
    • /
    • 제18권1호
    • /
    • pp.38-44
    • /
    • 1999
  • 본 연구에서는 단일 채널 단구간 진폭 스펙트럼 추정 기법의 하나인 Spectral Subtraction 방법과 2 채널 Griffiths-Jim Beamformer를 결합한 음성 강조기법을 제안한다. 기존의 단구간 진폭 스펙트럼 추정 기법에서는 관측된 신호의 스펙트럼에서 잡음의 평균 스펙트럼을 감산하여 잡음을 제거하고 있지만, 이 방법을 이용하여 잡음을 제거 할 경우에는 잡음 변동시 잡음 억제 능력이 미약하고, 목적 신호의 단구간 진폭 스펙트럼 추정 성능이 낮아진다는 단점을 갖고 있다. 그 이유는 실제 잡음의 스펙트럼은 평균값 주위에 분산되어 있기 때문이 다. 그러므로, 2 채널 Beamformer의 사각(Blocking Matrix)를 이용하여 분석 구간에서의 잡음의 단구간 진폭 스펙트럼을 추정하고, 이 추정된 값을 이용하여 목적 신호의 스펙트럼을 추정하는 기법을 제안하고, 컴퓨터 시뮬레이션을 통하여 그 유효성을 입증한다.

  • PDF

청각 시스템의 특징을 이용한 음성 명료도 향상 (Speech Enhancement based on human auditory system characteristics)

  • 이상훈;정홍
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2007년도 하계종합학술대회 논문집
    • /
    • pp.411-412
    • /
    • 2007
  • 본 논문에서는 인간 청각 시스템의 특징을 이용한 음성명료도 향상 알고리즘을 제안한다. 기존의 연구들은 음성과 잡음이 같이 섞여 있는 Single-Channel에서의 명료도 향상의 대해 주로 다루었다. 하지만 잡음에 섞이기 전의 깨끗한 음성과 주변 잡음이 분리된 Dual-Channel에서의 명료도 향상에 관한 연구는 거의 다루어지지 않았다. 본 논문에서 음성을 잡음이 섞이기 전에 미리 강화시켜 나중에 잡음에 섞였을 때 명료도가 강화되도록 하는 방법을 제안한다. 인간 청각 시스템의 마스킹 효과를 적절히 이용하여 음성을 강화시키는 방법을 사용하였다. 실험 결과 이 방법은 단순히 볼륨만을 높이는 방법에 비해 명료도가 더 향상되는 것으로 나타났다.

  • PDF

2채널 마이크로폰을 이용한 청각 기기에서의 빔포밍에 대한 객관적 검증 (Objective Evaluation of Beamforming Techniques for Hearing Devices with Two-channel Microphone)

  • 조경원;한종희;홍성화;이상민;김동욱;김인영;김선일
    • 대한의용생체공학회:의공학회지
    • /
    • 제32권3호
    • /
    • pp.198-206
    • /
    • 2011
  • Hearing devices like cochlear implant, vibrant soundbridge, etc. try to offer better sound for people. In hearing devices, several beamformers including conventional directional microphone are applicable to noise reduction. Each beamformer has different directional response and it could change sound intelligibility or quality for listeners. Therefore, we investigated the performance of three beamformers, which are first and second order directional microphone, and broadband beamformer(BBF) with a computer simulation assuming hearing device microphone configuration. We also calculated objective measurements which have been used to evaluate speech enhancement algorithms. In the simulation, a single speech and a single babble noisewere propagated from the front and $135^{\circ}$ azimuth degrees respectively. Microphones were configured in an end-fire array and the spacing was varied in comparison. With 3 cm spacing, BBF had about 3 dB higher enhanced SNR than that of directional microphones. However, enhancement of segmental SNR and frequency weighted segmental SNR were similar between the first order directional microphone and broadband beamformer. In addition when steady state noise was used, broadband beamformer showed the increased performance and had the highest enhanced SNR, and segmental SNR.