• 제목/요약/키워드: speech separation

검색결과 88건 처리시간 0.027초

마이크로폰 배열에서 독립벡터분석 기법을 이용한 잡음음성의 음질 개선 (Microphone Array Based Speech Enhancement Using Independent Vector Analysis)

  • 왕씽양;전성일;배건성
    • 말소리와 음성과학
    • /
    • 제4권4호
    • /
    • pp.87-92
    • /
    • 2012
  • Speech enhancement aims to improve speech quality by removing background noise from noisy speech. Independent vector analysis is a type of frequency-domain independent component analysis method that is known to be free from the frequency bin permutation problem in the process of blind source separation from multi-channel inputs. This paper proposed a new method of microphone array based speech enhancement that combines independent vector analysis and beamforming techniques. Independent vector analysis is used to separate speech and noise components from multi-channel noisy speech, and delay-sum beamforming is used to determine the enhanced speech among the separated signals. To verify the effectiveness of the proposed method, experiments for computer simulated multi-channel noisy speech with various signal-to-noise ratios were carried out, and both PESQ and output signal-to-noise ratio were obtained as objective speech quality measures. Experimental results have shown that the proposed method is superior to the conventional microphone array based noise removal approach like GSC beamforming in the speech enhancement.

반사음이 존재하는 양귀 모델의 음원분리에 관한 연구 (A study on sound source segregation of frequency domain binaural model with reflection)

  • 이채봉
    • 융합신호처리학회논문지
    • /
    • 제15권3호
    • /
    • pp.91-96
    • /
    • 2014
  • 두 개의 입력소자에 의한 음원방향 및 분리방법으로서는 연산량이 적고, 음원분리 성능이 높은 주파수 양귀 모델(Frequency Domain Binaural Model : FDBM)이 있다. FDBM은 주파수 영역에서 양귀간 위상차(Interaural Phase Difference : IPD) 및 양귀간 레벨차(Interaural Level Difference : ILD)를 구하여 음향신호가 오는 방향과 음원의 분리처리를 한다. 그러나 실제 환경에서는 반사음의 문제가 되고 있다. 이러한 반사음에 의한 영향을 줄이기 위하여 선행음 효과에 의한 직접음의 음상정위를 모의하여 초기 도착음을 검출하고 직접음이 오는 방향과 음원분리 방법을 제시하였다. 제시한 방법을 이용하여 음원방향 추정 및 분리에 대한 성능을 시뮬레이션으로 검토하였다. 그 결과, 방향추정은 음원이 오는 방향에서 ${\pm}10%$의 범위로 집중되어 음원의 방향과 가까운 값으로 추정되었다, 반사음이 존재하는 경우의 음원분리는 기존의 FDBM에 비하여 코히런스(Coherence), 음성품질 지각평가 PESQ(Perceptual Evaluation of Speech Quality : PESQ)가 높고, 정면에서의 지향특성 감쇠량이 작아 분리의 정도가 개선됨을 나타내었다. 그러나 반사음이 존재하지 않는 경우는 분리 정도가 낮았다.

화자 구분 시스템의 관심 화자 추출을 위한 i-vector 유사도 기반의 음성 분할 기법 (I-vector similarity based speech segmentation for interested speaker to speaker diarization system)

  • 배아라;윤기무;정재희;정보경;김우일
    • 한국음향학회지
    • /
    • 제39권5호
    • /
    • pp.461-467
    • /
    • 2020
  • 잡음이 많고 여러 사람이 있는 공간에서 음성인식의 성능은 깨끗한 환경보다 저하될 수밖에 없다. 이러한 문제점을 해결하기 위해 본 논문에서는 여러 신호가 섞인 혼합 음성에서 관심 있는 화자의 음성만 추출한다. 중첩된 구간에서도 효과적으로 분리해내기 위해 VoiceFilter 모델을 사용하였으며, VoiceFilter 모델은 여러 화자의 발화로 이루어진 음성과 관심 있는 화자의 발화로만 이루어진 참조 음성이 입력으로 필요하다. 따라서 본 논문에서는 Probabilistic Linear Discriminant Analysis(PLDA) 유사도 점수로 군집화하여 혼합 음성만으로도 참조 음성을 대체해 사용하였다. 군집화로 생성한 음성에서 추출한 화자 특징과 혼합 음성을 VoiceFilter 모델에 넣어 관심 있는 화자의 음성만 분리함으로써 혼합 음성만으로 화자 구분 시스템을 구축하였다. 2명의 화자로 이루어진 전화 상담 데이터로 화자 구분 시스템의 성능을 평가하였으며, 분리 전 상담사(Rx)와 고객(Tx)의 음성 Source to Distortion Ratio(SDR)은 각각 5.22 dB와 -5.22 dB에서 분리 후 각각 11.26 dB와 8.53 dB로 향상된 성능을 보였다.

차량환경에서 음성명령어기 사용을 위한 음성개선방법 (Speech Enhancement for Voice commander in Car environment)

  • 백승권;한민수;남승현;이봉호;함영권
    • 방송공학회논문지
    • /
    • 제9권1호
    • /
    • pp.9-16
    • /
    • 2004
  • 본 논문에서는 차량용 음성명령어기의 사용을 위한 전처리 과정으로 음성개선 방법을 다룬다 특히 보다 주위 소음에 자유롭고 단말 조작에 있어 안정성을 보장하기 위하여 일반적 단일 마이크로폰으로 처리되는 잡음뿐만 아니라 음성명령어를 제외한 오디오 신호 등 비정적 통계적 특성을 갖는 소음들도 제거 될 수 있도록 음성개선 방법을 제안한다. 우리는 2개의 마이크로폰을 가지고 BSS 알고리즘을 적용하여 비정적 신호들을 분리하고, 분리된 신호에 대하여 Kalman 필터를 이용하여 시간상 단구간 정적 잡음을 제거한다. 인식 실험 결과를 통하여 공간적, 시간적 음성개선 방법이 순차적으로 적용될 때, 실제 차량 환경에서 음성 개선 알고리즘으로 적용될 수 있음을 보였다.

공동 행렬대각화 조건 기반 온라인 음원 신호 분리 및 잔향제거 (Online blind source separation and dereverberation of speech based on a joint diagonalizability constraint)

  • 유호건;김도희;송민환;박형민
    • 한국음향학회지
    • /
    • 제40권5호
    • /
    • pp.503-514
    • /
    • 2021
  • 신호에서의 잔향은 암묵음원분리 시스템의 성능을 크게 저하시키는 경향이 있다. 특히 온라인으로 진행되는 시스템일 때, 그 영향이 더욱 두드러진다. 최근 공동 행렬대각화를 활용하여 해당 문제를 해결하고자 하는 연구들이 이루어지고 있다. 본 논문에서는 이를 활용, 발전하여 잔향이 존재하는 환경에서의 미결정 다중 화자의 음원 분리 온라인 알고리즘에 잔향 제거 기능을 추가함으로써 분리한 음원의 품질을 개선하였다. WSJCAM0 데이터베이스에서 실험을 통해 기존에 사용되고 있는 온라인 알고리즘 성능과 비교하였다. 성능 평가는 신호 대 왜곡 비(Signal-to-Distortion Ratio, SDR)와 Perceptual Evaluation of Speech Quality(PESQ)를 통해 이루어졌고, 기존 알고리즘 대비 SDR은 평균 1.23 dB에서 3.76 dB로 향상되었고, PESQ는 1.15에서 2.12로 성능이 향상되었음을 검증하였다.

잡음 환경하에서의 음성 분리 (Convolutive source separation in noisy environments)

  • 장인선;최승진
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2003년도 10월 학술대회지
    • /
    • pp.97-100
    • /
    • 2003
  • This paper addresses a method of convolutive source separation that based on SEONS (Second Order Nonstationary Source Separation) [1] that was originally developed for blind separation of instantaneous mixtures using nonstationarity. In order to tackle this problem, we transform the convolutive BSS problem into multiple short-term instantaneous problems in the frequency domain and separated the instantaneous mixtures in every frequency bin. Moreover, we also employ a H infinity filtering technique in order to reduce the sensor noise effect. Numerical experiments are provided to demonstrate the effectiveness of the proposed approach and compare its performances with existing methods.

  • PDF

잡음환경에서의 음성인식 성능 향상을 위한 이중채널 음성의 CASA 기반 전처리 방법 (CASA-based Front-end Using Two-channel Speech for the Performance Improvement of Speech Recognition in Noisy Environments)

  • 박지훈;윤재삼;김홍국
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2007년도 하계종합학술대회 논문집
    • /
    • pp.289-290
    • /
    • 2007
  • In order to improve the performance of a speech recognition system in the presence of noise, we propose a noise robust front-end using two-channel speech signals by separating speech from noise based on the computational auditory scene analysis (CASA). The main cues for the separation are interaural time difference (ITD) and interaural level difference (ILD) between two-channel signal. As a result, we can extract 39 cepstral coefficients are extracted from separated speech components. It is shown from speech recognition experiments that proposed front-end has outperforms the ETSI front-end with single-channel speech.

  • PDF

SPEECH SYNTHESIS USING LARGE SPEECH DATA-BASE

  • Lee, Kyu-Keon;Mochida, Takemi;Sakurai, Naohiro;Shirai, Katasuhiko
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1994년도 FIFTH WESTERN PACIFIC REGIONAL ACOUSTICS CONFERENCE SEOUL KOREA
    • /
    • pp.949-956
    • /
    • 1994
  • In this paper, we introduce a new speech synthesis method for Japanese and Korean arbitrary sentences using the natural speech data-base. Also, application of this method to a CAI system is discussed. In our synthesis method, a basic sentence and basic accent-phrases are selected from the data-base against a target sentence. Factors for those selections are phrase dependency structure (separation degree), number of morae, type of accent and phonemic labels. The target pitch pattern and phonemic parameter series are generated using those selected basic units. As the pitch pattern is generated using patterns which are directly extracted form real speech, it is expected to be more natural than any other pattern which is estimated by any model. Until now, we have examined this method on Japanese sentence speech and affirmed that the synthetic sound preserves human-like features fairly well. Now we extend this method to Korean sentence speech synthesis. Further more, we are trying to apply this synthesis unit to a CAI system.

  • PDF

위상 정보를 고려한 로그멜 영역에서의 2단계 선험 SNR 추정 (Two-step a priori SNR Estimation in the Log-mel Domain Considering Phase Information)

  • 이윤경;권오욱
    • 말소리와 음성과학
    • /
    • 제3권1호
    • /
    • pp.87-94
    • /
    • 2011
  • The decision directed (DD) approach is widely used to determine a priori SNR from noisy speech signals. In conventional speech enhancement systems with a DD approach, a priori SNR is estimated by using only the magnitude components and consequently follows a posteriori SNR with one frame delay. We propose a phase-dependent two-step a priori SNR estimator based on the minimum mean square error (MMSE) in the log-mel spectral domain so that we can consider both magnitude and phase information, and it can overcome the performance degradation caused by one frame delay. From the experimental results, the proposed estimator is shown to improve the output SNR of enhanced speech signals by 2.3 dB compared to the conventional DD approach-based system.

  • PDF

언어치료환자를 위한 비음측정기 모듈의 구조가 비음치 산출에 미치는 영향 (Influence of Nasometer Structure on Nasalance for Speech Therapy)

  • 우승탁;박영빈;김주영;오다희;하지완;나승대;김명남
    • 한국멀티미디어학회논문지
    • /
    • 제22권2호
    • /
    • pp.157-166
    • /
    • 2019
  • With the development of medical technology, interest in rehabilitation devices is increasing and various devices are being studied. In particular, devices for speech disorders such as hearing impairment and cleft palate are attracting attention. In general, the nasometer is used for patients with flaccid dysarthria and velopharyngeal incompetence(VPI). However, in the case of the conventional separator type nasometer, that has an acoustic feedback problem between the oral and nasal sounds. In recent, the mask type nasometer has been developed which is insensitive to acoustic feedback. But, still not popularized. In this paper, the nasometer characteristics of the conventional separation type and mask type are analyzed. Also, We were obtained clinical acoustic data from the 6 subjects and examined the significant differences in the structure of the separation type and mask type nasometer. Through experiments, it was confirmed that the measurement was about 3~15% higher in the mask type nasometer than the conventional nasometer having a separator type. Also, We was considered the necessity of nasometer signal processing for acoustic feedback reduction and nasalance calculation optimization.