• Title/Summary/Keyword: 음성 분리

Search Result 661, Processing Time 0.039 seconds

Segaration of Corrupted Speech Signals using Canonical Correlation Analysis (정준 상관 분석을 이용한 잡음 섞인 음성 신호의 분리)

  • Kim, Seon-Il
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2012.05a
    • /
    • pp.164-167
    • /
    • 2012
  • The technology which is used for segregating voices signals from exhaust noise signals of a car is very practical one to realize the interfaces between men and machines using voices. The voice signals contaminated by exhaust noise signal of a car was separated by canonical correlation ananysis(CCA) in an environment which does not guarantee the independence between signals and have prior informations. Rearrangement for the input signals is important in CCA. CCA was studied and segragation between source signals were performed by CCA through rearrangements of each of signals. It is possible to apply the technique to various signals since it is also possible to use CCA to the signals which are not independent.

  • PDF

Single-Channel Speech Separation Using Phase Model-Based Soft Mask (위상 모델 기반의 소프트 마스크를 이용한 단일 채널 음성분리)

  • Lee, Yun-Kyung;Kwon, Oh-Wook
    • The Journal of the Acoustical Society of Korea
    • /
    • v.29 no.2
    • /
    • pp.141-147
    • /
    • 2010
  • In this paper, we propose a new speech separation algorithm to extract and enhance the target speech signals from mixed speech signals by utilizing both magnitude and phase information. Since the previous statistical modeling algorithms assume that the log power spectrum values of the mixed speech signals are independent in the temporal and frequency domain, discontinuities occur in the resultant separated speech signals. To reduce the discontinuities, we apply a smoothing filter in the time-frequency domain. To further improve speech separation performance, we propose a statistical model based on both magnitude and phase information of speech signals. Experimental results show that the proposed algorithm improve signal-to-interference ratio (SIR) by 1.5 dB compared with the previous magnitude-only algorithms.

Deep Learning-based Speech Voice Separation Training To Enhance STT Performance (STT 성능 향상을 위한 딥러닝 기반 발화 음성 분리학습)

  • Kim, Bokyoung;Yang, Youngjun;Hwang, Yonghae;Kim, Kyuheon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.851-853
    • /
    • 2022
  • 인공지능을 활용한 다양한 딥러닝 기술의 보급과 상용화로 오디오 음성 인식 분야에서도 음성 인식의 정확도를 높이기 위한 다양한 연구가 진행되고 있다. 최근 STT 를 위한 음성 인식 엔진은 딥러닝 기술을 기반으로 과거에 비해 높은 정확도를 보이고 있다. 하지만 예능 프로그램, 드라마, 스포츠 방송 등과 같이 비음성 신호와 음성 신호가 함께 녹음되는 오디오의 경우 음성 인식 정확도가 크게 낮아지는 문제가 발생한다. 이에 본 연구에서는 다양한 장르의 오디오를 음성과 음악을 분리하는 딥러닝 모델을 활용하여 음성 신호와 비음성 신호로 분리하는 방법을 제시하고, STT 결과를 분석하여 음성 인식의 정확도를 높이기 위한 연구 방향을 제시한다.

  • PDF

Consonant/Vowel Segmentation in Monosyllabic Speech Data Using the Fractal Dimension (프랙탈 차원을 이용한 단음절 음성의 자$\cdot$모음 분리)

  • Choi, Chul-Young;Kim, Hyung-Soon;Kim, Jae-Ho;Son, Kyung-Sik
    • The Journal of the Acoustical Society of Korea
    • /
    • v.13 no.3
    • /
    • pp.51-62
    • /
    • 1994
  • In this paper, we performed a class of experiments on segmenting consonant and vowel from Korean consonant-vowel (CV) monosyllable data, using the fractal dimension of the speech signals. We chose the Minkowski-Bouligand dimension as the fractal dimension, and computed it using the morphological covering method. In order to examine the usefulness of the fractal dimension in speech segmentation we carried out speech segmentation experiments using the fractal dimension alone, using the short-time energy alone, and using both the fractal dimension and the short-time energy, and compared the results. From the experiments, segmentation accuracy of $96.1\%$ was achieved for the case with using the multiplication of the slope of the fractal dimension and that of the energy, while the segmentation accuracies for the cases with using the slope of either the fractal dimension or energy alone were slightly lower $(93.6\%)$ or much lower $(88.0\%)$ than the above case, respectively. These results indicate that the fractal dimension can be used as a good parameter for speech segmentation.

  • PDF

Classification of Signals Segregated using ICA (ICA로 분리한 신호의 분류)

  • Kim, Seon-Il
    • 전자공학회논문지 IE
    • /
    • v.47 no.4
    • /
    • pp.10-17
    • /
    • 2010
  • There is no general method to find out from signals of the channel outputs of ICA(Independent Component Analysis) which is what you want. Assuming speech signals contaminated with the sound from the muffler of a car, this paper presents the method which shows what you want, It is anticipated that speech signals will show larger correlation coefficients for speech signals than others. Batch, maximum and average method were proposed using 'ah', 'oh', 'woo' vowels whose signals were spoken by the same person who spoke the speech signals and using the same vowels whose signals are by another person. With the correlation coefficients which were calculated for each vowel, voting and summation methods were added. This paper shows what the best is among several methods tried.

Enhanced 2.4kbps Harmonic Stochastic Excitation Coding (향상된 2.4kbps 하모닉 스토케스틱 여기 음성 부호화 방법)

  • 김종학;신경진;이인성
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.831-834
    • /
    • 2000
  • 본 논문은 주파수 전이신호와 시간 전이 신호에 대해서 고조파 잡음 여기 방법과 시간 분리 여기 방법을 적용한 2.4kbps 음성부호화 방법을 제안한다. 혼합 여기 부호화 방법은 주기 신호와 비 주기 신호를 효과적으로 표현하기 위해 하모닉 잡음 모델을 사용한다. 혼합신호에 대한 잡음 성분은 캡스트럴 분석 방법을 사용함으로써 추출되고, AR(Autoregressive Model) 모델에 의해 표현된다. 시간 전이구간 신호에서의 모호한 음성을 효과적으로 제거하기 위한 또 다른 방법이 제안된다. 제안된 시간 분리 방법은 시간 에너지 변화정도를 관찰함으로써 전이 시점을 감지하고 다른 시간 길이를 가지는 두 블록으로 분리하여 분석한다. 시간 분리 방법은 분석을 위한 비대칭 윈도우와 합성에서의 위상 합성 방법을 포함한다. 제안된 방법을 사용한 2.4kbps 음성부호화 방법은 주관적 음질 평가에서 전이구간에서의 지각적 음질의 향상을 보여주었으며, 원본 음성 스펙트럼과의 고조파 비 매칭에 의한 윙윙거리는 기계적인 잡음을 감소시킨다.

  • PDF

Enhaced 2.4 kbps Harmonic Stochastic Excitation Coding for Time/Frequency Transitional Speech (시간/주파수 전이신호를 위한 향상된 2.4 kbps 하모닉 스토케스틱 여기 음성 부호화 방법)

  • 김종학;이인성
    • The Journal of the Acoustical Society of Korea
    • /
    • v.19 no.7
    • /
    • pp.53-58
    • /
    • 2000
  • 본 논문은 주파수 전이신호와 시간 전이 신호에 대해서 고조파 잡음 여기 방법과 시간 분리 여기 방법을 적용한 2.4 kbps 음성부호화 방법을 제안한다. 혼합 여기 부호화 방법은 주기 신호와 비 주기 신호를 효과적으로 표현하기 위해 하모닉 잡음 모델을 사용한다. 혼합신호에 대한 잡음 성분은 캡스트럴 분석 방법을 사용함으로써 추출되고, AR (Autoregressive Model) 모델에 의해 표현된다. 시간 전이구간 신호에서의 모호한 음성을 효과적으로 제거하기 위한 또 다른 방법이 제안된다. 제안된 시간 분리 방법은 시간 에너지 변화정도를 관찰함으로써 전이 시점을 감지하고 다른 시간 길이를 가지는 두 블록으로 분리하여 분석한다. 시간 분리 방법은 분석을 위한 비대칭 윈도우와 합성에서의 위상 합성 방법을 포함한다. 제안된 방법을 사용한 2.4 kbps 음성부호화 방법은 주관적 음질 평가에서 전이구간에서의 지각적 음질의 향상을 보여주었으며, 원본 음성 스펙트럼과의 고조파 비 매칭에 의한 윙윙거리는 기계적인 잡음을 감소시킨다.

  • PDF

Implementation of Environmental Noise Remover for Speech Signals (배경 잡음을 제거하는 음성 신호 잡음 제거기의 구현)

  • Kim, Seon-Il;Yang, Seong-Ryong
    • 전자공학회논문지 IE
    • /
    • v.49 no.2
    • /
    • pp.24-29
    • /
    • 2012
  • The sounds of exhaust emissions of automobiles are independent sound sources which are nothing to do with voices. We have no information for the sources of voices and exhaust sounds. Accordingly, Independent Component Analysis which is one of the Blind Source Separaton methods was used to segregate two source signals from each mixed signals. Maximum Likelyhood Estimation was applied to the signals came through the stereo microphone to segregate the two source signals toward the maximization of independence. Since there is no clue to find whether it is speech signal or not, the coefficients of the slope was calculated by the autocovariances of the signals in frequcency domain. Noise remover for speech signals was implemented by coupling the two algorithms.

Robust Speech Recognition Using Independent Component Analysis (독립성분분석을 이용한 강인한 음성인식)

  • 임형규;이창기
    • Journal of the Korea Computer Industry Society
    • /
    • v.5 no.2
    • /
    • pp.269-274
    • /
    • 2004
  • Noisy speech recognition is one of most important problems in speech recognition. In this paper, a method which efficiently removes the mixed noise with speech, is proposed. The proposed method is based on the ICA to separate the mixed noise. ICA(Independent component analysis) is a signal processing technique, whose goal is to express a set of random variables as linear combinations of components that are statistically as independent from each other as possible.

  • PDF

Recursive Segmentation of Speech Signals using Expectation-Minimization (EM 알고리즘을 이용할 재귀적인 음소분리)

  • Kang Byung-Ok;Jung Hong
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • spring
    • /
    • pp.103-106
    • /
    • 2002
  • 본 논문에서는 입력음성신호로부터 음소간의 경계를 찾는 문제를 풀기위해 재귀적인 방식으로 EM 알고리즘을 적용한다. 즉, 예상되는 두 끝점 사이의 부분을 현재의 프레임 n 이라고 하면, 그 전 프레임 n-1 에서 구해진 끝점이 주는 정보와 그 끝점으로부터 이어지는 음성샘플로부터 현재 프레임의 끝점을 구한다. 또한 현재의 프레임 n 에서 끝점을 추정해 내면, 그 추정한 끝점과 그 점 이후에 이어지는 음성샘플값으로부터 다음 프레임 n+1 의 끝점을 구한다. 이러한 방식을 재귀적인 음소분리 방식이라고 한다. 그리고, 각 프레임에서 끝점을 구하기 위해서는 끝점의 좌표를 추정해야 할 파라메터로 하고, 그 주변의 음성샘플 값을 관찰 값으로 하여 EM(Expectation and Maximization) 알고리즘을 이용한다. 이 EM 알고리즘을 이용한 재귀적인 음소분리 방식을 실제 음성 DB 로부터 음소쌍을 추출하여 테스트 했을 때 약 5 회의 EM 반복 후에 경계간으로 수렴함을 볼 수 있었다.

  • PDF