• 제목/요약/키워드: Speech spectrum

검색결과 307건 처리시간 0.023초

차량에서의 음성인식율 향상을 위한 전처리 기법 (Preprocessing Technique for Improvement of Speech Recognition in a Car)

  • 김현태;박장식
    • 한국콘텐츠학회논문지
    • /
    • 제9권1호
    • /
    • pp.139-146
    • /
    • 2009
  • 본 논문에서는 차량에서의 자동 음성인식 시스템과 같이 신호대잡음비가 낮은 잡음 환경에서의 음성인식에 적합한 변형된 스펙트럼 차감법을 제안한다. 기존의 스펙트럼 차감법은 스펙트럼에서 낮은 신호대 잡음비(SNR)를 갖는 부분은 감쇄되고, 신호대잡음비가 높은 부분은 강조되는 신호대잡음비에 의존한다. 그러나 이러한 구성은 높은 신호대잡음비를 갖는 환경에서는 적절하나 차량 환경과 같이 낮은 신호대잡음비를 나타내는 환경에서는 매우 부적절하다. 제안하는 방법은 낮은 신호대잡음비를 갖는 잡음 환경을 위해 음성우세영역을 강조하여 불필요하게 음성영역이 과차감되지 않도록 방지한다. 차량용 음성명령어 어휘를 대상으로 한 실험 결과에서 제안하는 방법이 기존의 방법에 비해 우수한 것을 확인하였다.

서브밴드 가중치를 적용한 스펙트럼 최소값 추적을 이용하는 수정된 IMCRA 기반의 음성 향상 기법 (Speech Enhancement Based on Modified IMCRA Using Spectral Minima Tracking with Weighted Subband Selection)

  • 박윤식;박규석;이상민
    • 대한전자공학회논문지SP
    • /
    • 제49권3호
    • /
    • pp.89-97
    • /
    • 2012
  • 본 논문에서는 잡음환경에서 음성 향상 (speech enhancement)을 위한 새로운 잡음전력 추정 방법을 제안한다. 음성 향상 알고리즘에 널리 적용되고 있는 IMCRA (improved minima controlled recursive averaging) 기법은 오염된 음성신호로부터 추정된 최소 전력 스펙트럼에 기반하여 잡음전력을 추정하는 기존의 방법을 개선하기 위해 간단한 음성 검출 알고리즘을 이용하여 대략적으로 음성 성분이 제거된 전력 스펙트럼에서 최소값을 추정함으로써 음성구간에서 발생할 수 있는 음성왜곡 문제점을 개선하였다. 하지만 비정상 잡음이나 신호 대 잡음 비 (SNR signal-to-noise ratio)가 낮은 환경에서는 음성 검출 성능이 저하되어 음성구간에서 음성왜곡이 발생되는 기존의 문제점이 여전히 발생된다. 따라서 제안된 방법에서는 향상된 잡음전력 추정을 위하여 기존의 IMCRA에서 추정된 최소 전력 스펙트럼에 대하여 스펙트럼 최소값 추적 (SMT, spectral minima tracking) 기법을 적용하고 IMCRA에 의한 최소값과 SMT에 의해 추정된 최소값을 서브밴드 (subband)에 따라 가중치를 적용하여 결합한다. 제안된 알고리즘은 기존의 방법과 주관적 및 객관적 음질평가 테스트를 통해 비교 평가한 결과 다양한 배경잡음 환경에서 향상된 성능을 보였다.

HMM 기반 감정 음성 합성기 개발을 위한 감정 음성 데이터의 음색 유사도 분석 (Analysis of Voice Color Similarity for the development of HMM Based Emotional Text to Speech Synthesis)

  • 민소연;나덕수
    • 한국산학기술학회논문지
    • /
    • 제15권9호
    • /
    • pp.5763-5768
    • /
    • 2014
  • 하나의 합성기에서 감정이 표현되지 않는 기본 음성과 여러 감정 음성을 함께 합성하는 경우 음색을 유지하는 것이 중요해 진다. 감정이 과도하게 표현된 녹음 음성을 사용하여 합성기를 구현하는 경우 음색이 유지되지 못해 각 합성음이 서로 다른 화자의 음성처럼 들릴 수 있다. 본 논문에서는 감정 레벨을 조절하는 HMM 기반 음성 합성기를 구현하기 위해 구축한 음성데이터의 음색 변화를 분석하였다. 음성 합성기를 구현하기 위해서는 음성을 녹음하여 데이터베이스를 구축하게 되는데, 감정 음성 합성기를 구현하기 위해서는 특히 녹음 과정이 매우 중요하다. 감정을 정의하고 레벨을 유지하는 것은 매우 어렵기 때문에 모니터링이 잘 이루어져야 한다. 음성 데이터베이스는 일반 음성과 기쁨(Happiness), 슬픔(Sadness), 화남(Anger)의 감정 음성으로 구성하였고, 각 감정은 High/Low의 2가지 레벨로 구별하여 녹음하였다. 기본음성과 감정 음성의 음색 유사도 측정을 위해 대표 모음들의 각각의 스펙트럼을 누적하여 평균 스펙트럼을 구하고, 평균 스펙트럼에서 F1(제 1포만트)을 측정하였다. 감정 음성과 일반 음성의 음색 유사도는 Low-level의 감정 데이터가 High-level의 데이터 보다 우수하였고, 제안한 방법이 이러한 감정 음성의 음색 변화를 모니터링 할 수 있는 방법이 될 수 있음을 확인할 수 있었다.

무발화 자폐스펙트럼장애 중재에 대한 언어재활사의 현황과 인식, 요구 조사 (Survey on the Status and Perceptions, Needs of Non-verbal Autism Spectrum Disorders Intervention of Speech-Language Pathologists)

  • 손소이
    • 한국콘텐츠학회논문지
    • /
    • 제22권9호
    • /
    • pp.520-530
    • /
    • 2022
  • 본 연구는 무발화 자폐스펙트럼장애 중재에 관한 언어재활사의 현황과 인식, 요구에 대하여 설문조사를 통하여 살펴보고자 하였다. 조사 대상으로는 언어재활사협회 회원으로 등록되어 있는 언어재활사 116명을 대상으로 하였다. 이에 결과는 다음과 같다. 첫째, 현장 언어재활사 중 96.6%가 무발화 자폐스펙트럼장애를 의뢰받은 적이 있다고 하였고 SELSI를 가장 많이 사용하는 평가도구로 의사소통기능과 사회적 상호작용을 가장 많이 사용하는 중재 목표인 것으로 나타났다. 둘째, 전체 중 86.2%가 언어치료에 어려움이 있다고 하였으며 부담이 되는 이유에 대해서는 언어치료 방법의 부족이라고 답을 하였다. 또한, 무발화 자폐스펙트럼장애에 대한 언어치료의 지식 정도에서는 치료영역에서 낮게 나타났으며 자신감 정도는 의사소통기능과 사회적 상호작용에서만 긍정적으로 응답하였다. 셋째, 교과 과정 내에서 필요하다고 생각하는 교육은 치료 방법에 대한 교육이었으며, 정규 과정 외 교육의 개선점으로는 전문가 과정이나 워크숍과 같은 교육 증가와 슈퍼비전 활성화인 것으로 나타났다. 본 연구결과로부터 추후 관련 교과 과정의 확대 및 개선이 이루어지기를 기대해 본다.

Two-Microphone Binary Mask Speech Enhancement in Diffuse and Directional Noise Fields

  • Abdipour, Roohollah;Akbari, Ahmad;Rahmani, Mohsen
    • ETRI Journal
    • /
    • 제36권5호
    • /
    • pp.772-782
    • /
    • 2014
  • Two-microphone binary mask speech enhancement (2mBMSE) has been of particular interest in recent literature and has shown promising results. Current 2mBMSE systems rely on spatial cues of speech and noise sources. Although these cues are helpful for directional noise sources, they lose their efficiency in diffuse noise fields. We propose a new system that is effective in both directional and diffuse noise conditions. The system exploits two features. The first determines whether a given time-frequency (T-F) unit of the input spectrum is dominated by a diffuse or directional source. A diffuse signal is certainly a noise signal, but a directional signal could correspond to a noise or speech source. The second feature discriminates between T-F units dominated by speech or directional noise signals. Speech enhancement is performed using a binary mask, calculated based on the proposed features. In both directional and diffuse noise fields, the proposed system segregates speech T-F units with hit rates above 85%. It outperforms previous solutions in terms of signal-to-noise ratio and perceptual evaluation of speech quality improvement, especially in diffuse noise conditions.

청각장애 아동과 일반 아동의 마찰음에 나타난 음향음성학적 특성 비교 (Comparison of Acoustic Phonetic Characteristics of Korean Fricative Sounds Pronounced by Hearing-impaired Children and Normal Children)

  • 김윤하;김은연;장승진;최예린
    • 말소리와 음성과학
    • /
    • 제6권2호
    • /
    • pp.73-79
    • /
    • 2014
  • Alveolar fricative sounds /s/ and /s'/ are learned last for normal children in the speech development process for Koreans. These are especially difficult to articulate for hearing-impaired children often causing articulation errors. The acoustic phonetic evaluation uses testing tools to provide indirect and object information. These objective resources can be compared with standardized resources on speech when interpreting the results of a test. However, most previous studies in Korea did not consider acoustic studies that used the spectrum moment values of hearing-impaired children. Therefore, this study was conducted to compare the characteristics of hearing-impaired children's pronunciation of fricative sounds using spectrum moment values. For this purpose, the study selected a total of 10 hearing-impaired children (5 boys and 5 girls) currently in 3rd or 5th grade and attending one of the elementary schools in Seoul or Gyeonggi-do. For the selection process, their age, type of hearing aid, implantation of hearing aid (CI) before two years of age, hearing capacity (dB) before and after wearing the hearing aid, duration of speech rehabilitation, and time of learning alveolar fricative sounds were all considered. Also, 10 normal children (5 boys and 5 girls) were selected among 3rd or 5th grade students attending one of the elementary schools in Seoul or Gyeonggi-do. The subjects were asked to read the carrier sentence, "I say _______," including a list of 12 meaningless syllables composed of CV and VCV syllables, including alveolar fricative sounds /s/ and /s'/ and vowels /a/, /i/, and /u/. The recorded resources were processed through the Time-frequency Analysis Software Program to measure M1 (mean), M2 (variance), M3 (skewness), and M4 (kurtosis) of the fricative noise. No significant differences were found when comparing spectrum threshold values in the acoustic phonetic characteristics of hearing-impaired children and normal children in alveolar fricative sound pronunciation according to vowels /a/, /i/, and /u/, alveolar fricative sounds /s/ and /s'/, and syllable structure (CV, VCV) other than, for M3 in the comparison of groups according to disability. In the comparison of syllable structures, there were statistically significant differences in M1, M2, M3, and M4 with clinical significance. However, there was no significant difference in results when comparing the alveolar fricative sounds according to the vowels.

Noise Reduction Using the Standard Deviation of the Time-Frequency Bin and Modified Gain Function for Speech Enhancement in Stationary and Nonstationary Noisy Environments

  • Lee, Soo-Jeong;Kim, Soon-Hyob
    • The Journal of the Acoustical Society of Korea
    • /
    • 제26권3E호
    • /
    • pp.87-96
    • /
    • 2007
  • In this paper we propose a new noise reduction algorithm for stationary and nonstationary noisy environments. Our algorithm classifies the speech and noise signal contributions in time-frequency bins, and is not based on a spectral algorithm or a minimum statistics approach. It relies on calculating the ratio of the standard deviation of the noisy power spectrum in time-frequency bins to its normalized time-frequency average. We show that good quality can be achieved for enhancement speech signal by choosing appropriate values for ${\delta}_t\;and\;{\delta}_f$. The proposed method greatly reduces the noise while providing enhanced speech with lower residual noise and somewhat higher mean opinion score (MOS), background intrusiveness (BAK) and signal distortion (SIG) scores than conventional methods.

LSP 파라미터를 이용한 발성측정법 (On a Study of Measurement Method of Utterance Velocity for the Reduction of Transmission Rate in CELP Vocoder.)

  • 장경아;배명진
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 추계종합학술대회 논문집(4)
    • /
    • pp.199-202
    • /
    • 2000
  • Speaking Rate has variety depends on the situation and habit of speakers. It has been many studied about speaking rate In speaker recognition. The study of speaking rate in speech recognition is one of considerable matter when It is recognized the speakers and it is measured by many speech data base and complicate estimation for accuracy. In this paper, conventional vocoder process the speech signal when encoding and transmitting without regard to speaking rate so in order to apply the speaking rate for vocoder It should be considered the simpler algorithm and less computation amount than the conventional method of speaking rate used In speech recognition. We proposed the speaking rate algorithm which is used the simple parameter with Line Spectrum Pair (LSP). The proposed peaking rate method is measured by the information of LSP in speech. We measured the variety rate of phenomenon about utterances which have different velocity, respectively. As a result, It has distinct variation rate of phenomenon between utterances uttered fast and slow and the rate is 42.8% higher in case of uttered fast than in case of uttered slow.

  • PDF

Robust Non-negative Matrix Factorization with β-Divergence for Speech Separation

  • Li, Yinan;Zhang, Xiongwei;Sun, Meng
    • ETRI Journal
    • /
    • 제39권1호
    • /
    • pp.21-29
    • /
    • 2017
  • This paper addresses the problem of unsupervised speech separation based on robust non-negative matrix factorization (RNMF) with ${\beta}$-divergence, when neither speech nor noise training data is available beforehand. We propose a robust version of non-negative matrix factorization, inspired by the recently developed sparse and low-rank decomposition, in which the data matrix is decomposed into the sum of a low-rank matrix and a sparse matrix. Efficient multiplicative update rules to minimize the ${\beta}$-divergence-based cost function are derived. A convolutional extension of the proposed algorithm is also proposed, which considers the time dependency of the non-negative noise bases. Experimental speech separation results show that the proposed convolutional RNMF successfully separates the repeating time-varying spectral structures from the magnitude spectrum of the mixture, and does so without any prior training.

TBE 모델을 사용하는 HMM 기반 음성합성기 성능 향상을 위한 하모닉 선택에 기반한 MVF 예측 방법 (Harmonic Peak Picking-based MVF Estimation for Improvement of HMM-based Speech Synthesis System Using TBE Model)

  • 박지훈;한민수
    • 말소리와 음성과학
    • /
    • 제4권4호
    • /
    • pp.79-86
    • /
    • 2012
  • In the two-band excitation (TBE) model, maximum voiced frequency (MVF) is the most important feature of the excitation parameter because the synthetic speech quality depends on MVF. Thus, this paper proposes an enhanced MVF estimation scheme based on the peak picking method. In the proposed scheme, the local peak and the peak lobe are picked from the spectrum of a linear predictive residual signal. The normalized distance between neighboring peak lobes is calculated and utilized as a feature to estimate MVF. Experimental results of both objective and subjective tests show that the proposed scheme improves synthetic speech quality compared with that of the conventional one.