• 제목/요약/키워드: Background Speaker

검색결과 71건 처리시간 0.027초

주파수 특성 기저벡터 학습을 통한 특정화자 음성 복원 (Target Speaker Speech Restoration via Spectral bases Learning)

  • 박선호;유지호;최승진
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권3호
    • /
    • pp.179-186
    • /
    • 2009
  • 본 논문에서는 학습이 가능한 특정화자의 발화음성이 있는 경우, 잡음과 반향이 있는 실 환경에서의 스테레오 마이크로폰을 이용한 특정화자 음성복원 알고리즘을 제안한다. 이를 위해 반향이 있는 환경에서 음원들을 분리하는 다중경로 암묵음원분리(convolutive blind source separation, CBSS)와 이의 후처리 방법을 결합함으로써, 잡음이 섞인 다중경로 신호로부터 잡음과 반향을 제거하고 특정화자의 음성만을 복원하는 시스템을 제시한다. 즉, 비음수 행렬분해(non-negative matrix factorization, NMF) 방법을 이용하여 특정화자의 학습음성으로부터 주파수 특성을 보존하는 기저벡터들을 학습하고, 이 기저벡터들에 기반 한 두 단계의 후처리 기법들을 제안한다. 먼저 본 시스템의 중간단계인 CBSS가 다중경로 신호를 입력받아 독립음원들을(두 채널) 출력하고, 이 두 채널 중 특정화자의 음성에 보다 가까운 채널을 자동적으로 선택한다(채널선택 단계). 이후 앞서 선택된 채널의 신호에 남아있는 잡음과 다른 방해음원(interference source)을 제거하여 특정화자의 음성만을 복원, 최종적으로 잡음과 반향이 제거된 특정화자의 음성을 복원한다(복원 단계). 이 두 후처리 단계 모두 특정화자 음성으로부터 학습한 기저벡터들을 이용하여 동작하므로 특정화자의 음성이 가지는 고유의 주파수 특성 정보를 효율적으로 음성복원에 이용 할 수 있다. 이로써 본 논문은 CBSS에 음원의 사전정보를 결합하는 방법을 제시하고 기존의 CBSS의 분리 결과를 향상시키는 동시에 특정화자만의 음성을 복원하는 시스템을 제안한다. 실험을 통하여 본 제안 방법이 잡음과 반향 환경에서 특정화자의 음성을 성공적으로 복원함을 확인할 수 있다.

Korean Broadcast News Transcription Using Morpheme-based Recognition Units

  • Kwon, Oh-Wook;Alex Waibel
    • The Journal of the Acoustical Society of Korea
    • /
    • 제21권1E호
    • /
    • pp.3-11
    • /
    • 2002
  • Broadcast news transcription is one of the hardest tasks in speech recognition because broadcast speech signals have much variability in speech quality, channel and background conditions. We developed a Korean broadcast news speech recognizer. We used a morpheme-based dictionary and a language model to reduce the out-of·vocabulary (OOV) rate. We concatenated the original morpheme pairs of short length or high frequency in order to reduce insertion and deletion errors due to short morphemes. We used a lexicon with multiple pronunciations to reflect inter-morpheme pronunciation variations without severe modification of the search tree. By using the merged morpheme as recognition units, we achieved the OOV rate of 1.7% comparable to European languages with 64k vocabulary. We implemented a hidden Markov model-based recognizer with vocal tract length normalization and online speaker adaptation by maximum likelihood linear regression. Experimental results showed that the recognizer yielded 21.8% morpheme error rate for anchor speech and 31.6% for mostly noisy reporter speech.

자동차 소음 환경에서 음성 인식 (Speech Recognition in the Car Noise Environment)

  • 김완구;차일환;윤대희
    • 전자공학회논문지B
    • /
    • 제30B권2호
    • /
    • pp.51-58
    • /
    • 1993
  • This paper describes the development of a speaker-dependent isolated word recognizer as applied to voice dialing in a car noise environment. for this purpose, several methods to improve performance under such condition are evaluated using database collected in a small car moving at 100km/h The main features of the recognizer are as follow: The endpoint detection error can be reduced by using the magnitude of the signal which is inverse filtered by the AR model of the background noise, and it can be compensated by using variants of the DTW algorithm. To remove the noise, an autocorrelation subtraction method is used with the constraint that residual energy obtainable by linear predictive analysis should be positive. By using the noise rubust distance measure, distortion of the feature vector is minimized. The speech recognizer is implemented using the Motorola DSP56001(24-bit general purpose digital signal processor). The recognition database is composed of 50 Korean names spoken by 3 male speakers. The recognition error rate of the system is reduced to 4.3% using a single reference pattern for each word and 1.5% using 2 reference patterns for each word.

  • PDF

An Echo Canceller Robust to Noise and Residual Echo

  • Kim, Hyun-Tae;Park, Jang-Sik
    • Journal of information and communication convergence engineering
    • /
    • 제8권6호
    • /
    • pp.640-644
    • /
    • 2010
  • When we talk with hands-free in a car or noisy lobby, the performance of the echo canceller degrade because background noise added to echo caused by the distance from mouth to microphone is relatively long. It gives a reason for necessity of noise-robust and high convergence speed adaptive algorithm. And if acoustic echo canceller operated not perfectly, residual signal going through the echo canceller to far-end speaker remains residual echo, which degrade quality of talk. To solve this problem, post-processing needed to remove residual echo ones more. In this paper, we propose a new acoustic echo canceller, which has noise robust and high convergence speed, linked with linear predictor as a post-processor. By computer simulation, it is confirmed that the proposed algorithm shows better performance from acoustic interference cancellation (AIC) viewpoint.

BMS 알고리즘을 이용한 거절기능 성능 향상 (Improvement of Confidence Measure Performance using Background Model Set Algorithm)

  • 김병돈;이경록;김진영;최승호
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2003년도 5월 학술대회지
    • /
    • pp.79-82
    • /
    • 2003
  • In this paper, we proposed Backgorund Model Set algorithm for the speaker verification to improve the shortcoming of calculating process in conventional confidence measure(CM). CM is to display relative likelihood between recognized models and unrecognized models. Unrecognized models is known as antiphone models. Calculate probability and standard deviation using all phonemes at process that compose antiphone model. At this process, antiphone CM brought bad result. Also, recognition time increases. In order problem, we studied about method to reconstitute average and standard deviation taking BMS algorithm using antiphoneme that near phoneme of CM calculation.

  • PDF

한국어 모음에서 연령증가에 따른 제2음형대의 변화양상 ($F_2$ Formant Frequency Characteristics of the Aging Male and Female Speakers)

  • 김찬우;차흥억;장일환;김선태;오승철;석윤식;이영숙
    • 대한후두음성언어의학회지
    • /
    • 제10권2호
    • /
    • pp.119-123
    • /
    • 1999
  • Background and Objectives : Conditions such as muscle atrophy, stretching of strap muscles, and continued craniofacial growth factors have been cited as contributing to the changes observed in the vocal tract structure and function in elderly speakers. The purpose of the present study is to compare F$_1$ and F$_2$ frequency levels in elderly and young adult male and female speakers producing a series of vowels ranging from high-front to low-back placement. Material and Methods : The subjects were two groups of young adults(10 males, 10 females, mean age 21 years old range 19-24 years) and two groups of elderly speakers(10 males, 10 females, mean age 67 years : range 60-84 years). Each subject participated in speech pathologist to be a speaker of unimpared standard Korean. The headphone was positioned 2 cm from the speakers lips. Each speaker sustained the five vowels for 5 s. Formant frequency measures were obtained from an analysis of linear predictive coding in CSL model 4300B(Kay co). Results : Repeated measure AVOVA procedures were completed on the $F_1$ and $F_2$ data for the male and female speakers. $F_2$ formant frequency levels were proven to be significantly lower fir elderly speakers. Conclusions : We presume $F_2$ vocal cavity(from the point of tongue constriction to lip) lengthening in elderly speakers. The research designed to observe dynamic speech production more directly will be needed.

  • PDF

텔레매틱스 시스템을 위한 반향제거 및 Barge-In 기능을 갖는 음성인터페이스 (Speech Interface with Echo Canceller and Barge- In Functionality for Telematic System)

  • 김준;배건성
    • 한국음향학회지
    • /
    • 제28권5호
    • /
    • pp.483-490
    • /
    • 2009
  • 본 논문에서는 배경잡음과 반향이 존재하는 차량환경에서 음성인식 성능을 향상시키기 위해 상관계수를 이용한 동시통화 검출 알고리즘을 적용한 음향 반향제거기와 barge-in 기능을 갖는 음성 인터페이스를 구현하였다. 상관계수를 이용한 동시통화 검출 알고리즘은 임계치 설정 및 배경잡음의 영향 등으로 인해 검출 오류가 발생한다. 이를 보완하기 위해 동시통화 검출 조건으로 매 샘플마다 입력신호에서 추정한 배경잡음 및 반향신호의 평균 전력을 이용하여 동시통화 검출 오류를 줄였으며, 시변의 임계치를 적용한 후처리 단을 통해 시변의 잔여 잡음 성분을 제거하였다. 또한 안내음성 중에 음성입력이 가능하도록 barge-in 기능을 적용한 음성 인터페이스 시스템을 구현하였다. 제안한 음성 인터페이스 시스템은 동시통화 검출 오류와 이로 인해 발생되는 문제점을 효율적으로 해결할 수 있음을 실험을 통하여 확인하였다.

PCA와 HMM을 이용한 실시간 립리딩 시스템의 설계 및 구현 (Design and Implementation of a Real-Time Lipreading System Using PCA & HMM)

  • 이지근;이은숙;정성태;이상설
    • 한국멀티미디어학회논문지
    • /
    • 제7권11호
    • /
    • pp.1597-1609
    • /
    • 2004
  • 립리딩은 잡음 환경에서 저하되는 음성 인식률의 보상과 음성을 청취하기 어려운 상황에서의 음성인식보조 수단으로 많은 연구가 시도되고 있다. 기존 립리딩 시스템은 인위적인 조명 환경이나 얼굴과 입술 추출을 위하여 미리 정해진 제한된 조건에서 실험되어 왔다. 본 논문에서는 화자의 움직임이 허용되고 컬러나 조명과 같은 환경 변화에 제한조건을 완화한 영상을 이용하여 실시간 립리딩 시스템을 구현하였다. 본 논문의 시스템은 범용으로 사용되는 PC 카메라를 통해 입력받은 영상에서 얼굴과 입술 영역을 실시간으로 검출한 후, 립리딩에 필요한 영상정보를 추출하고 이 입술 영상 정보를 이용하여 실시간으로 발성 단어를 인식할 수 있다. 얼굴과 입술 영역 검출을 위하여 조명환경에 독립성을 갖는 색도 히스토그램 모델을 이용하였고 움직이는 화자의 얼굴 추적을 위하여 평균 이동 알고리즘을 이용하였다. 검출된 입술 영역에서 학습과 인식에 필요한 영상 정보를 추출하기 위하여 PCA(Principal Component Analysis)를 사용하였고, 인식 알고리즘으로는 HMM을 이용하였다. 실험 결과 화자종속일 경우 90%의 인식률을 보였으며 잡음이 있는 음성과 합병하여 인식률 실험을 해 본 결과, 음성 잡음비에 따라서 음성 인식률을 약 40~85%까지 향상시킬 수 있었다.

  • PDF

인공지능(AI) 스피커에 대한 사회구성 차원의 발달과정 연구: 제품과 시기별 공진화 과정을 중심으로 (A study of Artificial Intelligence (AI) Speaker's Development Process in Terms of Social Constructivism: Focused on the Products and Periodic Co-revolution Process)

  • 차현주;권상희
    • 인터넷정보학회논문지
    • /
    • 제22권1호
    • /
    • pp.109-135
    • /
    • 2021
  • 본 연구는 전통뉴스 보도에 나타난 인공지능(AI)스피커 뉴스 텍스트 분석을 통해 인공지능(AI) 스피커 발달과정을 분류하고 시기별 제품별 특성을 파악하였다. 또한 AI 스피커 사업자 제품별 뉴스 보도와 시기별 뉴스 보도간의 상관관계를 분석하였다. 분석에 사용된 이론적 배경은 뉴스의 프레임과 토픽프레임이다. 분석방법으로는 LDA 방식을 활용한 토픽모델링(Topic Modeling)과 의미연결망분석이 사용되었으며, 추가로 'UCINET'중 QAP분석을 적용하였다. 연구방법은 내용분석 방법으로 2014년부터 2019년까지 AI 스피커 관련 2,710건의 뉴스를 1차로 수집하였고, 2차적으로 Nodexl 알고리즘을 이용하여 토픽프레임을 분석하였다. 분석 결과 첫째, AI 스피커 사업자 유형별 토픽 프레임의 경향은 4개 사업자(통신사업자, 온라인 플랫폼, OS 사업자, IT디바이스 생산업자) 특성에 따라 다르게 나타났다. 구체적으로, 온라인 플랫폼 사업자(구글, 네이버, 아마존, 카카오)와 관련한 프레임은 AI 스피커를 '검색 또는 입력 디바이스'로 사용하는 프레임의 비중이 높았다. 반면 통신 사업자(SKT, KT)는 모회사의 주력 사업인 IPTV, 통신 사업의 '보조 디바이스' 관련한 프레임이 두드러지게 나타났다. 나아가 OS 사업자(MS, 애플)는 '제품의 의인화 및 음성 서비스' 프레임이 두드러지게 보였으며, IT 디바이스 생산업자(삼성)는 '사물인터넷(IoT) 종합지능시스템'과 관련한 프레임이 두드러지게 나타났다. 둘째, AI 스피커 시기별(연도별) 토픽 프레임의 경향은 1기(2014-2016년)에는 AI 기술 중심으로 발달하는 경향을 보였고, 2기(2017-2018년)에는 AI 기술과 이용자 간의 사회적 상호 작용과 관련되어 있었으며, 3기(2019년)에는 AI 기술 중심에서 이용자 중심으로 전환되는 경향을 나타냈다. QAP 분석 결과, AI 스피커 발달에서 사업자별과 시기별 뉴스 프레임이 미디어 담론의 결정요인에 의해 사회적으로 구성되는 것을 알 수 있었다. 본연구의 함의는 AI 스피커 진화는 사업자별, 발달시기별로 모회사 기업의 특성과 이용자 간의 상호작용으로 인한 공진화 과정이 나타냄을 발견할 수 있었다. 따라서 본 연구는 AI 스피커의 향후 전망을 예측하고 그에 따른 방향성을 제시하는 데 중요한 시사점을 제공한다.

언어별, 연령별, 수준별 집단에 의한 모음간 영어 파열음 유/무성 인지 연구 (A Perceptual Study on the Temporal Cues of English Intervocalic Plosives for Various Groups Depending on Background Language, English Listening Ability, and Age)

  • 강석한
    • 음성과학
    • /
    • 제13권2호
    • /
    • pp.133-145
    • /
    • 2006
  • In order to understand the various groups' perceptual pattern in both VCV trochee and iambus, this study examined the identification correctness and cue robustness for the unit intervals in light of background language, age, and English listening ability. The 4 groups of Native Speakers of English, Korean College Students of High Listening Achievement, Korean College Students of Low Listening Achievement, and Korean Elementary Students took part in the experiments. Tokens of $/d{\ae}per,\;d{\ae}per,\;d{\ae}per,\;d{\ae}per,\;d{\ae}per,\;d{\ae}per$ in trochee and of $/{\eth}{\partial}\;p{\ae}d,\;{\eth}{\partial}\;b{\ae}d,\;{\eth}{\partial}\;t{\ae}d,\;{\eth}{\partial}\;d{\ae}d,\;{\eth}{\partial}\;k{\ae}d,\;{\eth}{\partial}\;g{\ae}d/$ in iambus were extracted and modified into experimental signals composed of two digits(voiced-1, voiceless-0) by following the temporal intervals, in which the signals consisted of preceding vowel, closure, VOT, and post-vowel. In the first experiment of identification correctness in VCV iambus environment, all groups showed almost 100% correctness rate, while in trochee environment all groups were different(native speaker 87%, college high 74%, college low 70%, elementary 65%). In the second experiment of cue robustness, all groups showed the similar perceptual pattern in both environments. There was the order of robustness cues in VCV trochee: pre-vowel ${\gg}$ closure ${\gg}$ VOT ${\gg}$ post-vowel, while the order in VCV iambus: VOT ${\gg}$ post-vowel ${\gg}$ closure ${\gg}$ pre-vowel. In some condition, however, we found moderately different perceptual pattern depending on language, age and listening level.

  • PDF