• Title/Summary/Keyword: 인식실험

Search Result 6,429, Processing Time 0.036 seconds

A Study on Speaker Normalization using VTN (VTN을 이용한 화자 정규화에 관한 연구)

  • 손창희;손종목;배건성
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.499-502
    • /
    • 2001
  • 본 연구에서는 화자에 따라 서로 다른 성도의 길이에 의해 발생하는 음성인식 시스템의 성능 저하를 줄이기 위하여, VTN(Vocal Tract Normalization)을 음성인식 시스템에 적용하고, 주소 인식 실험을 통하여 인식 성능을 평가하였다. 또, VTN을 CMN과 동시에 적용하여 인식 실험을 하였다. 실험에서는 화자간 성도길이의 차이를 반영하기 위하여 13개의 Warping 계수에 대해 필터 뱅크를 이용한 선형 Warping 방법을 적용하였다. 실험결과, Baseline 인식 시스템에 비하여 VTN을 적용하면, WER(Word Error Rate)이 1.24% 감소하였고, CMN과 VTN을 동시에 적용한 실험에서는 Baseline 인식 시스템과 비교하여 WER이 0.33% 감소 하였지만 VTN을 적용한 실험결과와 비교하면 오히려 0.91% 증가하였다.

  • PDF

A Study on the Variable Vocabulary Speech Recognition in the Vocabulary-Independent Environments (어휘독립 환경에서의 가변어휘 음성인식에 관한 연구)

  • 황병한
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.06e
    • /
    • pp.369-372
    • /
    • 1998
  • 본 논문은 어휘독립(Vocabulary-Independent) 환경에서 별도의 훈련과정 없이 인식대상 어휘를 추가 및 변경할 수 있는 가변어휘(Variable Vocabulary) 음성인식에 관한 연구를 다룬다. 가변어휘 인식은 처음에 대용량 음성 데이터베이스(DB)로 음소모델을 훈련하고 인식대상 어휘가 결정되면 발음사전에 의거하여 음소모델을 연결함으로써 별도의 훈련과정 없이 인식대상 어휘를 변경 및 추가할 수 있다. 문맥 종속형(Context-Dependent) 음소 모델인 triphone을 사용하여 인식실험을 하였고, 인식성능의 비교를 위해 어휘종속 모델을 별도로 구성하여 인식실험을 하였다. Unseen triphone 문제와 훈련 DB의 부족으로 인한 모델 파라메터의 신뢰성 저하를 방지하기 위해 state-tying 방법 중 음성학적 지식에 기반을 둔 tree-based clustering(TBC) 기법[1]을 도입하였다. Mel Frequency Cepstrum Coefficient(MFCC)와 대수에너지에 기반을 둔 3 가지 음성특징 벡터를 사용하여 인식 실험을 병행하였고, 연속 확률분포를 가지는 Hidden Markov Model(HMM) 기반의 고립단어 인식시스템을 구현하였다. 인식 실험에는 22 개 부서명 DB[3]를 사용하였다. 실험결과 어휘독립 환경에서 최고 98.4%의 인식률이 얻어졌으며, 어휘종속 환경에서의 인식률 99.7%에 근접한 성능을 보였다.

  • PDF

A Modified LVQ2 Algorithm for Phonemes Recognition (음소 인식을 위한 수정된 LVQ2 알고리즘의 고찰)

  • 황철준
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1996.10a
    • /
    • pp.76-79
    • /
    • 1996
  • 본 논무에서는 한국어 음소를 대상으로 Kohonen 이 제안한 LVQ2 방법의 결저을 보완한 MLVQ2 방법으로 인식실험을 행하고 MLVQ2 알고리즘의 유효성을 검토하고자 한다. 인식실험을 위한 음성자료는 ETRI 611단어로부터 추출한 49음소를 사용하였다. 그리고 인식실험에 있어서는 먼저 파열음을 대상으로 학습회수, 표준패턴의 수, 샘플수에 따른 인식률의 변화를 조사하였으며, 이 결과 표준패턴의 수 15개, 학습회수 10회 이하, 샘플 수 3000 개일 경우가 가장 좋은 인식률을 보였다. 이 결과를 참고로 음소군별 인식실험 결과 모음 69.11%, 파열음 74.69%, 마찰음 및 파찰음 86.31%비음 및 유음 74.51%의 평균 인식률을 얻었다. 또한 , 한국어 49음소 전음소에 대한 인식실험 결과 71.2%의 인식률 얻어 MLVQ2의 유효성을 확인하였다.

  • PDF

Performance Evaluation of Large Vocabulary Continuous Speech Recognition System (대어휘 연속음성 인식 시스템의 성능평가)

  • Kim Joo-Gon;Chung Hyun-Yeol
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • spring
    • /
    • pp.99-102
    • /
    • 2002
  • 본 논문에서는 한국어 대어휘 연속음성 인식 시스템의 성능향상을 위하여 Multi-Pass 탐색 방법을 도입하고, 그 유효성을 확인하고자 한다. 연속음성 인식실험을 위하여, 최근 실험용으로 널리 사용되고 있는 HTK와 Multi-Pass 탐색 방법을 이용한 음성인식 시스템의 비교 실험을 수행한다. 대어휘 연속음성 인식 시스템에 사용한 언어 모델은 ARPA 표준 형식의 단어 N-gram 언어모델로, 1-pass에서는 2-gram 언어모델을, 2-pass 에서는 역방향 3-gram 언어모델을 이용하여 Multi-Pass 탐색 방법으로 인식을 수행한다. 본 논문에서는 Multi-Pass 탐색 방법을 한국어 연속음성인식에 적합하게 구성한 후, 다양한 한국어 음성 데이터 베이스를 이용하여 인식실험을 수행하였다. 그 결과, 전화망을 통하여 수집된 잡음이 포함된 증권거래용 연속음성 데이터 베이스를 이용한 연속음성 인식실험에서 HTK가 $59.50\%$, Multi-Pass 탐색 방법을 이용한 시스템은 $73.31\%$의 인식성능을 나타내어 HTK를 이용한 연속음성 인식률 보다 약 $13\%$의 인식률 향상을 나타내었다.

  • PDF

Bi-modal speech recognition in noisy environments (잡음환경에서의 바이모달 음성인식)

  • 박병구
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.06c
    • /
    • pp.111-114
    • /
    • 1998
  • 기존의 음성인식시스템의 잡음환경에서 인식률의 한계를 극복하기 위해 음성신호뿐만이 아니라 입술정보를 결합하여 음성인식에 이용하여 바이모달(Bi-modal) 음성인식이 근래에 제안되어지고 있다. 그래서 바이모달 음성인식 시스템을 실제로 구현해보고 인식 실험을 수행해 보았다. 입술영상은 이미지에 근거한 입술모양을 파라메터화하여 인식실험에 사용하였으며 음성과 입술영상을 각각 인식한 후 인식스코어(Score)에 가중치를 적용하여 통합하는 방법을 사용하였다. 마지막으로 바이모달 음성인식의 잡음환경에서의 성능을 알아보기 위해 음성신호에 여러 레벨의 잡음을 섞어서 실험을 하고 잡음환경에서 인식률의 한계를 입술정보를 이용하여 극복할 수 있다는 것을 보이고자 한다.

  • PDF

Comparison of MEL-LPC and LPC-MEL Analysis Method for the Korean Speech Recognition Systems. (한국어 음성 인식 시스템을 위한 MEL-LPC 분석 방법과 LPC-MEL 분석 방법의 비교)

  • 김주곤;김범국;정호열;정현열
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.833-836
    • /
    • 2001
  • 본 논문에서는 한국어 음성인식 시스템의 성능 향상을 위해 청각 주파수 분해능을 가진 MEL-LPC Cepstrum을 음소단위의 HMM(Hidden Markov Model)을 기반으로 하는 인식 시스템에 적용하여 그 결과를 비교 검토하였다. 선형예측(LP) 분석 후에 후처리로서 주파수를 왜곡시킨 LPC-MEL 분석이 계산량이 적고 효과적이라 일반적으로 많이 사용되고 있으나 주파수 분해능은 많이 개선되지 않는다. 따라서 본 논문에서는 주파수 분해능을 개선하기 위해, 원 음성신호로부터 직접적으로 멜주파수로 왜곡시킨 후 선형 예측 분석을 수행하는 MEL-LPC 분석방법을 이용한 음소기반의 화자 독립 음성인식 시스템을 구성하여 기존의 LPC-MEL 분석방법과 비교실험을 통하여 MEL-LPC 분석방법의 유효성을 검토하였다. 실험에 사용한 음성 데이터베이스는 음소 및 단어 인식실험에서는 ETRI 445단어 DB, 연속 숫자음인식 실험에서는 KLE 4연속 숫자음 DB를 사용하였다. 화자 독립 음소인식 실험의 경우, 묵음을 제외한 47개의 유사 음소에 대하여 4상태 3출력의 Left-to-Right 모델을이용하였다. 단어 및 연속 숫자음 인식 실험의 경우, 유한상태 네트워크에 의한 OPDP법을 이용하였다. 화자 독립 음소, 단어 및 4연속 숫자음 인식 실험결과, 기존의 LPC-MEL Cepstrum을 사용한 경우보다 MEL-LPC Cepstum을 사용한 경우가 더 높은 인식률을 나타내어 한국어 음성인식 시스템에서 MEL-LPC 분석방법의 유효성을 확인할 수 있었다.

  • PDF

Evaluation of Word Recognition System For Mobile Telephone (이동전화를 위한 단어 인식기의 성능평가)

  • Kim Min-Jung;Hwang Cheol-Jun;Chung Ho-Youl;Chung Hyun-Yeol
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • spring
    • /
    • pp.92-95
    • /
    • 1999
  • 본 논문에서는 음성에 의해 구동되는 이동천화를 구현하기 위한 기초 실험으로서, 이동전화상에서 많이 사용되는 단어 데이터를 직접 채록하여 단어 인식 실험을 수행하여 인식기의 성능을 평가하였다. 인식 실험에 사용된 단어 데이터베이스는 서울 화자 360명(남성화자 180명, 여성화자 180명), 41상도 화자 240명(남성화자 120명, 여성화자 120명)으로 구성된 600명의 발성을 이용하여 구성하였다. 발성 단어는 이동전화에 주로 사용되는 중요 기능과 제어 단어, 그리고 숫자음을 포함한 55개 단어로 구성되었으며, 각 화자가 3회씩 발성하였다. 데이터의 채집환경은 잡음이 다소 있는 사무실환경이며, 샘플링율은 8kHz였다. 인식의 기본단위는 48개의 유사음소단위(Phoneme Like Unit : PLU)를 사용하였으며, 정적 특징으로 멜켑스트럼과 동적 특징으로 회귀계수를 특징 파라미터로 사용하였다. 인식실험에서는 OPDP(One Pass Dynamic Programming)알고리즘을 사용하였다. 인식실험을 위한 모델은 각 지역에 따라 학습을 수행한 모델과, 지역에 상관없이 학습한 모델을 만들었으며, 기존의 16Htz의 초기 모델에 8kHz로 채집된 데이터를 적응화시키는 방법을 이용하여 학습을 수행하였다. 인식실험에 있어서는 각 지역별 모델과 지역에 관계없이 학습한 모델에 대하여, 각 지역별로, 그리고 지역에 관계없이 평가용 데이터로 인식실험을 수행하였다 인식실험 결과, $90\%$이상의 비교적 높은 인식률을 얻어 인식시스템 성능의 유효성을 확인할 수 있었다.

  • PDF

Analysis and Recognition of Korean Fricatives and Affricates (한국어 마찰음 및 파찰음의 분석과 인식)

  • 정석재;정현열;이무영
    • The Journal of the Acoustical Society of Korea
    • /
    • v.10 no.5
    • /
    • pp.27-35
    • /
    • 1991
  • 음소를 인식의 기본 단위로 하는 소규모 음성 인식 시스템을 구현하기 위한 기초 연구로서 마 찰음(/ㅅ, ㅆ, ㅎ/) 과 파찰음(/ㅈ, ㅉ, ㅊ/) 에 대하여 지속시간, 평균패턴, 분산비를 이용하여 각 음소 의 특징을 분석하고 각 음소군 내에서의 식별에 유효한 parameter들을 추출하여 인식 실험을 실시하 였다. 지속시간의 분포, 평균패턴의 분포, 분산비의 분포를 이용하여 분석한 결과 6차원 정도의 cepstrum 계수만으로 마찰음 및 파찰음의 식별이 가능하고, 시간 방향의 정보는 음성의 시단으로부터 14 frame 정도의 특징을 인식 파라미터로 할 경우가 최적임을 알 수 있었다. 이를 이용한 인식실험 결과에서는 조음방법별로 분류된 음소군내의 각 음소에 대한 인식실험의 인식률 보다는 발음방법별 인식실험시의 인식률이 높게 나타나 동일 음소군 내에서의 각 음소에 대한 식별이 더 어려움을 알 수 있었고, 특징 파라미터의 길이를 음성의 시단으로부터 14 frame 정도로 했을 때 조음방법별 인식률은 평균 81.1%, 발음방법별 인식률은 평균 97.9%로 최고의 인식률을 나타내었다. 특징 파라미터의 길이 를 14 frame 이상으로 증가시켜도 인식률은 큰 변화가 없어 분석 결과를 잘 설명하고 있음을 알 수 있었다.

  • PDF

Typical Frame Etraction for Korean Phoneme Recognition (한국어 음소인식을 위한 기준 프레임 추출)

  • 김범국
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1994.06c
    • /
    • pp.121-124
    • /
    • 1994
  • 음소를 인식의 기본으로 하는 한국어 음성인식 시스템을 구현하기 위한 기초 연구의 일환으로서 각 음소의 특징 가장 잘 표현하는 기준프레임 추출을 위한 연구를 수행하였다. 이를 위하여 먼저 선행 실험과 분산비 분석을 통해서 인식에 필요로한 시간 패턴의 길이를 추출한 후 이를 바탕으로 통계적 인식방법인 베이즈 결정법칙을 이용하여 시단 프레임으로부터 3프레임씩 시점을 1프레임씩 옮기면서 인식 실험을 해?여, 각 음소별 특징이 가장 풍부한 기준 프레임을 추출하였다. 그리고 이 기준 프레임을 중심으로 각 음소군별 인식 실험을 수행하여 그 결과를 시단을 기준으로 한 경우와 비교 검토하고 한국어 전 음소별로 확장하여 인식 실험을 실시하였다. 이 실험 결과 모음의 경우 시단으로부터 5프레임, 파열음은 시단에서부터 5프레임사이, 마찰음은 3프레임에서부터 10프레임까지, 파찰음은 5프레임까지, 비음과 유음의 경우 초성은 시단 프레임에서 6프레임, 종성은 종단으로부터 전 4프레임 구간이 인식률이 높게 나타나 이 부분의 특징이 인식에 가장 유효함을 알 수 있었다.

  • PDF

A Study on Connected Word Recognition for the Implementation of a Real-Time Voice Dialing System (실시간 음성 다이얼링 시스템 구현을 위한 연결어 인식에 관한 연구)

  • 김천영;양진우;유형근;이형준;홍진우;이강성;안태옥
    • The Journal of the Acoustical Society of Korea
    • /
    • v.12 no.3
    • /
    • pp.13-25
    • /
    • 1993
  • 본 논문은 음성 다이얼링 시스템을 구현하기 위한 연결어 인식에 관한 연구이다. 적용된 인식 알고리즘은 기준패턴을 생성할 때 DMS 모델을 이용한 One-stage DMS/DP 알고리즘이고, 인식 대상어는 광운대학교 부서명 150 단어이다. 연결어 인식을 실시간으로 처리하기 위한 방법으로써 본 논문에서는 음절과 단어 단위의 DMS 템플리트를 구성하여 실험하였고 이 실험결과로부터 실시간과 인식률을 고려한 최적의 인식은 단어단위 템플리트에서 20 구간의 DMS 템플리트를 구성하여 실험하였고 이 실험결과로부터 실시간과 인식률을 고려한 최적의 인식은 단어단위 템플리트에서 20구간의 DMS 모델을 적용하였을 때 수행되었고, 이때 다중화자종속과 화자독립의 인식률은 각각 97.2%, 86.8%이다. 실험된 결과를 이용하여 음성 다이얼링 모델 시스템을 DSP 전용칩인 TMS320C30 프로세서를 내장한 DSP 보오드, 486 PC와 DIAL 모뎀을 이용해서 구현하였고, 전체 다이얼링 시간은 약 7~14초가 소요되었다.

  • PDF