• 제목/요약/키워드: 발음 훈련

검색결과 51건 처리시간 0.025초

DP 알고리즘에 의한 발음사전 전처리와 문맥종속 자소별 MLP를 이용한 영어 발음사전 생성기의 개선 (Improvements of an English Pronunciation Dictionary Generator Using DP-based Lexicon Pre-processing and Context-dependent Grapheme-to-phoneme MLP)

  • 김회린;문광식;이영직;정재호
    • 한국음향학회지
    • /
    • 제18권5호
    • /
    • pp.21-27
    • /
    • 1999
  • 본 논문에서는 가변어휘 단어 인식기에 사용하기 위한 개선된 MLP 기반 영어 발음사전 생성기를 제안한다. 가변어휘 단어 인식기는 인식대상 도메인이 수시로 바뀌는 상황에서 현재의 인식 도메인에 의해 결정되는 임의의 한국어 어휘들에 대해 처리 할 수 있다. 이 시스템을 영어 단어에 대해서도 처리할 수 있도록 하기 위해서는 미리 정의된 사전에 포함할 수 없는 영어 고유명사와 같은 단어의 발음열을 구할 수 있는 방법이 필요하다. 영어 발음사전 생성기를 구현하기 위하여 본 연구에서는 각 자소를 음소로 변환해 주는 문맥종속 다층 퍼셉트론 구조를 제안한다. 각 자소별 다층 퍼셉트론을 훈련하기 위해서는 표준 발음사전으로부터 각 자소에 대응하는 음소 학습용 데이터를 준비해야 한다. 이를 위해 본 연구에서는 적절한 거리척도를 사용하는 동적 프로그래밍 알고리즘을 사용한다. 훈련 및 평가를 위한 데이터로는 116,191개 영어 단어의 발음사전을 사용하였다. 평가 결과 각각 30~50개의 히든 노드를 가지는 26개 자소별 MLP와 예외 자소 발음사전을 가지고 표준 발음사전에 대하여 72.8%의 단어 정확도를 얻었으며, 이것은 기존의 규칙 에 기반한 발음사전 생성의 정확도인 24.0% 보다 매우 우수한 결과임을 보여주었다.

  • PDF

구개열 환자 발음 판별을 위한 특징 추출 방법 분석 (Analysis of Feature Extraction Methods for Distinguishing the Speech of Cleft Palate Patients)

  • 김성민;김우일;권택균;성명훈;성미영
    • 정보과학회 논문지
    • /
    • 제42권11호
    • /
    • pp.1372-1379
    • /
    • 2015
  • 본 논문에서는 구개열 환자의 장애 발음과 정상인의 발음을 자동으로 구분하여 판별하는데 사용될 수 있는 특징 추출 방법들의 성능을 분석하는 실험에 대하여 소개한다. 이 연구는 발성 장애인의 복지 향상을 추구하며 수행하고 있는 장애 음성 자동 인식 및 복원 소프트웨어 시스템 개발의 기초과정이다. 실험에 사용된 음성 데이터는 정상인의 발음, 구개열 환자의 발음, 그리고 모의 환자의 발음의 세 그룹으로부터 수집된 한국어 단음절로서 14개의 기본 자음과 5개의 복합 자음, 7개 모음이다. 발음의 특징 추출은 LPCC, MFCC, PLP의 세 가지 방법으로 각각 수행하였고, GMM 음향 모델로 인식 훈련을 한 후, 수집된 단음절 데이터를 대상으로 하여 인식 실험을 실시하였다. 실험 결과, 정상인과 구개열 환자의 장애 발음을 구별하기 위하여 특징을 추출함에 있어서 MFCC 방법이 전반적으로 가장 우수하였다. 본 연구의 결과는 구개열 환자의 부정확한 발음을 자동으로 인식하고 복원하는 연구와 구개열 장애 발음의 정도를 측정할 수 있는 도구에 대한 연구에 도움이 될 것으로 기대된다.

조음도를 이용한 발음훈련기기의 개발 (Development of Speech Training Aids Using Vocal Tract Profile)

  • 박상희;김동준;이재혁;윤태성
    • 대한전기학회논문지
    • /
    • 제41권2호
    • /
    • pp.209-216
    • /
    • 1992
  • Deafs train articulation by observing mouth of a tutor, sensing tactually the motions of the vocal organs, or using speech training aids. Present speech training aids for deafs can measure only single speech parameter, or display only frequency spectra in histogram of pseudo-color. In this study, a speech training aids that can display subject's articulation in the form of a cross section of the vocal organs and other speech parameters together in a single system is to be developed and this system makes a subject know where to correct. For our objective, first, speech production mechanism is assumed to be AR model in order to estimate articulatory motions of the vocal organs from speech signal. Next, a vocal tract profile model using LP analysis is made up. And using this model, articulatory motions for Korean vowels are estimated and displayed in the vocal tract profile graphics.

  • PDF

가변어휘 음성인식기 구현에 관한 연구 (A Study on the Implementatin of Vocalbulary Independent Korean Speech Recognizer)

  • 황병한
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1998년도 학술발표대회 논문집 제5권
    • /
    • pp.60-63
    • /
    • 1998
  • 본 논문에서는 사용자가 별도의 훈련과정 없이 인식대상 어휘를 추가 및 변경이 가능한 가변어휘 인식시스템에 관하여 기술한다. 가변어휘 음성인식에서는 미리 구성된 음소모델을 토대로 인식대상 어휘가 결정되명 발음사전에 의거하여 이들 어휘에 해당하는 음소모델을 연결함으로써 단어모델을 만든다. 사용된 음소모델은 현재 음소의 앞뒤의 음소 context를 고려한 문맥종속형(Context-Dependent)음소모델인 triphone을 사용하였고, 연속확률분포를 가지는 Hidden Markov Model(HMM)기반의 고립단어인식 시스템을 구현하였다. 비교를 위해 문맥 독립형 음소모델인 monophone으로 인식실험을 병행하였다. 개발된 시스템은 음성특징벡터로 MFCC(Mel Frequency Cepstrum Coefficient)를 사용하였으며, test 환경에서 나타나지 않은 unseen triphone 문제를 해결하기 위하여 state-tying 방법중 음성학적 지식에 기반을 둔 tree-based clustering 기법을 도입하였다. 음소모델 훈련에는 ETRI에서 구축한 POW (Phonetically Optimized Words) 음성 데이터베이스(DB)[1]를 사용하였고, 어휘독립인식실험에는 POW DB와 관련없는 22개의 부서명을 50명이 발음한 총 1.100개의 고립단어 부서 DB[2]를 사용하였다. 인식실험결과 문맥독립형 음소모델이 88.6%를 보인데 비해 문맥종속형 음소모델은 96.2%의 더 나은 성능을 보였다.

  • PDF

합창 커뮤니케이션에서 효과적인 딕션 훈련을 위한 연구 (A study on effective diction training in choral communication)

  • 김형일
    • 한국융합학회논문지
    • /
    • 제12권3호
    • /
    • pp.237-245
    • /
    • 2021
  • 이 연구의 목적은 합창 커뮤니케이션에서 지휘자들이 활용할 수 있는 효과적인 딕션 훈련 기법을 제시하기 위한 것이다. 합창에서 딕션은 가사에 사용된 언어가 가진 고유의 음운론적 특성에 따라 달라진다. 따라서 한국어로 합창할 때는 한국어 음운규칙에 따라 가사를 발음해야 한다. 말로 의미를 전달할 때는 발음의 정확성이 중요하지만 노래로 가사를 표현할 때에는 발성과 딕션이 모두 중요하다. 특히 합창은 여러 사람이 함께 노래하기 때문에 딕션이 정확하지 않으면 가사가 제대로 전달되지 않는다. 이 연구는 실제 한국어 합창곡에서 자주 나오는 가사의 딕션 사례들을 한국어 음운규칙에 따라 체계적으로 분석하였다. 연구 결과, 합창 딕션을 어렵게 하는 주된 요인은 한국어 고유의 음운변동 현상이었다. 특히 받침 소리를 발음할 때, 그리고 자음과 자음이 결합할 때 음운변동이 자주 나타났다. 지속적인 연구를 통해 한국어 음운론에 기초한 체계적인 합창 딕션을 제시함으로써 합창 커뮤니케이션의 발전에 기여하고자 한다.

어휘독립 환경에서의 가변어휘 음성인식에 관한 연구 (A Study on the Variable Vocabulary Speech Recognition in the Vocabulary-Independent Environments)

  • 황병한
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1998년도 학술발표대회 논문집 제17권 2호
    • /
    • pp.369-372
    • /
    • 1998
  • 본 논문은 어휘독립(Vocabulary-Independent) 환경에서 별도의 훈련과정 없이 인식대상 어휘를 추가 및 변경할 수 있는 가변어휘(Variable Vocabulary) 음성인식에 관한 연구를 다룬다. 가변어휘 인식은 처음에 대용량 음성 데이터베이스(DB)로 음소모델을 훈련하고 인식대상 어휘가 결정되면 발음사전에 의거하여 음소모델을 연결함으로써 별도의 훈련과정 없이 인식대상 어휘를 변경 및 추가할 수 있다. 문맥 종속형(Context-Dependent) 음소 모델인 triphone을 사용하여 인식실험을 하였고, 인식성능의 비교를 위해 어휘종속 모델을 별도로 구성하여 인식실험을 하였다. Unseen triphone 문제와 훈련 DB의 부족으로 인한 모델 파라메터의 신뢰성 저하를 방지하기 위해 state-tying 방법 중 음성학적 지식에 기반을 둔 tree-based clustering(TBC) 기법[1]을 도입하였다. Mel Frequency Cepstrum Coefficient(MFCC)와 대수에너지에 기반을 둔 3 가지 음성특징 벡터를 사용하여 인식 실험을 병행하였고, 연속 확률분포를 가지는 Hidden Markov Model(HMM) 기반의 고립단어 인식시스템을 구현하였다. 인식 실험에는 22 개 부서명 DB[3]를 사용하였다. 실험결과 어휘독립 환경에서 최고 98.4%의 인식률이 얻어졌으며, 어휘종속 환경에서의 인식률 99.7%에 근접한 성능을 보였다.

  • PDF

HMM에 의한 한국어음성의 자동분할 시스템의 구현에 관한 연구 (A Study on the Implementation of an Automatic Segmentation System of Korean Speech based on the Hidden Markov Model)

  • 김윤중;김미경;이인동
    • 정보기술응용연구
    • /
    • 제1권3_4호
    • /
    • pp.1-23
    • /
    • 1999
  • 본 연구에서는 HMM(Hidden Markov Model) 및 Levelbuilding 알고리즘을 이용하여 인식대상 음소열의 표본 집합(훈련패턴 집합)을 입력으로 하는 음성의 자동 분할 시스템을 구현하였다. 본 시스템은 자연스럽게 발음되어진 연결음 음성으로부터 표준 음소모델을 생성한다. 본 시스템의 구성은 초기화 과정, HMM학습과정 그리고 Levelbuilding을 이용한 분리 및 CLustering 과정으로 구성되어 있다. 초기화 과정에서는 제어 정보를 이용하여 훈련패턴 집합으로부터 초기 음소 집합 군을 생성한다. Levelbuilding을 이용한 분리 및 Clustering 단계에서는 음소 모델과 제어 정보를 이용하여 훈련패턴들을 음소 단위로 분리하고, 분리된 후보 음소들을 Clustering하여 음소집합 군을 생성한다. 음소모델의 구성에 변화가 없을 때까지 이 작업을 반복 수행하여 최적의 음소모델을 생성한다. 본 연구에서는 3개 이하의 숫자단어로 구성된 연결되어 음성 패턴을 대상으로 실험하였다. 연결단어에 대한 음소의 표준모델 생성과정에서 가장 중요한 처리인 훈련패턴의 자동분할 과정을 분석하기 위하여 각 반복과정에서 분리된 정보를 그래프로 도시화하여 확인하였다.

  • PDF

철자 기반과 음절 기반 속도가 한국인 영어 학습자의 발음 평가에 미치는 영향 비교 (Comparing the effects of letter-based and syllable-based speaking rates on the pronunciation assessment of Korean speakers of English)

  • 정현성
    • 말소리와 음성과학
    • /
    • 제15권4호
    • /
    • pp.1-10
    • /
    • 2023
  • 본 연구에서는 AI Hub에 구축된 '교육용 한국인의 영어 음성 데이터'에 있는 발음 평가 데이터를 활용하여 철자 기반 발화 속도 및 조음 속도와 음절 기반 발화 속도 및 조음 속도 중 발음 정확성 및 운율 유창성, 합산 점수를 예측하는 모델에 어떤 요소가 더 유의미한 영향을 미치는지 분석하였다. 이를 위해 13세, 19세, 26세 연령별, 성별, 수준별로 이 코퍼스의 훈련 데이터에서 총 900개 발화를 추출하여 데이터에 포함된 다양한 요소를 활용해 평가 점수를 예측하는 선형효과분석을 실행하였다. 선형효과분석에서 최적의 세 개 모델을 통해 예측된 평가 점수를 검증 데이터에서 추출한 총 180개 발화의 평가 점수와 얼마나 상관관계가 있는지도 분석하였다. 분석 결과 발음의 정확성과 운율의 유창성, 합산 점수 예측 모델 모두 철자 기반 발화 속도와 조음 속도보다 음절 기반 발화 속도와 조음 속도가 평가 점수를 예측하는데 더 큰 영향을 주는 것으로 밝혀졌다. 모델에서 예측한 점수와 검정 데이터의 실제 점수와의 상관계수는 .65에서 .68 사이로 각 모델의 평가 점수 예측력이 나쁘지 않았다. 발화 속도와 조음 속도 간에 어떤 요소가 더 큰 영향을 미치는지는 본 연구를 통해 밝혀내지 못하였다.

한국어 음성데이터를 이용한 일본어 음향모델 성능 개선 (An Enhancement of Japanese Acoustic Model using Korean Speech Database)

  • 이민규;김상훈
    • 한국음향학회지
    • /
    • 제32권5호
    • /
    • pp.438-445
    • /
    • 2013
  • 본 논문은 일본어 음성인식기 신규 개발을 위해 초기에 부족한 일본어 음성데이터를 보완하는 방법이다. 일본어 발음과 한국어 발음이 유사한 특성을 근거로 한국어 음성 데이터를 이용한 일본어 음향모델 성능개선 방법에 대하여 기술하였다. 이종언어 간 음성 데이터를 섞어서 훈련하는 방법인 Cross-Language Transfer, Cross-Language Adaptation, Data Pooling Approach등 방법을 설명하고, 각 방법들의 시뮬레이션을 통해 현재 보유하고 있는 일본어 음성데이터 양에 적절한 방법을 선정하였다. 기존의 방법들은 훈련용 음성데이터가 크게 부족한 환경에서의 효과는 검증되었으나, 목적 언어의 데이터가 어느 정도 확보된 상태에서는 성능 개선 효과가 미비하였다. 그러나 Data Pooling Approach의 훈련과정 중 Tyied-List를 목적 언어로만으로 구성 하였을 때, ERR(Error Reduction Rate)이 12.8 %로 성능이 향상됨을 확인하였다.

한국 학생들의 영어 철자 인지와 발화에 대한 훈련효과 (Training Effect on the Perception and Production of English Grapheme by Korean Learners of English)

  • 초미희
    • 한국콘텐츠학회논문지
    • /
    • 제19권11호
    • /
    • pp.226-233
    • /
    • 2019
  • 다섯 가지 미국 영어 모음 [ʌ, ju, ʊ, u, ə]으로 실현되는 영어 철자 를 어떻게 듣고 발음하는지 그리고 훈련의 효과는 어떠한지 살펴보기 위해서 31명의 한국 대학생들을 대상으로 철자 를 포함한 24개의 영어 단어들에 대하여 사전 시험-훈련-사후 시험의 형태로 인지와 발화 시험을 실시하였다. 전체적 결과를 살펴보면, 사후 시험에서 인지와 발화 점수가 모두 사전 시험보다 유의하게 향상되었으나 다섯 가지 모음 소리가 모두 향상된 것은 아니었다. 인지에서는 긴장 모음 [u]와 이완 모음 [ʊ]을 제외한 모음 소리들의 점수가 유의하게 상승되어서 훈련의 효과를 보였으며 발화에서는 [ʌ], [u], [ʊ]를 제외한 모음들이 훈련의 효과를 보였다. 이는 인지와 발화에서 모두 한국 학생들이 영어의 긴장 모음과 이완 모음의 차이를 구별하기 어려워 한다는 것을 보여주고 있다. 특히 발화에서 이완 모음 [ʊ]를 한국어 [우]와 가장 비슷한 음향적 성질을 가진 긴장 모음 [u]로 대치하여 발음하는 오류를 우세하게 보였으며 [ʌ]의 경우에는 [u]-비슷한 소리들로 대치함으로써 철자의 영향을 실증적으로 보여주었다. 또한 인지와 발화 시험의 오류 유형을 통해서 목표 모음이 [t, d, n, s]같은 혀끝소리 뒤에서는 미국 영어에서 [j]-탈락이 일어난다는 것을 한국 학생들이 모르고 [j] 삽입하는 경우가 기회 수준이상으로 발생하였다. 반대로, 입술소리 ([p, b, f, v, m])나 연구개소리 ([k, g]) 뒤에서는 [j] 소리가 있지만 철자에는 구현되지 않아서 [j]를 탈락시키는 오류도 보였다. 본 연구의 발견점들을 바탕으로 교실 현장에서 학생들에게 지도해야 할 교육적인 함축점도 논의하였다.