• 제목/요약/키워드: Korean-English speech recognition

검색결과 62건 처리시간 0.026초

한국인의 영어 문장 발음에 대한 한국인/원어민/ILT(Interactive Language Tutor) 평가 점수 사이의 상관관계 (Correlations between pronunciation test scores given by Korean/Nativel/ILT(Interactive Language Tutor) raters against the Korean-spoken English sentences)

  • 이석재;박전규
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2003년도 10월 학술대회지
    • /
    • pp.83-88
    • /
    • 2003
  • This study carried out an experimental English pronunciation assessment to see the differences in the relationship between the different rater categories. The result shows that i) correlation between Korean and Native American raters is high(r=.98) enough to be considered reliable, ii) previous instructions about assessment rubric and the knowledge about English phonetics and phonology exert little influence on the rating scores, iii) correlation between the automatic ILT(Interactive Language Tutor) rating using speech recognition technology and Natives' rating is stronger than that between ILT and Koreans' rating.

  • PDF

딥러닝을 활용한 한국어 스피치 애니메이션 생성에 관한 고찰 (A Study on Korean Speech Animation Generation Employing Deep Learning)

  • 강석찬;김동주
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권10호
    • /
    • pp.461-470
    • /
    • 2023
  • 딥러닝을 활용한 스피치 애니메이션 생성은 영어를 중심으로 활발하게 연구되어왔지만, 한국어에 관해서는 사례가 없었다. 이에, 본 논문은 최초로 지도 학습 딥러닝을 한국어 스피치 애니메이션 생성에 활용해 본다. 이 과정에서, 딥러닝이 스피치 애니메이션 연구를 그 지배적 기술인 음성 인식 연구로 귀결시킬 수 있는 중요한 효과를 발견하게 되어, 이 효과를 한국어 스피치 애니메이션 생성에 최대한 활용하는 방법을 고찰한다. 이 효과는 연구의 최우선 목표를 명확하게 하여, 근래에 들어 활발하지 않은 한국어 스피치 애니메이션 연구를 효과적이고 효율적으로 재활성화하는데 기여할 수 있다. 본 논문은 다음 과정들을 수행한다: (i) 블렌드쉐입 애니메이션 기술을 선택하며, (ii) 딥러닝 모델을 음성 인식 모듈과 표정 코딩 모듈의 주종 관계 파이프라인으로 구현하고, (iii) 한국어 스피치 모션 캡처 dataset을 제작하며, (iv) 두 대조용 딥러닝 모델들을 준비하고 (한 모델은 영어 음성 인식 모듈을 채택하고, 다른 모델은 한국어 음성 인식 모듈을 채택하며, 두 모델이 동일한 기본 구조의 표정 코딩 모듈을 채택한다), (v) 두 모델의 표정 코딩 모듈을 음성 인식 모듈에 종속되게 학습시킨다. 유저 스터디 결과는, 한국어 음성 인식 모듈을 채택하여 표정 코딩 모듈을 종속적으로 학습시킨 모델 (4.2/5.0 점 획득)이, 영어 음성 인식 모듈을 채택하여 표정 코딩 모듈을 종속적으로 학습시킨 모델 (2.7/5.0 점 획득)에 비해 결정적으로 더 자연스러운 한국어 스피치 애니메이션을 생성함을 보여 주었다. 이 결과는 한국어 스피치 애니메이션의 품질이 한국어 음성 인식의 정확성으로 귀결됨을 보여 줌으로써 상기의 효과를 확인해준다.

스마트폰용 영한, 한영 모바일 번역기 개발 (Development of Korean-to-English and English-to-Korean Mobile Translator for Smartphone)

  • 여상화;채흥석
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권3호
    • /
    • pp.229-236
    • /
    • 2011
  • 본 논문에서는 스마트폰용 경량화된 영한, 한영 모바일 번역기를 설계 및 구현한다. 번역 엔진은 자연스러운 번역과 높은 번역 품질을 위해 번역 메모리와 규칙기반의 번역 엔진으로 이중화를 한다. 개발된 번역 엔진의 사용자의 사용성 (Usability)을 극대화하기 위해 스마트폰에 내장된 카메라를 통한 문자인식(OCR; Optical Character Recognition) 엔진과 음성 합성 엔진(TTS; Text-to-Speech)을 각각 Front-End와 Back-end에 접목하였다. 실험결과 번역 품질은 BLEU와 NIST 평가치를 기준으로 구글번역기 대비 영한 번역은 72.4%, 한영 번역은 77.7%로 평가되었다. 이러한 평가결과는 본 논문에서 개발한 모바일 자동번역기가 서버 기반의 번역기의 성능에 근접하며 상업적으로 유용함을 보여준다.

한국인을 위한 영어발음교정 시스템 'Dr.Speaking' 소개 (An Introduction to 'Dr.Speaking' - English Pronunciation Tutoring System for Korean -)

  • 김효숙
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2002년도 11월 학술대회지
    • /
    • pp.47-50
    • /
    • 2002
  • This paper is to introduce 'Dr. Speaking', which was recently developed by Eonon Inc.. 'Dr. Speaking' is an English pronunciation tutoring system. This has three distinguishing features. First, it teaches how to organize a speaker's vocal organs to pronounce accurately. Second, after it compares a speaker's pronunciation with that of a native speaker's, it grades that speaker's pronunciation level according to phonetic standards. Third, it provides proper information necessary for correcting a speaker's incorrect pronunciation. It is not always easy for a tutoring system to execute the above three almost simutaneously. However, 'Dr. Speaking' proved itself that it is possible by adding speech technology (e.g. speech recognition) to phonetic knowledge.

  • PDF

Universal and Specific Features in Intonation Perception

  • Makarova, Veronika
    • 대한음성학회지:말소리
    • /
    • 제41호
    • /
    • pp.73-81
    • /
    • 2001
  • This paper reports the results of an experimental phonetic study of intonation contrasts perception by speakers of British English, Japanese and Russian. Six series of re-synthesized two-syllable rise-fall contours with manipulated parameters of the rise in the first and the fall in the second syllable were employed in the experiment. Modifications of pitch height were executed in 2 st steps, and of duration in 30ms steps. The subjects, who were native speakers of British English, Japanese and Russian, identified the sentence type of presented re-synthesized stimuli. The results of the experiments demonstrate overall similarity of the perception strategies across the three groups of subjects, especially regarding the thresholds of declarative' sentence type judgement. Non-declarative judgements are more language-specific. The results can be employed for the teaching of English, Japanese and Russian as foreign languages as well as for speech synthesis and recognition.

  • PDF

UNIVERSAL AND SPECIFIC FEATURES IN INTONATION PERCEPTION

  • Makarova, Veronika
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2000년도 7월 학술대회지
    • /
    • pp.139-148
    • /
    • 2000
  • This paper reports the results of an experimental phonetic study of intonation contrasts perception by speakers of British English, Japanese and Russian. Six series of re-synthesized two-syllable rise-fall contours with manipulated parameters of the rise in the first and the fall in the second syllable were employed in the experiment. Modifications of pitch height were executed in 2 st steps, and of duration - in 30ms steps. The subjects, who were native speakers of British English, Japanese and Russian, identified the sentence type of presented re-synthesized stimuli. The results of the experiments demonstrate overall similarity of the perception strategies across the three groups of subjects, especially regarding the thresholds of 'declarative' sentence type judgement. Non-declarative judgements are more language-specific. The results can be employed for the teaching of English, Japanese and Russian as foreign languages as well as for speech synthesis and recognition.

  • PDF

한국인 영어학습자의 모음삽입현상에 대한 연구 (An Experimental Study of Vowel Epenthesis among Korean Learners of English)

  • 신동진
    • 말소리와 음성과학
    • /
    • 제6권2호
    • /
    • pp.163-174
    • /
    • 2014
  • Korean L2 speakers have many problems learning the pronunciation of English words. One of these problems is vowel epenthesis. Vowel epenthesis is the insertion of vowels into or between words, and Korean learners of English typically do this between successive consonants, either within clusters, or across syllables, word boundaries or following final coda consonants. The aim of this study was to investigate whether individual differences in vowel epenthesis are more closely related to the perception and production of segments (vowels and consonants) and prosody or if they are relatively independent from these processes. Subjects completed a battery of production and perception tasks. They read sentences, identified vowels and consonants, read target words likely to have epenthetic vowels (e.g., abduction) and demonstrated stress recognition and epenthetic vowel perception. The results revealed that Korean second-language learners (L2) have problems with vowel epenthesis in production and perception, but production and perception abilities were not correlated with one another. Vowel epenthesis was strongly related to vowel production and perception, suggesting that problems with segments may be combined with L1 phonotactics to produce epenthesis.

Automatic Detection of Korean Accentual Phrase Boundaries

  • Lee, Ki-Yeong;Song, Min-Suck
    • The Journal of the Acoustical Society of Korea
    • /
    • 제18권1E호
    • /
    • pp.27-31
    • /
    • 1999
  • Recent linguistic researches have brought into focus the relations between prosodic structures and syntactic, semantic or phonological structures. Most of them prove that prosodic information is available for understanding syntactic, semantic and discourse structures. But this result has not been integrated yet into recent Korean speech recognition or understanding systems. This study, as a part of integrating prosodic information into the speech recognition system, proposes an automatic detection technique of Korean accentual phrase boundaries by using one-stage DP, and the normalized pitch pattern. For making the normalized pitch pattern, this study proposes a method of modified normalization for Korean spoken language. For the experiment, this study employs 192 sentential speech data of 12 men's voice spoken in standard Korean, in which 720 accentual phrases are included, and 74.4% of the accentual phrase boundaries are correctly detected while 14.7% are the false detection rate.

  • PDF

영어 어말 폐쇄음 파열 유무에 따른 위치성 및 유.무성성 인식에 관한 연구 (A study on the perception of POA and voicing in relation to the release and nonrelease in the English word-final stops)

  • 이석재;강수하;박지현;황선민
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2003년도 10월 학술대회지
    • /
    • pp.43-49
    • /
    • 2003
  • This study reveals the perceptual role of stop release burst to Koreans' recognition of POA(place of articulation) and voicing in the English word-final stops. 10 Korean subjects participated in a perception experiment wherein the stimuli are prepared on the basis of the amount of acoustic information, which includes the release burst. The result shows that i) release burst plays an important role in the recognition of POA in the order of velar, alveolar, and bilabial stops, and ii) the release burst more enhances the correct recognition of voiceless stops than that of voiced stops. This result leads us to conclude that the role of stop release burst differs with respect to the POA and voicing of the stops, and it is possibly related to the different intensity of release in voicing and in each POA.

  • PDF

청크 기반 시계열 음성의 감정 인식 연구 (A Study on Emotion Recognition of Chunk-Based Time Series Speech)

  • 신현삼;홍준기;홍성찬
    • 인터넷정보학회논문지
    • /
    • 제24권2호
    • /
    • pp.11-18
    • /
    • 2023
  • 최근 음성 감정 인식(Speech Emotion Recognition, SER)분야는 음성 특징과 모델링을 활용하여 인식률을 개선하기 위한 많은 연구가 진행되고 있다. 기존 음성 감정 인식의 정확도를 높이기 위한 모델링 연구 이외에도 음성 특징을 다양한 방법으로 활용하는 연구들이 진행되고 있다. 본 논문에서는 음성 감정이 시간 흐름과 연관이 있음을 착안하여 시계열 방식으로 음성파일을 시간 구간별로 분리한다. 파일 분리 이후, 음성 특징인 Mel, Chroma, zero-crossing rate (ZCR), root mean square (RMS), mel-frequency cepastral coefficients (MFCC)를 추출하여서 순차적 데이터 처리에 사용하는 순환형 신경망 모델에 적용하여 음성 데이터에서 감정을 분류하는 모델을 제안한다. 제안한 모델은 librosa를 사용하여 음성 특징들을 모든 파일에서 추출하여, 신경망 모델에 적용하였다. 시뮬레이션은 영어 데이터 셋인 Interactive Emotional Dyadic Motion Capture (IEMOCAP)을 이용하여 recurrent neural network (RNN), long short-term memory (LSTM) and gated recurrent unit(GRU)의 모델들의 성능을 비교 및 분석하였다.