• Title/Summary/Keyword: 발음 훈련

Search Result 51, Processing Time 0.03 seconds

The Effects of Paralanguage Utilization Training for Audiobook Text Shaping - Professor's Friendly Behavior as a Parameters - (유사언어 활용 훈련이 오디오북 텍스트 형상화에 미치는 영향 연구 - 교수자의 우호적 행동을 매개변수로 -)

  • Cho, Ye-Shin
    • Journal of Korea Entertainment Industry Association
    • /
    • v.14 no.2
    • /
    • pp.141-153
    • /
    • 2020
  • The purpose of study is to examine the role of the Professor's friendly behavior as a parameters in the course of Paralanguage Utilization Training using pronunciation, stress, voice tone, speed, pause and expression of feelings affecting of Audiobook text shaping. the results of this study will be a reference to training on the use of Paralanguage for dynamic shaping of Audiobook text and recognizing the need and influence of professors' friendly behavior as a parameters. The results of the study are as follows. First, training in the use of Paralanguage was shown to have a positive effect on the Shaping of Audiobook text and served as a key factor in conveying the original meaning of text. Therefore, if we look at the significance and content of training using Paralanguage and continue training using Paralanguage, it will actually help to shape Audiobook text. Second, the professor's friendly behavior partially acted as a parameters role between training in the use of Paralanguage and shaping Audiobook text. The professor's friendly behavior has helped form Audiobook text by providing a sense of trust and will increase the level of completion for training in the use of Paralanguage. Thus, training in the use of Paralanguage Utilization Training could result in more effective Audiobook text shaping when conducted in conjunction with the professors' friendly actions. Therefore, it was shown that the ability to use Paralanguage and the professor's caring and friendly behavior to help them perform better were more effective when they simultaneously affected Audiobook text shaping.

Deep learning-based speech recognition for Korean elderly speech data including dementia patients (치매 환자를 포함한 한국 노인 음성 데이터 딥러닝 기반 음성인식)

  • Jeonghyeon Mun;Joonseo Kang;Kiwoong Kim;Jongbin Bae;Hyeonjun Lee;Changwon Lim
    • The Korean Journal of Applied Statistics
    • /
    • v.36 no.1
    • /
    • pp.33-48
    • /
    • 2023
  • In this paper we consider automatic speech recognition (ASR) for Korean speech data in which elderly persons randomly speak a sequence of words such as animals and vegetables for one minute. Most of the speakers are over 60 years old and some of them are dementia patients. The goal is to compare deep-learning based ASR models for such data and to find models with good performance. ASR is a technology that can recognize spoken words and convert them into written text by computers. Recently, many deep-learning models with good performance have been developed for ASR. Training data for such models are mostly composed of the form of sentences. Furthermore, the speakers in the data should be able to pronounce accurately in most cases. However, in our data, most of the speakers are over the age of 60 and often have incorrect pronunciation. Also, it is Korean speech data in which speakers randomly say series of words, not sentences, for one minute. Therefore, pre-trained models based on typical training data may not be suitable for our data, and hence we train deep-learning based ASR models from scratch using our data. We also apply some data augmentation methods due to small data size.

A Comparative Study on the Public Speech Spectrum between ROK and USA Politicians (한국과 미국 정치인 대중연설 음성의 스펙트럼 비교 연구)

  • Chung, Eun-Ee;Lee, Sang-Ho
    • Journal of Digital Contents Society
    • /
    • v.17 no.3
    • /
    • pp.143-155
    • /
    • 2016
  • In this study, we focused on the importance of politicians' voices in sending a message. Different factors for a voice may play different roles in sending a message and affect message recipients' responsiveness, understanding, and so on. For this reason, it can be said that an analytical study on voices in sending a diversity of messages is a meaningful attempt. We took interest in politicians' voices because we determined that a voice should be very important to politicians frequently sending a message through speech to the nation and others. This study aimed to investigate the voices of politicians, who represent their nation. We intended to select politicians representing ROK(Republic of Korea; South Korean) and USA(United States of America), choose representative speeches to the nation, make a comparative analysis of their voices in the speeches, and draw implications. We analyzed a total of eight voices - four ROK politicians and four USA ones, male and female - to characterize them and suggest guidelines for a voice with clearer message delivery. We analyzed the politicians' voices on the basis of such vocal properties as vocal pitch, accuracy of pronunciation, resonance, and intonation variation and found that the ROK politicians were somewhat poorer at utilizing their voice than the US ones. In particular, they were remarkably poorer at accurate pronunciation, which exerts a significant impact on message passing.

Learning of Artificial Neural Networks about the Prosody of Korean Sentences. (인공 신경망의 한국어 운율 학습)

  • Shin Dong-Yup;Min Kyung-Joong;Lim Un-Cheon
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.121-124
    • /
    • 2001
  • 음성 합성기의 합성음의 자연감을 높이기 위해 자연음에 내재하는 정확한 운율 법칙을 구하여 음성합성 시스템에서 이를 구현해 주어야 한다 무제한 어휘 음성합성 시스템의 문-음성 합성기에서 필요한 운율 법칙은 언어학적 정보를 이용해 구하거나, 자연음에서 추출하고 있다 그러나 추출한 운율 법칙이 자연음에 내재하는 모든 운율 법칙을 반영하지 못했거나, 잘못 구현되는 경우에는 합성음의 자연성이 떨어지게 된다. 이런 점을 고려하여 본 논문에서는 한국어 자연음을 분석하여 추출한 운율 정보를 인공 신경망이 학습하도록 하고 훈련을 마친 인공 신경망에 문장을 입력하고, 출력으로 나오는 운율 정보와 자연음의 운율 정보를 비교한 결과 제안한 인공 신경망이 자연음에 내재하고 있는 운율을 학습할 수 있음을 알 수 있었다. 운율의 3대 요소는 피치 , 지속시간, 크기의 변화이다. 제안한 인공 신경망이 한국어 문장의 음소 열을 입력으로 받아들이고, 각 음소의 지속시간에 따른 피치변화와 크기 변화를 출력으로 내보내면 자연음을 분석해 구한 각 음소의 운율 정보인 목표 패턴과 출력 패턴 의 오차를 최소화하도록 인공 신경망의 가중치를 조절할 수 있도록 설계하였다. 지속시간에 따른 각 음소의 피치와 크기 변화를 학습시키기 위해 피치 및 크기 인공 신경망을 구성하였다. 이들 인공 신경망을 훈련시키기 위해 먼저 음소 균형 문장 군을 구축하여야 하고, 이들 언어 자료를 특정 화자가 일정 환경에서 읽고 이를 녹음하여 , 분석하여 구한운율 정보를 운율 데이터베이스로 구축하였다. 문장 내의 각 음소에 대해 지속 시간과 피치 변화 그리고 크기 변화를 구하고, 곡선 적응 방법을 이용하여 각 변화 곡선에 대한 다항식 계수와 초기 값을 구해 운율 데이터베이스를 구축한다. 이 운율 데이터베이스의 일부는 인공 신경망을 훈련시키는데 이용하고, 나머지로 인공 신경망의 성능을 평가하여 인공 신경망이 운율 법칙을 학습할 수 있었다. 언어 자료의 문장 수를 늘리고 발음 횟수를 늘려 운율 데이터베이스를 확장하면 인공 신경망의 성능을 높일 수 있고, 문장 내의 음소의 수를 감안하여 인공 신경망의 입력 단자의 수는 계산량과 초분절 요인을 감안하여 결정해야 할 것이다

  • PDF

Development of Continuous Speech Recognition System for Multimedia Mobile Terminal Applications (휴대 멀티미디어 단말용 음성인식 시스템 개발)

  • 김승희
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.06c
    • /
    • pp.59-62
    • /
    • 1998
  • 본 논문에서는 한국전자통신연구원의 Handy Combi 응용 도메인을 대상으로 한 화자독립 연속음성인식 시스템 개발에 관하여 기술한다. 불특정화자가 자연스럽게 발음한 연속음성을 인식하는 기술은 펜인식 등과 더불어 멀티모달 인터페이스의 핵심 요소로서, 이동 환경에서 사용자의 다양한 요구사항을 처리하는 지능형 에이전트에 구현을 위해 필수적으로 개발되어야 하는 기술이다. 본 논문에서는 연속확률분포를 가지는 Hidden Markov Model(HMM) 기반의 연속음성인식 시스템을 구현하였다. 개발된 시스템은 음성특징벡터로 MFCC를 사용하였으며, 음소 모델의 강인한 훈련을 위해 음성학적 지식에 기반을 둔 tree-based clustering 방식을 도입하였다. 인식단계에서는 인식속도를 개선시키기 위해 beam-search 기법을 적용하였다. 인식 실험 결과, 99.7%의 어절 인식률과 98.8%의 문장 인식률을 얻었으며, 최종적인 문장의 이해도는 99% 이상이었다.

  • PDF

Speech training aids for deafs (청각 장애자용 발음 훈련 기기의 개발)

  • 김동준;윤태성;박상희
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 1991.10a
    • /
    • pp.746-751
    • /
    • 1991
  • Deafs train articulation by observing mouth of a tutor. sensing tactually the notions of the vocal organs, or using speech training aids. Present speech training aids for deafs can measure only single speech ter, or display only frequency spectra in histogrm or pseudo-color. In this study, a speech training aids that can display subject's articulation in the form of a cross section of the vocal organs and other speech parameters together in a single system Is aimed to develop and this system makes a subject to know where to correct. For our objective, first, speech production mechanism is assumed to be AR model in order to estimate articulatory notions of the vocal tract from speech signal. Next, a vocal tract profile mode using LPC analysis is made up. And using this model, articulatory notions for Korean vowels are estimated and displayed in the vocal tract profile graphics.

  • PDF

A study on speech training aids for Deafs (청각장애자용 발음훈련기기 개발에 관한 연구)

  • Ahn, Sang-Pil;Lee, Jae-Hyuk;Yoon, Tae-Sung;Park, Sang-Hui
    • Proceedings of the KIEE Conference
    • /
    • 1990.07a
    • /
    • pp.47-50
    • /
    • 1990
  • Deafs cannot speak straight voice as normal people in lack of feedback of their pronunciation, therefore speech training is required. In this study, fundamental frequency, intensity, formant frequencies, vocal tract graphic and vocal tract area function, extracted from speech signal, are used as feature parameter. AR model, whose coefficients are extracted using inverse filtering. is used as speech generation model. In connect ion between vocal tract graphic and speech parameter, articulation distances and articulation distance functions in selected 15-intervals are determined by extracted vocal tract areas and formant frequencies.

  • PDF

Development of an English Study Application using Deep Learning-based lmage Recognition techniques (딥러닝 기반 이미지 인식 기술을 활용한 영어 학습 애플리케이션 개발)

  • Kim, Yoo Jung;Kim, Ju Yeon;Lee, Yu bin;Lee, Ki Yong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.151-154
    • /
    • 2017
  • 본 논문에서는 사용자의 주변사물을 인식하여 영단어로 알려줌으로써 사용자가 실생활에서 영단어를 능동적으로 학습할 수 있도록 돕는 애플리케이션을 개발한다. 본 애플리케이션은 사용자가 카메라로 촬영하거나 사진첩에서 선택한 이미지를 인식하여 사진 속 물체의 영어 단어와 한국어 뜻을 알려주며, 단어의 발음 또한 확인할 수 있고, 직접 단어장에 저장하여 다시 학습할 수 있도록 한다. 이를 위해 TensorFolw를 활용한 딥러닝 기반 이미지 인식 기술을 사용하였으며, 추후 TensorFolw를 통하여 모델을 추가적으로 훈련시킴으로써 이미지 인식의 정확도를 높일 수 있다. 그 외 영어-한국어 번역, 텍스트-음성 변환 등 부가 기능을 통해 사용자가 다양한 방식으로 영단어를 학습할 수 있도록 한다.

The Effects of Reading Pronunciation Training of Korean Phonological Process Words for Chinese Learners (중국인 학습자의 우리말 음운변동 단어의 읽기 발음 훈련효과)

  • Lee, Yu-Ra;Kim, Soo-Jin
    • Phonetics and Speech Sciences
    • /
    • v.1 no.1
    • /
    • pp.77-86
    • /
    • 2009
  • This study observes how the combined intervention program effects on the acquisition reading pronunciation of Korean phonological process words and the acquisition aspects of each phonological process rules to four Korean learners whose first language is Chinese. The training program is the combination of multisensory Auditory, Visual and Kinethetic (AVK) approach, wholistic approach, and metalinguistic approach. The training purpose is to evaluate how accurately they read the words of the phonological process which have fortisization, nasalization, lateralization, intermediate sound /ㅅ/ (/${\int}iot"$/). We access how they read the untrained words which include the four factors above. The intervention effects are analyzed by the multiple probe across subjects design. The results indicate that the combined phonological process rule explanation and the words activity intervention affects the four Chinese subjects in every type of word. The implications of the study are these: First, it suggests the effect of Korean pronunciation intervention in a concrete way. Second, it offers how to evaluate the phonological process and how to train people who are learning Korean language.

  • PDF

Korean-English statistical speech translation Using n-best re-ranking (n-best 리랭킹을 이용한 한-영 통계적 음성 번역)

  • Lee, Dong-Hyeon;Lee, Jong-Hoon;Lee, Gary Geun-Bae
    • Annual Conference on Human and Language Technology
    • /
    • 2006.10e
    • /
    • pp.171-176
    • /
    • 2006
  • 본 논문에서는 n-best 리랭킹을 이용한 한-영 통계적 음성 번역 시스템에 대해 논하고 있다. 보통의 음성 번역 시스템은 음성 인식 시스템, 자동 번역 시스템, 음성 합성 시스템이 순차적으로 결합되어 있다. 하지만 본 시스템은 음성 인식 오류에 보다 강인한 시스템을 만들기 위해 음성 인식 시스템으로부터 n-best 인식 문장을 추출하여 번역 결과와 함께 리랭킹의 과정을 거친다. 자동 번역 시스템으로 구절기반 통계적 자동 번역 모델을 사용하여, 음성 인식기의 발음 모델에서 기본 단어 단위와 맞추어 번역 모델과 언어 모델을 훈련시킴으로써 음성 번역 시스템에서 형태소 분석기를 제거할 수 있다. 또한 음성 인식 시스템에서 상황 별로 언어 모델을 분리하여 처리함으로써 자동 번역 시스템에 비해 부족한 음성 인식 시스템의 처리 범위를 보완할 수 있었다.

  • PDF