• 제목/요약/키워드: Voice training method

검색결과 52건 처리시간 0.021초

배우의 미학적 발성을 위한 판소리의 활용방안 (Use of Pansori for Developing Actor's Aesthetic Voice)

  • 이기호
    • 한국콘텐츠학회논문지
    • /
    • 제9권12호
    • /
    • pp.181-192
    • /
    • 2009
  • 본 연구는 배우가 한국전통의 고유한 미학적 발성을 체득하기 위하여 한국 전통연극의 소리미학인 판소리의 호흡법, 발성법, 공명법을 분석하여 그 활용방안을 모색하는데 목적이 있다. 오늘날 세계의 연극흐름에서 상호문화교류주의와 글로벌 현상은 더 이상 새로운 이슈도, 새로운 접근법도 아니다. 세계 연극의 글로벌 현상은 이미 보편화되었는바, 연극을 완성시키는 배우의 연기 또한 글로벌 연극문화를 수용, 교류할 수 있어야 하겠다. 이는 배우들에게 다양한 스타일의 연기를 표현할 수 있는 능력의 요구를 의미하기도 하지만, 상호문화교류주의의 근간이 되는 자국의 문화와 미학을 연기에 담아낼 수 있어야 한다는 말이기도 하다. 따라서 배우가 자국의 문화와 예술을 담아낼 수 있는 몸짓과 소리미학 능력을 갖추는 것은 연기의 문화적 정체성을 획득하는데 있어서도 필수 불가결한 것이라 할 수 있겠다. 그 중에서도 미학적인 소리의 습득을 위하여 판소리의 발성원리와 발성법, 수련방법의 적용 및 응용 방법을 제시하는 것은 배우의 연기술에 문화적, 예술적 정체성을 획득하도록 돕는 일이 된다. 본고에서는 오늘날 세계적으로 가장 널리 알려진 서구의 발성이론과 훈련법을 토대로 판소리의 발성원리와 발성법, 수련기법을 분석하여 배우의 미학적 발성을 위한 활용방안을 모색하였다.

경증 자폐성 장애인을 위한 보완·대체의사소통 지원프로그램 (Individual with mild autistic disorder Augmentative and alternative communication Training Program)

  • 유성령;박정화;박수현
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2013년도 추계학술대회
    • /
    • pp.507-509
    • /
    • 2013
  • 본 논문에서는 최근 많은 관심을 받고 있는 안드로이드를 활용한 경증 자폐성장애인을 위한 보완대체의사소통 지원프로그램을 구현하였다. 보완대체의사소통이란 구어 및 비구어적 의사표현하기 어려운 사람들을 위해 사용하는 의사소통체계로서, 본 프로그램에서는 자폐장애인의 의사소통과 의사소통 언어의 선택적 빈도를 측정하는 방법과 자폐 아등의 지적 장애인의 언어에 대한 기본적인 훈련을 하는 방법을 소개한다. 본 논문에서는 보완대체 의사소통에서의 언어표상기법을 활용하여 여러 의사소통의 자유가 없는 사용자들이 효과적인 의사소통 및 학습을 할 수 있도록 개발하였으며, TTS(Text to Speech)를 사용하여 사용자의 의사를 육성으로 전달할 수 있도록 하였다. 그림판기능을 제공하여 사용자의 의사전달의 폭을 넓히고 언어빈도 측정을 통한 사용자의 언어사용빈도 그리고 자폐아의 경우 의식적 무의식 의사전달에 따른 백분율 수치를 두어 도움을 주도록 구현하였다.

  • PDF

기계학습에 의한 후두 장애음성 식별기의 성능 비교 (Performance comparison on vocal cords disordered voice discrimination via machine learning methods)

  • 조철우;왕수건;권익환
    • 말소리와 음성과학
    • /
    • 제14권4호
    • /
    • pp.35-43
    • /
    • 2022
  • 본 논문은 후두 장애음성 데이터의 식별률을 CNN과 기계학습 앙상블 학습 방법에 의해 개선하는 방법에 대한 연구이다. 일반적으로 후두 장애음성 데이터는 그 수가 적으므로 통계적 방법에 의해 식별기가 구성되더라도, 훈련 방식에 따라 과적합으로 인해 일어나는 현상으로 인해 외부 데이터에 노출될 시 식별률의 저하가 발생할 수 있다. 본 연구에서는 다양한 정확도를 갖도록 훈련된 CNN 모델과 기계학습 모델로부터 도출된 결과를 다중 투표 방식으로 결합하여 원래의 훈련된 모델에 비해 향상된 분류 효율을 갖도록 하는 방법과 함께, 기존의 기계학습 중 앙상블 방법을 적용해 보고 그 결과를 확인하였다. 알고리즘을 훈련하고 검증하기 위해 PNUH(Pusan National University Hospital) 데이터셋을 이용하였다. 데이터셋에는 정상음성과 양성종양 및 악성 종양의 음성 데이터가 포함되어 있다. 실험에서는 정상 및 양성 종양과 악성종양을 구분하는 시도를 하였다. 실험결과 random forest 방법이 가장 우수한 앙상블 방법으로 나타났으며 85%의 식별률을 보였다.

d-vector를 이용한 한국어 다화자 TTS 시스템 (A Korean Multi-speaker Text-to-Speech System Using d-vector)

  • 김광현;권철홍
    • 문화기술의 융합
    • /
    • 제8권3호
    • /
    • pp.469-475
    • /
    • 2022
  • 딥러닝 기반 1인 화자 TTS 시스템의 모델을 학습하기 위해서 수십 시간 분량의 음성 DB와 많은 학습 시간이 요구된다. 이것은 다화자 또는 개인화 TTS 모델을 학습시키기 위해서는 시간과 비용 측면에서 비효율적 방법이다. 음색 복제 방법은 새로운 화자의 TTS 모델을 생성하기 위하여 화자 인코더 모델을 이용하는 방식이다. 학습된 화자 인코더 모델을 통해 학습에 사용되지 않은 새로운 화자의 적은 음성 파일로부터 이 화자의 음색을 대표하는 화자 임베딩 벡터를 만든다. 본 논문에서는 음색 복제 방식을 적용한 다화자 TTS 시스템을 제안한다. 제안한 TTS 시스템은 화자 인코더, synthesizer와 보코더로 구성되어 있는데, 화자 인코더는 화자인식 분야에서 사용하는 d-vector 기법을 적용한다. 학습된 화자 인코더에서 도출한 d-vector를 synthesizer에 입력으로 추가하여 새로운 화자의 음색을 표현한다. MOS와 음색 유사도 청취 방법으로 도출한 실험 결과로부터 제안한 TTS 시스템의 성능이 우수함을 알 수 있다.

한국어 text-to-speech(TTS) 시스템을 위한 엔드투엔드 합성 방식 연구 (An end-to-end synthesis method for Korean text-to-speech systems)

  • 최연주;정영문;김영관;서영주;김회린
    • 말소리와 음성과학
    • /
    • 제10권1호
    • /
    • pp.39-48
    • /
    • 2018
  • A typical statistical parametric speech synthesis (text-to-speech, TTS) system consists of separate modules, such as a text analysis module, an acoustic modeling module, and a speech synthesis module. This causes two problems: 1) expert knowledge of each module is required, and 2) errors generated in each module accumulate passing through each module. An end-to-end TTS system could avoid such problems by synthesizing voice signals directly from an input string. In this study, we implemented an end-to-end Korean TTS system using Google's Tacotron, which is an end-to-end TTS system based on a sequence-to-sequence model with attention mechanism. We used 4392 utterances spoken by a Korean female speaker, an amount that corresponds to 37% of the dataset Google used for training Tacotron. Our system obtained mean opinion score (MOS) 2.98 and degradation mean opinion score (DMOS) 3.25. We will discuss the factors which affected training of the system. Experiments demonstrate that the post-processing network needs to be designed considering output language and input characters and that according to the amount of training data, the maximum value of n for n-grams modeled by the encoder should be small enough.

연속 잡음 음성 인식을 위한 다 모델 기반 인식기의 성능 향상에 대한 연구 (Performance Improvement in the Multi-Model Based Speech Recognizer for Continuous Noisy Speech Recognition)

  • 정용주
    • 음성과학
    • /
    • 제15권2호
    • /
    • pp.55-65
    • /
    • 2008
  • Recently, the multi-model based speech recognizer has been used quite successfully for noisy speech recognition. For the selection of the reference HMM (hidden Markov model) which best matches the noise type and SNR (signal to noise ratio) of the input testing speech, the estimation of the SNR value using the VAD (voice activity detection) algorithm and the classification of the noise type based on the GMM (Gaussian mixture model) have been done separately in the multi-model framework. As the SNR estimation process is vulnerable to errors, we propose an efficient method which can classify simultaneously the SNR values and noise types. The KL (Kullback-Leibler) distance between the single Gaussian distributions for the noise signal during the training and testing is utilized for the classification. The recognition experiments have been done on the Aurora 2 database showing the usefulness of the model compensation method in the multi-model based speech recognizer. We could also see that further performance improvement was achievable by combining the probability density function of the MCT (multi-condition training) with that of the reference HMM compensated by the D-JA (data-driven Jacobian adaptation) in the multi-model based speech recognizer.

  • PDF

가상현실 기반 상황몰입형 영어 대화 학습 시스템 (Virtual Reality based Situation Immersive English Dialogue Learning System)

  • 김진원;박승진;민가영;이건명
    • 융합정보논문지
    • /
    • 제7권6호
    • /
    • pp.245-251
    • /
    • 2017
  • 이 논문에서는 학습자가 가상현실 안에서 음성으로 원어민 캐릭터와 대화하는 영어 대화 학습 시스템을 제안한다. 제안 시스템에서 사용자는 다양한 시나리오의 가상현실 상황에서 대화를 한다. 시스템은 사용자의 음성을 인식하고, 음성 합성을 이용하여 캐릭터의 음성을 제공한다. 몰입감과 현실감 있는 환경을 제공하는 가상현실 환경을 통해 영어 대화하는 과정에서 학습의 발음을 평가한 정보를 학습자에게 피드백으로 제공한다.

활창과 허밍을 이용한 음성치료가 성문틈 환자의 음성 개선에 미치는 효과 (Effects of Voice Therapy Using Gliding and Humming in Dysphonic Patients With Glottal Gap)

  • 정대용;심미란;황연신;김근전;선동일
    • 대한후두음성언어의학회지
    • /
    • 제32권2호
    • /
    • pp.81-86
    • /
    • 2021
  • Background and Objectives Therapies have been reported to treat the glottal gap previously. However, these voice therapies showed the limits because many techniques focused only on one among breathing, resonance and phonation. In addition patients often have difficulties visiting hospital frequently. 'Gliding and humming' is vocal training technique that readjusts total vocal patterns such as breathing, resonance and phonation. This technique can be easily applied during short term sessions. The purpose of this study is to evaluate the efficiency of voice therapy with 'gliding and humming' for patients with glottic gap during short-term treatment sessions. Materials and Method Twenty-three patients with glottal gap were selected. Of all patients, 14 patients had sulcus vocalis and 12 patients had muscle tension dysphonia (MTD). Voice therapies were performed 1.9 sessions in average. GRBAS, jitter, shimmer, noise to harmonic ratio, semitone range, closed quotient_vowel and maximum phonation time were compared before and after the therapies. In addition, changes of glottal gap and MTD severity were evaluated. Results Statistically significant improvement was observed. MTD improvement was observed only among the patients with glottal gap improvement. Also sulcus vocalis group showed the statistically significant improvement. Conclusion 'Gliding and humming' was effective to the patients with glottic gap and sulcus vocalis. Also, among patients who have both glottic gap and MTD, the data suggests that voice therapy for glottic gap also makes improvement in MTD.

RawNet3 화자 표현을 활용한 임의의 화자 간 음성 변환을 위한 StarGAN의 확장 (Extending StarGAN-VC to Unseen Speakers Using RawNet3 Speaker Representation)

  • 박보경;박소민;홍현기
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권7호
    • /
    • pp.303-314
    • /
    • 2023
  • 음성 변환(Voice Conversion)은 개인의 음성 데이터를 다른 사람의 음향적 특성(음조, 리듬, 성별 등)으로 재생성할 수 있는 기술로, 교육, 의사소통, 엔터테인먼트 등 다양한 분야에서 활용되고 있다. 본 논문은 StarGAN-VC 모델을 기반으로 한 접근 방식을 제안하여, 병렬 발화(Utterance) 없이도 현실적인 음성을 생성할 수 있다. 고정된 원본(source) 및 목표(target)화자 정보의 원핫 벡터(One-hot vector)를 이용하는 기존 StarGAN-VC 모델의 제약을 극복하기 위해, 본 논문에서는 사전 훈련된 Rawnet3를 사용하여 목표화자의 특징 벡터를 추출한다. 이를 통해 음성 변환은 직접적인 화자 간 매핑 없이 잠재 공간(latent space)에서 이루어져 many-to-many를 넘어서 any-to-any 구조가 가능하다. 기존 StarGAN-VC 모델에서 사용된 손실함수 외에도, Wasserstein-1 거리를 사용하여 생성된 음성 세그먼트가 목표 음성의 음향적 특성과 일치하도록 보장했다. 또한, 안정적인 훈련을 위해 Two Time-Scale Update Rule (TTUR)을 사용한다. 본 논문에서 제시한 평가 지표들을 적용한 실험 결과에 따르면, 제한된 목소리 변환만이 가능한 기존 StarGAN-VC 기법 대비, 본 논문의 제안 방법을 통해 다양한 발화자에 대한 성능이 개선된 음성 변환을 제공할 수 있음을 정량적으로 확인하였다.

음성인식을 이용한 고객센터 자동 호 분류 시스템 (Automated Call Routing Call Center System Based on Speech Recognition)

  • 심유진;김재인;구명완
    • 음성과학
    • /
    • 제12권2호
    • /
    • pp.183-191
    • /
    • 2005
  • This paper describes the automated call routing for call center system based on speech recognition. We focus on the task of automatically routing telephone calls based on a users fluently spoken response instead of touch tone menus in an interactive voice response system. Vector based call routing algorithm is investigated and normalization method suggested. Call center database which was collected by KT is used for call routing experiment. Experimental results evaluating call-classification from transcribed speech are reported for that database. In case of small training data, an average call routing error reduction rate of 9% is observed when normalization method is used.

  • PDF