• 제목/요약/키워드: Speech Synthesis

검색결과 381건 처리시간 0.031초

전, 후방향 LPC법에 의한 음성 파형분절의 연결부분 스므딩법 (The Smoothing Method of the Concatenation Parts in Speech Waveform by using the Forward/Backward LPC Technique)

  • 이미숙
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1991년도 학술발표회 논문집
    • /
    • pp.15-20
    • /
    • 1991
  • In a text-to-speech system, sound units (e. q., phonemes, words, or phrases) can be concatenated together to produce required utterance. The quality of the resulting speech is dependent on factors including the phonological/prosodic contour, the quality of basic concatenation units, and how well the units join together. Thus although the quality of each basic sound unit is high, if occur the discontinuity in the concatenation part then the quality of synthesis speech is decrease. To solve this problem, a smoothing operation should be carried out in concatenation parts. But a major problem is that, as yet, no method of parameter smoothing is availalbe for joining the segment together.

  • PDF

규칙 합성음의 객관적 품질평가에 관한 연구 (A Study on Objective Quality Assessment of Synthesized Speech by Rule)

  • 홍진우
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1991년도 학술발표회 논문집
    • /
    • pp.67-72
    • /
    • 1991
  • This paper evaluates thequality of synthesized speech by rule using the LPC CD in the objective measure and then compares the result with the subjective analysis. By evaluating the quality of synthesized speech by rule objectively. We have tried to resolve the problems (Evaluation time or size expansion, variables within the analysis results) that arise when the evaluation is done subjectively. Also by comparing intelligibility-the index for the subjective quality evaluation of synthesized speech by rule-with evaluation results obtained using MOS and the objective evaluation. We have proved the validity of the objective analysis and thus provides a guide that would be useful when R&D and marketing of synthesis by rule method is done.

  • PDF

규칙 합성음의 이해성 평가를 위한 단어표 구성 및 실험법 (A Word List Construction and Measurement Method for Intelligibility Assessment of Synthesized Speech by Rule)

  • 김성한;홍진우;김순협
    • 전자공학회논문지B
    • /
    • 제29B권1호
    • /
    • pp.43-49
    • /
    • 1992
  • As a result of recent progress in speech synthesis techniques, the those new services using new techniques are going to introduce into the telephone communication system. In setting standards, voice quality is obviously an important criterion. It is very important to develope a quality evaluation method of synthesized speech for the diagnostic assessment of system algorithm, and fair comparison of assessment values. This paper has described several basic concepts and criterions for quality assessment (intelligibility) of synthesized speech by rule, and then a word selection method and the word list to be used in word intelligibility test were proposed. Finally, a test method for word intelligibility is described.

  • PDF

연속음성신호에서 피치와 TSIUVC 추출에 관한 연구 (A Study on Extraction of Pitch and TSIUVC in Continuous Speech)

  • 이시우
    • 인터넷정보학회논문지
    • /
    • 제6권4호
    • /
    • pp.85-92
    • /
    • 2005
  • 본 연구에서는 연속음성에서 개별 피치펄스와 TSIUVC를 추출하는 새로운 방법을 제안하고자 한다. TSIUVC 탐색과 추출은 FIR-STREAK 필터를 사용한 개별 피치펄스와 영교차율을 사용한다. 실험결과, 개별 피치펄스의 추출률은 남자음성에서 $96{\%}$, 여자음성에서 $85{\%}$를 얻을 수 있었다. 아울러, TSIUVC 추출률은 남자 음성의 경우 $88{\%}$에서 $94.9{\%}$, 여자 음성의 경우는 $84.8{\%}$에서 $94.9{\%}$의 결과를 얻었다. 제안한 방법은 음성분석, 음성합성, 새로운 Voiced/Silence/TSIUVC의 음성부호화 방식에 활용할 수 있을 것으로 기대된다.

  • PDF

음성인식과 지문식별에 기초한 가상 상호작용 (Virtual Interaction based on Speech Recognition and Fingerprint Verification)

  • 김성일;오세진;김동헌;이상용;황승국
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 춘계학술대회 학술발표 논문집 제16권 제1호
    • /
    • pp.192-195
    • /
    • 2006
  • In this paper, we discuss the user-customized interaction for intelligent home environments. The interactive system is based upon the integrated techniques using speech recognition and fingerprint verification. For essential modules, the speech recognition and synthesis were basically used for a virtual interaction between the user and the proposed system. In experiments, particularly, the real-time speech recognizer based on the HM-Net(Hidden Markov Network) was incorporated into the integrated system. Besides, the fingerprint verification was adopted to customize home environments for a specific user. In evaluation, the results showed that the proposed system was easy to use for intelligent home environments, even though the performance of the speech recognizer was not better than the simulation results owing to the noisy environments

  • PDF

남성 음성 triphone DB 구축에 관한 연구 (Dialogic Male Voice Triphone DB Construction)

  • 김유진;백상훈;한민수;정재호
    • 한국음향학회지
    • /
    • 제15권2호
    • /
    • pp.61-71
    • /
    • 1996
  • 본 논문에서는 음성합성을 위한 대화체(회화체) 음성의 triphone 단위 데이터베이스 구축에 대하여 보고한다. 특히 본 연구는 방송 매체를 이용하여 대화체 음성을 수집하고 3차에 걸친 대화체 표기(transcription)작업을 거쳐 triphone 단위의 분할 및 음성기호층 단계의 레이블링을 목표로 진행되었다. 수집된 총 10시간 방송분량중 6시간 분량을 데이터베이스 구축에 사용하였으며, 나머지 4시간은 예비 분으로 수집되었다. 낭독체 음성 데이터베이스 구축과는 여러 면에서 다른, 대화체 음성 데이터베이스 구축을 위한 음성 데이터 수집에서부터 triphone 단위 레이블링까지의 과정을 본 논문에서 기술하고, 보다 체계적이고 일관성있는 대화체 음성 데이터베이스 구축을 위해 필요한 계획 및 요구 사항에 대해서 논하고자 한다.

  • PDF

VoiceXML을 이용한 음성 DB 수집 시스템 구현 (An Implementation of Speech DB Gathering System Using VoiceXML)

  • 김동현;노용완;홍광석
    • 인터넷정보학회논문지
    • /
    • 제6권1호
    • /
    • pp.39-50
    • /
    • 2005
  • 음성 DB는 음성학, 음성인식, 음성합성 등을 연구할 때 가장 기본적으로 필요한 요소이다. 음성 DB의 양과 질이 개발하고자하는 시스템의 성능을 좌우한다고 할 정도로 음성 DB의 중요성 및 역할은 막중하다. 최근 음성포탈을 비롯한 다양한 전화 서비스 기술의 발달로 인하여 전화 음성 DB 수집의 필요성이 시급한 상황이다. 기존 CTI 분야의 IVR 애플리케이션 전화음성 DB 수집 시스템은 C/C++언어나 전용 개발 도구를 사용하여 이루어져 왔으며, 이로 인하여 각 응용서비스간 자원의 재활용이 어려운 실정이며 많은 인력과 시간을 필요하다는 문제점을 가지고 있다. 그러나, VoiceXML의 전화 음성 DB 수집시스템은 XML에 내포된 태그형식을 갖는 언어로써 쉽고, 간단한 문법체계를 가지고 있어 조금만 노력을 기울이면 손쉽게 작성할 수 있어 인력과 시간을 절약할 수 있는 장점을 가지고 있다. 또한 단지 웹서버에 연결된 DB의 내용만을 변경함으로써 다양한 전화 음성 DB를 수집할 수 있는 장점을 가지고 있다. 본 논문에서는 음성인식이나 음성합성 등 음성정보처리기술의 개발에 가장 중요한 요소인 음성 DB를 Voiceful을 사용하여 전화 음성 DB를 수집하는 시스템을 소개한다.

  • PDF

MRI에 의한 모음의 성도 단면적 측정 및 면적 변이에 따른 합성 연구 (Measurement of the vocal tract area of vowels By MRI and their synthesis by area variation)

  • 양병곤
    • 음성과학
    • /
    • 제4권1호
    • /
    • pp.19-34
    • /
    • 1998
  • The author collected and compared midsagittal, coronal, coronal oblique, and transversal images of Korean monophthongs /a, i, e, o, u, i, v/ produced by a healthy male speaker using 1.5 T MR, VISION. Area was measured by computer software after tracing the cross-section at different points along the tract. Results showed that the width of the oral and pharyngeal cavities varied compensatorily from each other on the midsagittal dimension. Formant frequency values estimated from the area functions of the seven vowels showed a strong correlation (r=0.978) with those analyzed from the spoken vowels. Moreover, almost all of 35 students who listened to the synthesized vowels from area data perceived the synthesized vowels as equivalent to the spoken ones. Movement of constriction points of vowel /u/ with wider lip opening sounded /i/ and led to slight changes in vowel quality. Jaw and tongue movement led to major volume variation with an anatomical limitation. Each comer vowel varied systematically from a somewhat constant volume of the average area. Thus, the author proposed that any simulation studies related to vocal tract area variation should reflect its constant volume. The results may be helpful to verify exact measurement of the vocal tract area through vowel synthesis and a simulation study before having any operation of the vocal tract.

  • PDF

정현파 크기로 가중치 된 위상 오류 함수를 사용한 음성의 중첩합산 정현파 합성 방법 (Overlap and Add Sinusoidal Synthesis Method of Speech Signal using Amplitude-weighted Phase Error Function)

  • 박종배;김규진;정규혁;김종학;이인성
    • 한국통신학회논문지
    • /
    • 제32권12C호
    • /
    • pp.1149-1155
    • /
    • 2007
  • 본 논문에서는 음성신호의 정현파 합성방법 중 하나인 선형위상을 사용한 중첩합산방법에 대하여 합성응성의 연속성을 개선시킨 새로운 방법을 제안한다. 기존의 중첩합산 정현파 합성방법은 프레임의 중간 지점에 대한 위상 값을 예측하기 위해 합성 파형의 경계면에 대한 위상 차이를 최소화하는 방법을 사용하였으나, 제안된 방법은 중간지점의 위상만이 아닌 최종 합성된 신호들 간의 차이를 최소화하는 방법을 사용한다. 이러한 합성신호의 오차 함수를 최소화하는 과정은 정현파 크기 값을 가중치로 사용한 위상오차 함수로 근사화 될 수 있다. 제안된 합성 방법의 연속성에 대한 성능을 검증하기 위해 합성신호의 전 구간에 대한 합성 신호들 간의 평균 오차 값 및 청취자 테스트를 하였다. 기존의 위상 오차함수와 비교하여 개선된 연속성 성능을 얻을 수 있었다.

Voice Frequency Synthesis using VAW-GAN based Amplitude Scaling for Emotion Transformation

  • Kwon, Hye-Jeong;Kim, Min-Jeong;Baek, Ji-Won;Chung, Kyungyong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권2호
    • /
    • pp.713-725
    • /
    • 2022
  • Mostly, artificial intelligence does not show any definite change in emotions. For this reason, it is hard to demonstrate empathy in communication with humans. If frequency modification is applied to neutral emotions, or if a different emotional frequency is added to them, it is possible to develop artificial intelligence with emotions. This study proposes the emotion conversion using the Generative Adversarial Network (GAN) based voice frequency synthesis. The proposed method extracts a frequency from speech data of twenty-four actors and actresses. In other words, it extracts voice features of their different emotions, preserves linguistic features, and converts emotions only. After that, it generates a frequency in variational auto-encoding Wasserstein generative adversarial network (VAW-GAN) in order to make prosody and preserve linguistic information. That makes it possible to learn speech features in parallel. Finally, it corrects a frequency by employing Amplitude Scaling. With the use of the spectral conversion of logarithmic scale, it is converted into a frequency in consideration of human hearing features. Accordingly, the proposed technique provides the emotion conversion of speeches in order to express emotions in line with artificially generated voices or speeches.