• Title/Summary/Keyword: 음성 합성

Search Result 697, Processing Time 0.028 seconds

Analysis of Voice Color Similarity for the development of HMM Based Emotional Text to Speech Synthesis (HMM 기반 감정 음성 합성기 개발을 위한 감정 음성 데이터의 음색 유사도 분석)

  • Min, So-Yeon;Na, Deok-Su
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.15 no.9
    • /
    • pp.5763-5768
    • /
    • 2014
  • Maintaining a voice color is important when compounding both the normal voice because an emotion is not expressed with various emotional voices in a single synthesizer. When a synthesizer is developed using the recording data of too many expressed emotions, a voice color cannot be maintained and each synthetic speech is can be heard like the voice of different speakers. In this paper, the speech data was recorded and the change in the voice color was analyzed to develop an emotional HMM-based speech synthesizer. To realize a speech synthesizer, a voice was recorded, and a database was built. On the other hand, a recording process is very important, particularly when realizing an emotional speech synthesizer. Monitoring is needed because it is quite difficult to define emotion and maintain a particular level. In the realized synthesizer, a normal voice and three emotional voice (Happiness, Sadness, Anger) were used, and each emotional voice consists of two levels, High/Low. To analyze the voice color of the normal voice and emotional voice, the average spectrum, which was the measured accumulated spectrum of vowels, was used and the F1(first formant) calculated by the average spectrum was compared. The voice similarity of Low-level emotional data was higher than High-level emotional data, and the proposed method can be monitored by the change in voice similarity.

Speech Input/Output Processing Technology for Human-Computer Interface (HCI를 위한 음성 입출력 처리 기술 개발)

  • 이영직
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.08a
    • /
    • pp.367-370
    • /
    • 1998
  • 정보통신부 출연의 "HCI를 위한 음성 입출력 처리 기술 개발" 과제에 대하여 기술한다. 이 과제의 주 목적은 PC 윈도우 환경에서 사람과 기계 간의 음성 입출력 기술을 개발하는 것이다. 이를 위해 음성 인식 분야에서는 화자 적응, 잡음 적응, 및 인식 대상 어휘 적응 기술을 개발하며, 합성 분야에서는 시스템 메시지 합성 기술을 개발한다. 또, 음성이 기존의 입출력 수단인 키보드나 마우스를 모두 대치할 수 없으므로, 본 과제에서는 음성이 추가됨으로써 입출력이 편리해지는 다중 모드 입출력 기술의 갭라에 초점을 맞추어 기술을 개발하고 있다. 인식 분야의 주요 연구내용은 음성검출 및 비음성 제거, 인식 속도 향상, 인식 성능 향상이며, 합성 분야 주요 연구 항목은 학습형 합성기 알고리즘 및 이의 문제점 해결이다. 본 논문은 이러한 점을 정리하여 발표한다.정리하여 발표한다.

  • PDF

Spontaneous Speech and Prosody DB (대화체 음성 및 운율 DB)

  • 이호영
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1995.06a
    • /
    • pp.298-301
    • /
    • 1995
  • 자연스런 대화체 발화를 합성해 낼 수 있는 음성합성기를 개발하고, 무한대 어휘의 대화체 발화를 인식할 수 있는 음성인식기를 개발하기 위해서는 정교하게 제작된 방대한 양의 대화체 음성 및 운율 DB를 필수적으로 갖춰야한다. 이 논문에서는 대화체 음성 자료의 수집 방법과 대화체 음성 및 운율 DB 제작 방법에 관해 자세하게 논의한다.

  • PDF

Speech syntheis engine for TTS (TTS 적용을 위한 음성합성엔진)

  • 이희만;김지영
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.23 no.6
    • /
    • pp.1443-1453
    • /
    • 1998
  • This paper presents the speech synthesis engine that converts the character strings kept in a computer memory into the synthesized speech sounds with enhancing the intelligibility and the naturalness by adapting the waveform processing method. The speech engine using demisyllable speech segments receives command streams for pitch modification, duration and energy control. The command based engine isolates the high level processing of text normalization, letter-to-sound and the lexical analysis and the low level processing of signal filtering and pitch processing. The TTS(Text-to-Speech) system implemented by using the speech synthesis engine has three independent object modules of the Text-Normalizer, the Commander and the said Speech Synthesis Engine those of which are easily replaced by other compatible modules. The architecture separating the high level and the low level processing has the advantage of the expandibility and the portability because of the mix-and-match nature.

  • PDF

The phoneme segmentatioi with MLP-based postprocessor on speech synthesis corpora (합성용 운율 DB 구축에서의 MLP 기반 후처리가 포함된 음소분할)

  • 박은영
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.08a
    • /
    • pp.344-349
    • /
    • 1998
  • 음성/언어학적 및 음성의 과학적 연구를 위해서는 대량의 음소 단위 분절 레이블링된 데이터베이스 구축이 필수적이다. 따라서, 본 논문은 음성 합성용 DB 의 구축 및 합성 단위 자동 생성 연구의 일환으로 자동 음소 분할기의 경계오류를 보상할 목적으로 MLP 기반 호처리기가 포함된 음소 분할 방식을 제안한다. 최근 자동 음소 분할기의 성능 향상으로 자동 분절 결과를 이용하여 음성 합성용 운율 DB를 작성하고 있으나, 여전히 경계오류를 수정하지 않고서는 합성 단위로 직접 사용하기 어렵다. 이로 인해 보다 개선된 자동 분절 기술이 요구된다. 따라서, 본 논문에서는 음성에 내제된 음향적 특징을 다층 신경회로망으로 학습하고, 자동 분절기 오류의 통계 특성을 이용하여 자동 분절 경계 수정에 용이한 방식을 제안한다. 고립단어로 발성된 합성 데이터베이스에서, 제안된 후처리기를 도입 후, 기존 자동 분절 시스템이 분할율에 비해 약 25% 의 향상된 성능을 보였으며, 절대 오류는 약 39%가 향상되었다.

  • PDF

Customized Speech Synthesis for Children with Characteristic Behavioral Patterns (어린이 행동 패턴에 기반한 개별화된 음성 합성)

  • Lee, Ho-Joon;Park, Jong-C.
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.571-578
    • /
    • 2006
  • 음성을 통한 사용자 간의 정보 교환 방법은 추가적인 훈련 과정이나 장비가 필요하지 않고 공간 제약이 거의 없기 때문에 노약자 등 사용자의 연령대에 관계없이 사용될 수 있다. 또한 음성 정보는 시각이나 촉각 등 다른 정보 수단과의 상호 작용으로 상승 효과를 유발할 수 있기 때문에 사람과 기계 사이의 인터페이스로 활용될 경우 정보 전달력을 높이면서 사용자 친화적인 서비스를 제공할 수 있다. 그러나 동일한 상황에서 동일한 유형의 음성 정보가 사용자에게 지속적으로 제공될 경우 표현상의 단조로움으로 인해 정보 전달력이 급감할 수 있는 문제점도 지니고 있다. 따라서 음성을 통한 정보 전달의 경우 동일 상황이라 하더라도 사용자의 행동 패턴, 심리 상태, 주변 환경 등에 따라 차별화된 문장 구조 및 어휘의 선택으로 긴장감을 유지시켜 줄 수 있어야 한다. 본 논문에서는 5 세 전후의 어린이를 대상으로 그들의 행동 패턴 분석에 기반하여 개별화된 음성 합성 결과를 제공하는 시스템을 제안한다. 이를 위해 유치원이라는 물리적 공간에서 어린이들의 주된 행동 패턴을 분석하고, 현직 유치원 교사를 대상으로 동일한 정보를 전달하는 조건을 통하여 어린이의 행동 패턴과 위치 정보, 연령 및 성격에 따른 발화 문장의 문장 구조와 어휘적 특성을 파악한다. 최종적으로, 개별화된 음성 합성 결과를 위해 유치원 공간을 시뮬레이션 하고 RFID 를 이용하여 어린이의 행동 패턴 및 위치 정보를 파악한다. 그리고 각 상황에 따라 분석된 발화문의 문장 구조와 어휘 특성을 반영하여 음성으로 합성될 문장의 문장 구조 및 어휘를 재구성하여 사용자 개별화된 음성 합성 결과를 생성한다. 이러한 결과를 통해 어린이의 행동 패턴이 발화문의 문장 구조 및 어휘에 미치는 영향에 대해서 살펴보고 재구성된 결과 발화문을 평가한다.

  • PDF

An Extraction of the Prosody and Duration Information for Speech Synthesis in Korean (한국어 음성 합성을 위한 운율 및 길이 정보의 추출)

  • 양진석;박광철;양세라;김재범;이정현
    • Proceedings of the Korea Database Society Conference
    • /
    • 1995.12a
    • /
    • pp.187-190
    • /
    • 1995
  • 자연스러운 음성 합성을 위해서는 운율 및 장단음 처리가 선행되어야 한다. 본 논문에서는 음성학적 실험과 억양 규칙을 이용하여 한국어 문장으로부터 운율 제어 정보와 모음 길이 정보를 추출한 뒤 음성 합성에 적용함으로써 합성음의 자연성을 향상시키는 방법을 제안한다. 이러한 정보는 문장 분석 후 일련의 운율 규칙을 적용하여 반복된 실험을 통해 수치화함으로써 얻을 수 있었다. 실험결과, 운율 및 장단처리를 적용한 본 시스템에서는 자연성이 향상된 결과를 얻을 수 있었다.

  • PDF

음성에 의한 Man-Machine Communication 기술의 현황

  • 은종관
    • The Magazine of the IEIE
    • /
    • v.15 no.2
    • /
    • pp.75-87
    • /
    • 1988
  • 본 논문에서는 음성에 의한 man-machine communication의 핵심기술인 음성인식 및 합성의 전반적인 기술에 관하여 그 현황을 알아본다. 먼저 음성인식에서 해결되어야 할 문제점들을 고찰하고 격리단어 인식, 연결단어 인식, 그리고 연속언어 인식의 기술현황을 기술한다. 격리단어 인식에서는 pattern matching 방법에서 사용되는 입력어휘의 특징 추출, reference와의 유사도 측정, 유사도 측정 결과에 의한 인식결정에 관해서 논한다. 연결단어 및 연속언어 인식에서는 현재 연구가 되고 있는 "bottom-up approach"와 "top-down approach"에 관해서 설명하고 이들 방법의 어려운 점들을 고찰한다. 다음 음성 합성에서는 기존의 여러 가지 합성 방식을 검토하고 이들의 장단점을 기술한다. 마지막으로 한 예로서 한국어 text-to-speech 변환 시스템에 관하여 기술한다.

  • PDF

운율 분석용 DB 작성을 위한 자동 레이블러(Automatic labeler)의 성능 평가 및 유용성

  • 강상훈;이항섭;김회린
    • Proceedings of the KSPS conference
    • /
    • 1996.10a
    • /
    • pp.468-471
    • /
    • 1996
  • 이 논문에서는 대량의 음성합성용 운율 DB를 용이하게 구축하기 위해 음성번역시스템을 이용한 자동 레이블러의 성능을 다양한 음성데이타를 대상으로 평가하였다. 실험 결과 FM radio news문장, 대화체 문장 및 낭독체 문장 등에는 레이블링 대상 음소의 약 80% 이상이 오류가 30msec 이내인 범위로 레이블링 되며, 고립단어에 대해서는 약 60%의 성능을 보여주고 있다. 현재 당 연구실에서는 자동 레이블러를 이용하여 합성용 운율 DB 및 합성단위를 작성하고 있으며. 자동 레이블러를 이용함으로서 일관성 있는 레이블링 결과를 얻을 수 있을 환 아니라 작성하는데 소요되는 시간도 줄일 수 있었다

  • PDF

An Analysis on the Emotional Speech for the Speech Synthesis System with Emotion (감정표현 음성합성 시스템을 위한 감정 분석)

  • 천희진
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.08a
    • /
    • pp.350-355
    • /
    • 1998
  • 감정을 표현하는 음성 합성 시스템을 구현하기 위해서는 감정음성에 대한 분석이 필요하다. 본 논문에선,s 평상, 화남, 기쁨, 슬픔의 네 가지 감정에 대한 음성 데이터에 대해 음절 세그먼트, 라벨링을 행한 감정 음성 데이터베이스를 구축하였고, 감정표현이 음성에 영향을 미치는 요인에대하여, 운율, 음운적인 요소로 나누어 분석하였다. 또한 기본 주파수, 에너지, 음절지속시간에 대한 분석과 감정 음성의기본 주파수, 에너지, 음절지속시간, 스펙트럼 포락의 인지 정도를 측정하기 위하여 평상 음성에 감정 음성의 운율 요소를 적용하는 음성을 합성하여 ABX 방법으로 평가하였다. 그 결과, 기본 주파수의변화가 73.3%, 음절지속시간은 43.3% 로 올바른 감정으로 인지되었으며, 특히 슬픈 감정에서 음절지속시간은 76.6%가 올바르게 감정을 나타내는 것으로 인지되었다.

  • PDF