• Title/Summary/Keyword: 음성다중연구

검색결과 149건 처리시간 0.025초

지속시간 변경에 의한 다중음성 합성에 관한 연구 (A Study on the Multiple-Speech Synthesis using the Duration Control)

  • 김명;서지호;배명진
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 2004년도 춘계학술발표대회 논문집 제23권 1호
    • /
    • pp.97-100
    • /
    • 2004
  • 다중음성 합성시스템은 단일 화자의 음성을 입력받아 다양한 음색의 다중음성으로 합성을 해주는 음성합성 시스템이다. 기존의 다중음성 합성시스템의 출력인 다중 합성음은 피치만 변경된 음성으로 원 음성과 동일한 지속시간을 갖게 된다. 따라서 피치 변경된 음성간의 구분이 어렵게 되며 이러한 사항을 개선하고자 본 논문에서는 피치와 지속시간 변경에 의한 다중음성 합성시스템에서 관한 연구를 하였다. 본 논문에서는 시간 영역에서의 지속시간 변경법인 PSOLA방식을 적용하여 피치 변경된 음성의 지속시간을 변경하였다. 지속시간 변경을 적용한 다중음성 합성시스템을 이용하면 한 사람의 음원 목소리로 여러 사람이 응원하는 효과음을 낼 수 있는 합성기로 사용할 수 있고 영화의 효과음, 핸드폰의 음성 메시지 서비스 등에서 용이하게 사용될 것으로 예상하고 있다.

  • PDF

대화체 연속음성인식을 위한 확장 다중발음 사전에 관한 연구 (A Study on the Multiple Pronunciation Dictionary for Spontaneous Speech Recognition)

  • 강병옥
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2003년도 10월 학술대회지
    • /
    • pp.65-68
    • /
    • 2003
  • 본 논문에서는 대화체 연속음성인식 과정에서 사용되는 다중발음사전의 개념을 확장하여 대화체 발화에 빈번하게 나타나는 불규칙한 발음변이 현상을 포용하도록 한 확장된 발음사전의 방법을 적용하여 대화체 연속음성인식에서 인식성능의 향상을 가져오게 됨을 실험을 통해 보여준다. 대화체 음성에서 빈번하게 나타나는 음운축약 및 음운탈락, 전형적인 오발화, 양성음의 음성음화 등의 발음변이는 언어모델의 효율성을 떨어뜨리고 어휘 수를 증가시켜 음성인식의 성능을 저하시키고, 또한 음성인식 결과로 나타나는 출력형태가 정형화되지 못하는 단점을 가지고 있다. 이에 이러한 발음변이들을 발음사전에 수용할 때 각각의 대표어휘에 대한 변이발음으로 처리하고, 언어모델과 어휘사전은 대표어휘만을 이용해 구성하도록 한다. 그리고, 음성인식기의 탐색부에서는 각각의 변이발음의 발음열도 탐색하되 대표어휘로 언어모델을 참조하도록 하고, 인식결과를 출력하도록 하여 결과적으로 인식성능을 향상시키고, 정형화된 출력패턴을 얻도록 한다. 본 연구에서는 어절단위 뿐 아니라 의사형태소[2] 단위의 발음사전에도 발음변이를 포용하도록 하여 실험을 하였다. 실험을 통해 어절단위의 다중발음사전 구성을 통해 ERR 10.9%, 의사형태소 단위의 다중발음 사전의 구성을 통해 ERR 4.3%의 성능향상을 보였다.

  • PDF

ETRI의 대화체 음성언어번역 연구방향 (Research Trends on Spontaneous Speech Translation at ETRI)

  • 양재우
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1994년도 제11회 음성통신 및 신호처리 워크샵 논문집 (SCAS 11권 1호)
    • /
    • pp.275-276
    • /
    • 1994
  • 본 발표에서는 한국전자통신연구소의 대화체 음성언어번역 연구방향을 기술한다. 한국전자통신연구소에서는 1979년 공중전화 관련 연구를 필두로, 음성분야의 연구를 시작하여 그간 음성인식, 자동통역 등을 연구하였다. 특히 1991년부터 KT와 공동연구체계를 수립하여 특정분야를 대상으로 음성언어번역 연구를 수행하는 중이다. 이러한 경험을 바탕으로 한국전자통신연구소에서는 국내외 공동연구를 통해 대화체 음성언어 번역 연구를 수행하고자 한다. 앞으로 다중매체통신이 더욱 보편화될 것일므로 다중매체 환경을 고려하여 연구를 수행할 계획이다. 아울러 연구의 부산물을 상용화 하는데에 노력을 경주할 계획이다.

  • PDF

다양한 발성에 따른 다중음성 합성 시스템 (Mutiple-Speech Synthesis System according to Various Utterance)

  • 박현영;김명;배명진
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2003년도 추계학술대회 논문집
    • /
    • pp.151-154
    • /
    • 2003
  • 음성 합성이란 기계적인 장치나 전지회로 또는 컴퓨터 모의를 이용하여 자동으로 음성파형을 생성해 내는 것으로 정의한다. 음성 합성에 대한 연구는 다른 음성에 관련된 기술들보다 가장 먼저 연구된 기술이다. 음성 합성기는 PC의 보급이 확대되고 통신 시장이 컴짐에 따라 그 응용 분야가 점차 확대되어 가고 다양한 방식의 음성 합성 기법에 관한 연구가 이루어지고 있다. 일반적으로 자연스러운 대화를 할 때나 글을 읽을 때의 음성에는 퍼지, 지속시간, 에너지 등의 운율 정보가 포함되어 있다. 따라서, 문장을 합성하는 경우 운율정보를 합성음에 반영하면 보다 명확한 의미 전달과 다양한 발성변환이 가능해 진다. 본 논문에서는 시간영역에서 PSOLA 합성방식에 의한 피치 변경과 지속시간 변경을 이용하여 다양한 발성변환에 따른 다중음성 합성기를 구현하였다.

  • PDF

분산 메모리 다중 프로세서 상에서의 병렬 음성인식 (Parallel Speech Recognition on Distributed Memory Multiprocessors)

  • 윤지현;홍성태;정상화;김형순
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (3)
    • /
    • pp.747-749
    • /
    • 1998
  • 본 논문에서는 음성과 자연언어의 통합처리를 위한 효과적인 병렬 계산 모델을 제안한다. 음소모델은 continuous HMM에 기반을 둔 문맥종속형 음소를 사용하며, 언어모델은 knowledge-based approach를 사용한다. 또한 계층구조의 지식베이스상에서 다수의 가설을 처리하기 위해 memory-based parsing기술을 사용하였다. 본 연구의 병렬 음성인식 알고리즘은 분산메모리 MIMD 구조의 다중 Transputer 시스템을 이용하여 구현되었다. 실험을 통하여 음성인식 과정에서 발생하는 speech-specific problem의 해를 제공하고 음성인식 시스템의 병렬화를 통하여 실시간 음성인식의 가능성을 보여준다.

  • PDF

다중 서버 구조를 갖는 Web 기반 음성 수집 시스템

  • 홍문기;강선미;장문수
    • 대한음성언어의학회:학술대회논문집
    • /
    • 대한음성언어의학회 2003년도 제19회 학술대회
    • /
    • pp.230-232
    • /
    • 2003
  • 음성에 관련된 연구분야에 있어서 음성 데이터 수집의 중요성은 매우 크다. 개발된 인식기나 분석기의 성능이 좋다 하더라도 실험에 사용된 음성 데이터의 질과 양에 따라서 실험 결과를 확정짓기가 어려운 점이 있다. 대개의 경우 음성 수집은 오프라인으로 이루어지는데, 실험에서 요구되는 특정 수집자에 대해서 일정 기간과 정해진 장소에서 반복 수집하는 것은 어려움이 많이 따른다. 그러므로 본 연구에서는 Web을 이용하여 음성 데이터 수집자로 하여금 다양한 시간과 장소에서 자유롭게 음성을 수집할 수 있도록 하였다. 이에 대하여 수집된 음성 데이터의 크기가 커짐에 따른 통신상에서 종종 발생하는 문제점을 개선하려는 목적으로 다중 서버를 두어 수집된 데이터는 지역 서버에 일단 저장되었다가 적절한 상황에서 메인 서버로 자동 전송하는 시스템을 구축하였다. 본 시스템은 서로 다른 실험에서 수집되는 데이터를 수집 지역서버를 지정해 줌으로서 수집자가 원하는 특정 지역 서버에서 별도로 관리할 수 있도록 구성되어 있다. 시간, 위치의 제약 없이 인터넷이 연결된 장소에서는 음성을 수집할 수 있고, 웹상 ActiveX 프로그램을 제공함으로써 일관된 끝점처리 및 잡음처리 기능을 반영할 수 있다. 또한 다양한 응용에 적절한 수집기의 인터페이스를 관리자 모드에서 변경하여 사용할 수 있도록 함으로서 넓은 층에서의 활용도를 높였다. (중략)

  • PDF

통계적 패킷 음성 / 데이터 다중화기의 성능 해석 (Performance Analysis of a Statistical Packet Voice/Data Multiplexer)

  • 신병철;은종관
    • 한국통신학회논문지
    • /
    • 제11권3호
    • /
    • pp.179-196
    • /
    • 1986
  • 본 논문에서는 통계적 패킷 음성/데이터 다중화기의 성능을 연구하였다. 성능해석은 음성과 데이터가 서로 분리된 한정된 queue를 사용하고, 전송에 있어서 음성이 데이터보다 우선권을 갖는 것을 가정하고, 다중화기의 출력 link를 시간 slot단위로 나누고 음성은 (M+1)-state의 Markov Process로, 데이터는 Poisson process로 modeling 하여 수행하였다. 전송시 음성신호가 데이터 신호보다 우선권을 가지므로 음성의 queueing behavior는 data에 거의 영향을 받지 않는다. 다라서 본 연구에서는 음성의 queueing behavior를 먼저 해석한 다음 data의 queueing behavior를 해석하였다. 패킷 음성 다중화기의 성능 해석은 입력상태와 buffer의 점유를 2차원의 Markov chain을 가지고 formulation하였고, 집적된 음성/data의 다중화기는 data를 추가한 3차원 Markov chain으로 하였다. 이러한 model을 사용하여 Gauss-Seidel방법으로 결과를 얻고 simulation으로 입증하였다. 이들 결과로 부터 음성 가입자의 수, 출력 link용량, 음성의 queue크기, 음성의 overflow확률에서는 서로 trade-off가 있고 data에서도 비슷한 tradeoff가 있음을 알았다. 또한 입력 traffic량과 link의 용량에 따라서 음성과 데이타간의 성능에서 서로 tradeoff가 있고, TASI의 이득이 2이상이고 음성가입자의 수가 적을 경우 데이타의 평균 지연시간은 buffer의 최대길이 보다 길음을 알아내었다.

  • PDF

통합 CNN, LSTM, 및 BERT 모델 기반의 음성 및 텍스트 다중 모달 감정 인식 연구 (Enhancing Multimodal Emotion Recognition in Speech and Text with Integrated CNN, LSTM, and BERT Models)

  • 에드워드 카야디;한스 나타니엘 하디 수실로;송미화
    • 문화기술의 융합
    • /
    • 제10권1호
    • /
    • pp.617-623
    • /
    • 2024
  • 언어와 감정 사이의 복잡한 관계의 특징을 보이며, 우리의 말을 통해 감정을 식별하는 것은 중요한 과제로 인식된다. 이 연구는 음성 및 텍스트 데이터를 모두 포함하는 다중 모드 분류 작업을 통해 음성 언어의 감정을 식별하기 위해 속성 엔지니어링을 사용하여 이러한 과제를 해결하는 것을 목표로 한다. CNN(Convolutional Neural Networks)과 LSTM(Long Short-Term Memory)이라는 두 가지 분류기를 BERT 기반 사전 훈련된 모델과 통합하여 평가하였다. 논문에서 평가는 다양한 실험 설정 전반에 걸쳐 다양한 성능 지표(정확도, F-점수, 정밀도 및 재현율)를 다룬다. 이번 연구 결과는 텍스트와 음성 데이터 모두에서 감정을 정확하게 식별하는 두 모델의 뛰어난 능력을 보인다.

CHMM을 이용한 발매기 명령어의 음성인식에 관한 연구 (A Study on the Speech Recognition for Commands of Ticketing Machine using CHMM)

  • 김범승;김순협
    • 한국철도학회논문집
    • /
    • 제12권2호
    • /
    • pp.285-290
    • /
    • 2009
  • 논문에서는 연속HMM(Continuos Hidden Markov Model)을 이용하여 실시간으로 발매기 명령어(314개 역명)를 인식 할 수 있도록 음성인식 시스템을 구현하였다. 특징 벡터로 39 MFCC를 사용하였으며, 인식률 향상을 위하여 895개의 tied-state 트라이폰 음소 모델을 구성하였다. 시스템 성능 평가 결과 다중 화자 종속 인식률은 99.24%, 다중화자 독립 인식률은 98.02%의 인식률을 나타내었으며, 실제 노이즈가 있는 환경에서 다중 화자 독립 실험의 경우 93.91%의 인식률을 나타내었다.