• 제목/요약/키워드: 문자-음성 변환

검색결과 52건 처리시간 0.025초

음소단위를 이용한 소규모 문자-음성 변환 시스템의 설계 및 구현 (Design and Implementation of Simple Text-to-Speech System using Phoneme Units)

  • 박애희;양진우;김순협
    • 한국음향학회지
    • /
    • 제14권3호
    • /
    • pp.49-60
    • /
    • 1995
  • 본 논문은 소규모 시스템에 적용 가능한 한국어 문자-음성 변환 시스템의 설계 및 구현에 대한 연구를 목적으로 한다. 본 논문에서 채택한 음성합성 방법은 파라메터 합성법으로서 LPC(linear Predictive Coding)계열의 PARCOR(PARtial autoCORrelation) 계수를 음향 파라메터로 사용하였으며, 음성합성 단위로는 가장 기본적인 단위인 음소를 채택하였다. 합성 파라메터로는 유성음의 경우 PARCOR계수, 피치, 진폭을 무성음의 경우 잔차신호와 PARCOR계수를 사용하였다. 특히 무성음의 경우 LPC합성시 음질이 떨어진다는 단점이 있었으나, 본 논문에서는 LPC분석시 얻어지는 잔차신호를 무성음의 여기신호로 사용하여 단어 단위의 합성에서 60%의 이해도를 얻을 수 있었다. 합성결과 단어 단위의 합성에 적용 가능하였고, 문장단위의 합성을 위해서는 음소 지속시간 조절에 대한 연구가 진행되어야 할것이다. 본 논문의 구현환경으로는 486 PC상에서 음성의 입,출력을 위해 70[Hz]-4.5[KHz] 대역통과 필터와 증폭기, 그리고 TMS320C30 디지털 신호처리 프로세서를 장착한 DSP 보드를 사용하였다.

  • PDF

분산형 시스템을 적용한 음성합성에 관한 연구 (A Study on Speech Synthesizer Using Distributed System)

  • 김진우;민소연;나덕수;배명진
    • 한국음향학회지
    • /
    • 제29권3호
    • /
    • pp.209-215
    • /
    • 2010
  • 최근 광대역 무선 통신망의 보급과 소형 저장매체의 대용량화로 인하여 이동형 단말기가 주목 받고 있다. 이로 인해 이동형 단말기에 문자정보를 청취할 수 있도록 문자를 음성으로 변환해 주는 TTS(Text-to-Speech) 기능이 추가되고 있다. 사용자의 요구사항은 고음질의 음성합성이지만 고음질의 음성합성은 많은 계산량이 필요하기 때문에 낮은 성능의 이동형 단말기에 는 적합하지 않다. 본 논문에서 제안하는 분산형 음성합성기 (DTTS)는 고음질 음성합성이 가능한 코퍼스 기반 음성합성 시스템을 서버와 단말기로 나누어 구성한다. 서버 음성합성 시스템은 단말기에서 전송된 텍스트를 데이터베이스 검색 후 음성파형 연결정보를 생성하여 단말기로 전송하고, 단말기 음성합성 시스템은 서버 음성합성 시스템에서 생성된 음성파형 연결정보와 단말기에 존재하는 데이터베이스를 이용하여 간단한 연산으로 고음질 합성음을 생성할 수 있는 시스템이다. 제안하는 분산형 합성기는 단말기에서의 계산량을 줄여 저가의 CPU 사용, 전력소모의 감소, 효율적인 유지보수를 할 수 있도록 하는 장점이 있다.

MBC의 미디어AI 서비스

  • 성시훈
    • 방송과미디어
    • /
    • 제28권2호
    • /
    • pp.53-59
    • /
    • 2023
  • (주)문화방송(MBC)은 콘텐츠 제작 및 유통 워크플로우에 인공지능(Artificial Intelligence, AI) 기술을 적용한 미디어AI 서비스를 운영하고 있다. 영상아카이브에 보관되어 있는 수십만 개의 아날로그와 SD급 콘텐츠를 대상으로 HD급 수준의 영상화질로 품질을 향상시키기 위해서 AI영상화질개선시스템을 2020년에 개발 구축해서 여러 목적에 활용하고 있으며, HD급 콘텐츠를 대상으로 4K 초고화질급으로 변환하는 기술로 고도화해서 실서비스 적용을 눈앞에 두고 있다. 그리고 2년의 STT(Speech-To-Text, 음성문자변환) 베타서비스를 통해 얻어진 사용성 검증과 운영 경험을 바탕으로 STT HUB 서비스를 개발 구축해서 2022년부터 보도와 시사교양 프로그램의 제작 워크플로우에 적용하고 있다. 이들 서비스의 주요 기능들과 기술적 요소들의 구현, 미디어AI 서비스 운영의 경험을 나누고자 한다.

  • PDF

빅데이터 분석을 활용한 음성 인식 스피치 교정 애플리케이션 (Voice Recognition Speech Correction Application Using Big Data Analysis)

  • 김한결;김도우;임세명;홍두표
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.533-535
    • /
    • 2019
  • 최근 청년 실업률의 증가에 따른 취업 경쟁이 날이 갈수록 심해지고 있다. 채용과정에서 면접의 비중을 높이는 기업도 갈수록 증가하고 있다. 또한 대기업에서는 면접의 객관성을 확보하기 위해 AI 면접을 도입했다. 이러한 면접의 도입으로 인해 취업 준비생들의 면접 준비에 드는 비용 부담이 증가하였다. 최근 AI분야에서 음성 인식과 자연어 처리에 대한 개발이 활발히 이루어지고 있다. 본 논문은 녹음된 면접 음성을 음성 인식 기술 중 STT(Speech To Text) 와 TTS(Text To Speech)를 활용하여 면접의 음성을 문자로, 면접 질문의 문장을 음성으로 변환한다. 또한 자연어 처리 및 감성어 사전(KNU)을 활용하여 면접 문장의 형태소 분석하고 긍정 및 부정 단어별 정보를 시각화 하여 나타낼 수 있게 구현하였다.

자연음 TTS(Text-To-Speech) 엔진 구현 (Implementation of TTS Engine for Natural Voice)

  • 조정호;김태은;임재환
    • 디지털콘텐츠학회 논문지
    • /
    • 제4권2호
    • /
    • pp.233-242
    • /
    • 2003
  • TTS(Text-To-Speech) 시스템은 텍스트 문장을 자연스러운 음성으로 출력하는 시스템이다. 자연스러운 음성을 출력하기 위해서 언어에 대한 전문적 지식을 비롯하여 많은 시간과 노력이 요구된다. 또한 영어의 음운 변환은 음소에 따라 형태소에 따라 의미에 따라 다양한 변환을 가진다. 이를 일괄적으로 처리하기란 매우 힘든 일이다. 이러한 문제들을 해결하기 위하여 모음과 자음의 변화의 규칙을 적용한 시스템을 구현한다. 이 시스템은 문장의 분석을 통해 분류하고 음소 규칙 데이터를 통해 자연스러운 음성을 출력하게 되는 이전 과정을 통해 특수문자나 숫자 등을 정규화하여 처리한다. 이렇게 처리된 문자 데이터를 운율규칙을 통해 최종 출력한다. 그 결과, 40개의 음소 규칙 데이터를 통해 보다. 정확한 음성을 출력할 수 있었으며, 시스템의 효율성도 높였다. 본 논문에서 제시한 시스템은 각종 통신장비와 자동화기기에 적용하여 다양한 분야에 활용될 수 있을 것이다.

  • PDF

복합주파수 전화기의 번호판 매핑에 의한 문자 변환 시스템 구현 (A Character-Converting System Implementation by Keypad Mapping of DTMF Telephone Set)

  • 김용환;장우현;신유식;서광석;김종교;정항근
    • 한국음향학회지
    • /
    • 제17권1호
    • /
    • pp.60-65
    • /
    • 1998
  • 전화기의 선택 및 제어 신호는 직류 임펄스의 수에 의한 방법을 사용하였으나 현재 는 복합 주파수 방식을 널리 사용하고 있으며, 음성을 이용한 서비스들도 복합 주파수 방식 에 의해 제공되고 있다. 본 논문에서는 전화기의 복합 주파수 신호를 한글 자소로 변환하는 번호판 매핑 방법을 제시하였으며, 이 방식을 이용하여 상용되는 음성 정보 서비스의 검색 코드 입력 방식을 재구성해 보았다. 즉, 여러 가지 서비스에서도 한글 문장을 사용할 수 있 음을 보였다. 또한, 전화 통화시 사용되는 문장을 번호판 매핑 방식을 적용하여 구성함으로 써 전화기에서의 문장 편집 및 문장 정보 교환의 가능성을 보였다.

  • PDF

포만트 합성방식을 이용한 문자-음성 변환에 관한 연구 (A Study on the Text-to-Speech Conversion Using the Formant Synthesis Method)

  • 최진산;김민년;서정욱;배건성
    • 음성과학
    • /
    • 제2권
    • /
    • pp.9-23
    • /
    • 1997
  • Through iterative analysis and synthesis experiments on Korean monosyllables, the Korean text-to-speech system was implemented using the phoneme-based formant synthesis method. Since the formants of initial and final consonants in this system showed many variations depending on the medial vowels, the database for each phoneme was made up of formants depending on the medial vowels as well as duration information of transition region. These techniques were needed to improve the intelligibility of synthetic speech. This paper investigates also methods of concatenating the synthesis units to improve the quality of synthetic speech.

  • PDF

독거노인을 위한 맞춤형 의사소통 시스템의 개발 (The Development of Customized Communication System for the Senior Living Alone)

  • 김가영;이현동;김동현;조대수
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2018년도 제58차 하계학술대회논문집 26권2호
    • /
    • pp.183-184
    • /
    • 2018
  • 우리나라의 노인자살률은 OECD 국가 중에 1위이다. 인위적 고독사인 '자살'의 가장 큰 원인인 우울증을 의사소통을 통해 예방하고자 한다. 본 논문에서는 상황에 따라 독거노인에게 스피커가 먼저 질문하는 형식인 시스템을 제안한다. 음성인식 시스템인 스피커를 활용하여 독거노인의 의사소통을 증대시키고, 질문뿐만이 아니라 식사 여부, 약 복용 여부 관련 일상 알람도 주기 때문에 규칙적인 생활을 하는 데 도움을 준다.

  • PDF

스마트폰 음성인식을 통한 RC카 제어기 설계 (A Design of RC Car Controller by Voice Recognition of Smartphone)

  • 이주원;김보건;김진민;박설진;김진일
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2017년도 춘계학술대회
    • /
    • pp.770-771
    • /
    • 2017
  • 스마트폰 어플로 구글의 STT API를 이용하여 음성인식을 적용한다. 이는 문자열로 변환하고 블루투스 통신을 통하여 아두이노 RC카로 정보를 전달하여 동작하도록 제어한다. 아두이노 RC카에 부착한 라인센서와 초음파센서를 통해 차선변경의 유/무와 앞/뒤 차량 간의 거리를 측정하여 비상등을 자동으로 점등할 수 있도록 한다. 본 연구의 결과로써 운전자간의 예의범절을 갖춘 운행과 초보운전자들의 미숙한 상황대처를 보완할 수 있을 것으로 기대된다.

  • PDF

메타버스 환경에서 음성 혐오 발언 탐지를 위한 딥러닝 모델 설계 (Deep Learning Model for Metaverse Environment to Detect Metaphor)

  • 송진수;딜노자;손승우;신용태
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.621-623
    • /
    • 2022
  • 최근 코로나19로 인해 비대면으로 소통할 수 있는 플랫폼에 대한 관심이 증가하고 있으며, 가상 세계의 개념을 도입한 메타버스 플랫폼이 MZ세대의 새로운 SNS로 떠오르고 있다. 아바타를 통해 상호 교류가 가능한 메타버스는 텍스트 기반의 소통뿐만 아니라 음성과 동작 시선 등을 활용하여 변화된 의사소통 방식을 사용한다. 음성을 활용한 소통이 증가함에 따라 다른 이용자에게 불쾌감을 주는 혐오 발언에 대한 신고가 증가하고 있다. 그러나 기존 혐오 발언 탐지 시스템은 텍스트를 기반으로 하여 사전에 정의된 혐오 키워드만 특수문자로 대체하는 방식을 사용하기 때문에 음성 혐오 발언에 대해서는 탐지하지 못한다. 이에 본 논문에서는 인공지능을 활용한 음성 혐오 표현 탐지 시스템을 제안한다. 제안하는 시스템은 음성 데이터의 파형을 통해 은유적 혐오 표현과 혐오 발언에 대한 감정적 특징을 추출하고 음성 데이터를 텍스트 데이터로 변환하여 혐오 문장을 탐지한 결과와 결합한다. 향후, 제안하는 시스템의 현실적인 검증을 위해 시스템 구축을 통한 성능평가가 필요하다.