• 제목/요약/키워드: Text-To-Speech

검색결과 505건 처리시간 0.019초

Speech Generation Using Kinect Devices Using NLP

  • D. Suganthi
    • International Journal of Computer Science & Network Security
    • /
    • 제24권2호
    • /
    • pp.25-30
    • /
    • 2024
  • Various new technologies and aiding instruments are always being introduced for the betterment of the challenged. This project focuses on aiding the mute in expressing their views and ideas in a much efficient and effective manner thereby creating their own place in this world. The proposed system focuses on using various gestures traced into texts which could in turn be transformed into speech. The gesture identification and mapping is performed by the Kinect device, which is found to cost effective and reliable. A suitable text to speech convertor is used to translate the texts generated from Kinect into a speech. The proposed system though cannot be applied to man-to-man conversation owing to the hardware complexities, but could find itself very much of use under addressing environments such as auditoriums, classrooms, etc

TTS를 이용한 매장음원방송에서 고객의 인지도 향상을 위한 음향효과 연구 (A Study on the Sound Effect for Improving Customer's Speech Recognition in the TTS-based Shop Music Broadcasting Service)

  • 강선미;김현득;장문수
    • 말소리와 음성과학
    • /
    • 제1권4호
    • /
    • pp.105-109
    • /
    • 2009
  • This thesis describes the method for well voice announcement using the TTS(Text-To-Speech) technology in the shop music broadcasting service. Offering a high quality TTS sound service for each shop requires a great expense. According to a report on the architectural acoustics the room acoustic indexes such as reverberation time and early decay time are closely connected with a subjective awareness about acoustics. By using the result the customers will be able to recognize better the voice announcement by applying sound effect to speech files made by TTS. The result of an aural comprehension examination has shown better about almost all of the parameters by applying reverb effect to TTS sound.

  • PDF

Stem-ML에 기반한 한국어 억양 생성 (Korean Prosody Generation Based on Stem-ML)

  • 한영호;김형순
    • 대한음성학회지:말소리
    • /
    • 제54호
    • /
    • pp.45-61
    • /
    • 2005
  • In this paper, we present a method of generating intonation contour for Korean text-to-speech (TTS) system and a method of synthesizing emotional speech, both based on Soft template mark-up language (Stem-ML), a novel prosody generation model combining mark-up tags and pitch generation in one. The evaluation shows that the intonation contour generated by Stem-ML is better than that by our previous work. It is also found that Stem-ML is a useful tool for generating emotional speech, by controling limited number of tags. Large-size emotional speech database is crucial for more extensive evaluation.

  • PDF

다음색 감정 음성합성 응용을 위한 감정 SSML 처리기 (An emotional speech synthesis markup language processor for multi-speaker and emotional text-to-speech applications)

  • 유세희;조희;이주현;홍기형
    • 한국음향학회지
    • /
    • 제40권5호
    • /
    • pp.523-529
    • /
    • 2021
  • 본 논문에서는 감정 마크업을 포함하는 Speech Synthesis Markup Language(SSML) 처리기를 설계하고 개발하였다. 다양한 음색과 감정 표현이 가능한 음성합성 기술이 개발되고 있으며 다양한 음색 및 감정 음성합성의 응용 확대를 위하여 표준화된 음성 인터페이스 마크업 언어인 SSML을 감정 표현이 가능하도록 확장한 감정 SSML(Emotional SSML)을 설계하였다. 감정 SSML 처리기는 그래픽 사용자 인터페이스로 손쉽게 음색 및 감정을 원하는 텍스트 부분에 표시할 수 있는 다음색 감정 텍스트 편집기, 편집 결과를 감정 SSML 문서로 생성하는 감정 SSML 문서 생성기, 생성된 감정 SSML 문서를 파싱하는 감정 SSML 파서, 감정 SSML 파서의 결과인 다음색 감정 합성 시퀀스를 기반으로 합성기와 연동하여 음성 스트림의 합성 을 제어하는 시퀀서로 구성된다. 본 논문에서 개발한 다음색 감정합성을 위한 감정 SSML 처리기는 프로그래밍 언어 및 플랫폼 독립적인 개방형 표준인 SSML을 기반으로 하여 다양한 음성합성 엔진에 쉽게 연동할 수 있는 구조를 가지며 다양한 음색과 감정 음성합성이 필요한 다양한 응용 개발에 활용될 것으로 기대한다.

통합 CNN, LSTM, 및 BERT 모델 기반의 음성 및 텍스트 다중 모달 감정 인식 연구 (Enhancing Multimodal Emotion Recognition in Speech and Text with Integrated CNN, LSTM, and BERT Models)

  • 에드워드 카야디;한스 나타니엘 하디 수실로;송미화
    • 문화기술의 융합
    • /
    • 제10권1호
    • /
    • pp.617-623
    • /
    • 2024
  • 언어와 감정 사이의 복잡한 관계의 특징을 보이며, 우리의 말을 통해 감정을 식별하는 것은 중요한 과제로 인식된다. 이 연구는 음성 및 텍스트 데이터를 모두 포함하는 다중 모드 분류 작업을 통해 음성 언어의 감정을 식별하기 위해 속성 엔지니어링을 사용하여 이러한 과제를 해결하는 것을 목표로 한다. CNN(Convolutional Neural Networks)과 LSTM(Long Short-Term Memory)이라는 두 가지 분류기를 BERT 기반 사전 훈련된 모델과 통합하여 평가하였다. 논문에서 평가는 다양한 실험 설정 전반에 걸쳐 다양한 성능 지표(정확도, F-점수, 정밀도 및 재현율)를 다룬다. 이번 연구 결과는 텍스트와 음성 데이터 모두에서 감정을 정확하게 식별하는 두 모델의 뛰어난 능력을 보인다.

기업가 연설문의 주제와 시청자 댓글 간의 관계 분석: 유튜브 콘텐츠를 중심으로 (Entrepreneur Speech and User Comments: Focusing on YouTube Contents)

  • 김성범;이정환
    • 한국콘텐츠학회논문지
    • /
    • 제20권5호
    • /
    • pp.513-524
    • /
    • 2020
  • 최근 유튜브의 성장이 주목받고 있다. 유튜브는 콘텐츠를 소비하는 채널일 뿐만 아니라 소비자의 의사를 표시하는 공간이 되고 있다. 소비자들은 댓글이라는 형식으로 유튜브 안에서 그들의 의견을 표출한다. 이 연구는 유튜브에 업로드되어 시청되는 글로벌 기업가 연설문과 영상을 시청하고 작성한 댓글의 텍스트를 연구대상으로 한다. 텍스트 마이닝 소프트웨어인 Leximancer를 사용하여 각각의 연설문과 댓글을 대상으로 내용 분석(content analysis)을 시행하였다. 각 기업가 연설문의 주제는 대응분석(correspondence analysis)을 사용하여 분석하였고 기업가 개인의 성향과 특성과 관련 있는 주제를 도출하였다. 댓글에서는 각 연설문의 내용과는 관계없이 공통적으로 money, work, need의 주제를 발견하였다. 텍스트의 길이가 다름을 고려하여 추가로 중요도 지표 (Prominence Index) 분석을 실행하였고 연설문 내용과 시청자 댓글의 공통적인 주제를 구성하는 핵심어로 time, future, better, best, change, life, business, need를 도출하였다. 유튜브 연설문의 시청자는 인생과 시간, 미래, 고객의 니즈, 긍정적 변화에 대한 메시지에 대하여 동일한 주제로 반응하는 것으로 나타났다.

포만트 합성방식을 이용한 문자-음성 변환에 관한 연구 (A Study on the Text-to-Speech Conversion Using the Formant Synthesis Method)

  • 최진산;김민년;서정욱;배건성
    • 음성과학
    • /
    • 제2권
    • /
    • pp.9-23
    • /
    • 1997
  • Through iterative analysis and synthesis experiments on Korean monosyllables, the Korean text-to-speech system was implemented using the phoneme-based formant synthesis method. Since the formants of initial and final consonants in this system showed many variations depending on the medial vowels, the database for each phoneme was made up of formants depending on the medial vowels as well as duration information of transition region. These techniques were needed to improve the intelligibility of synthetic speech. This paper investigates also methods of concatenating the synthesis units to improve the quality of synthetic speech.

  • PDF

언어장애인을 위한 안드로이드 기반 의사소통보조 어플리케이션 (An Android Application for Speech Communication of People with Speech Disorders)

  • 최윤정;홍기형
    • 말소리와 음성과학
    • /
    • 제6권4호
    • /
    • pp.141-148
    • /
    • 2014
  • Voice is the most common means for communication, but some people have difficulties in generating voice due to their congenital or acquired disorders. Individuals with speech disorders might lose their speaking ability due to hearing impairment, encephalopathy or cerebral palsy accompanied by motor skill impairments, or autism caused by mental problems. However, they have needs for communication, so some of them use various types of AAC (Augmentative & Alternative Communication) devices in order to meet their communication needs. In this paper, a mobile application for literate people having speech disorder was designed and implemented by developing accurate and fast sentence-completion functions for efficient user interaction. From a user study and the previous study on Korean text-based communication for adults having difficulty in speech communication, we identified functionality and usability requirements. Specifically, the user interface with scanning features was designed by considering the users' motor skills in using the touch-screen of a mobile device. Finally, we conducted the usability test for the application. The results of the usability test show that the application is easy to learn and efficient to use in communication with people with speech disorders.

한국어 자동 발음열 생성 시스템을 위한 예외 발음 연구 (A Study on Exceptional Pronunciations For Automatic Korean Pronunciation Generator)

  • 김선희
    • 대한음성학회지:말소리
    • /
    • 제48호
    • /
    • pp.57-67
    • /
    • 2003
  • This paper presents a systematic description of exceptional pronunciations for automatic Korean pronunciation generation. An automatic pronunciation generator in Korean is an essential part of a Korean speech recognition system and a TTS (Text-To-Speech) system. It is composed of a set of regular rules and an exceptional pronunciation dictionary. The exceptional pronunciation dictionary is created by extracting the words that have exceptional pronunciations, based on the characteristics of the words of exceptional pronunciation through phonological research and the systematic analysis of the entries of Korean dictionaries. Thus, the method contributes to improve performance of automatic pronunciation generator in Korean as well as the performance of speech recognition system and TTS system in Korean.

  • PDF

The Impact of Speech-To-Text-based Class on Learners' Cognitive Abilities

  • HyunMin Kang;SunKwan Han
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권1호
    • /
    • pp.287-293
    • /
    • 2024
  • 본 연구는 인공지능을 활용한 수업이 항공전문학교 학생의 인지적으로 미치는 영향을 검증하였다. 먼저 프레젠테이션을 활용한 수업에서 전통적인 멀티미디어 자료 기반의 수업과 Speech-to-text(STT)기반의 인공지능 자료로 구성된 수업을 개발하였다. A 항공 전문 교육기관의 학생 133명이 두 가지 유형의 수업에 참여하였다. 수업 전후에 학생들의 인지 부하와 Mind Wandering을 측정하였고, 성취도평가를 실시하였다. 검사의 분석 결과, 외재적 인지 부하는 감소하였고 콘텐츠 집중도가 높아졌으며 성취도가 향상됨을 확인하였다. 향후 기술을 지도하는 학교에서 인공지능 기반의 STT수업이 많이 활용되기를 기대한다.