• 제목/요약/키워드: TTS system

검색결과 148건 처리시간 0.026초

시각장애인을 위한 네비게이션 시스템 설계 및 구현 (Design and Implementation of a Navigation System for Visually Impaired Persons)

  • 장수민;황동교;강수;김은주;박준호;장기훈;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제12권1호
    • /
    • pp.38-47
    • /
    • 2012
  • 본 논문은 시각장애인들의 활동 범위를 확대하기 위해서 주변 시설물 검색서비스와 길안내 서비스를 제공하는 시각장애인을 위한 네비게이션 시스템을 설계하고 구현한다. 제안하는 네비게이션 시스템은 시각 장애인을 위한 경로 생성 모듈 및 저장 모듈로 구성된다. 특히, 제안하는 네비게이션 시스템은 시각 장애인을 위한 인터페이스로 TTS(Text-to-Speech) 프로그램을 이용하여 음성을 통한 안내서비스를 위한 음성 모듈과 촉각을 이용하여 점자를 출력하는 점자모듈을 통하여 구현한다. 또한 최신 지도정보를 서비스하기 위해서 구글 맵 API들을 사용한다.

딥 러닝을 이용한 시각장애인을 위한 실시간 버스 도착 알림 시스템 (A Real-time Bus Arrival Notification System for Visually Impaired Using Deep Learning )

  • 장세영;유인재;김석윤;김영모
    • 반도체디스플레이기술학회지
    • /
    • 제22권2호
    • /
    • pp.24-29
    • /
    • 2023
  • In this paper, we propose a real-time bus arrival notification system using deep learning to guarantee movement rights for the visually impaired. In modern society, by using location information of public transportation, users can quickly obtain information about public transportation and use public transportation easily. However, since the existing public transportation information system is a visual system, the visually impaired cannot use it. In Korea, various laws have been amended since the 'Act on the Promotion of Transportation for the Vulnerable' was enacted in June 2012 as the Act on the Movement Rights of the Blind, but the visually impaired are experiencing inconvenience in using public transportation. In particular, from the standpoint of the visually impaired, it is impossible to determine whether the bus is coming soon, is coming now, or has already arrived with the current system. In this paper, we use deep learning technology to learn bus numbers and identify upcoming bus numbers. Finally, we propose a method to notify the visually impaired by voice that the bus is coming by using TTS technology.

  • PDF

시각장애인을 위한 인공지능 관련 연구 동향 : 1993-2020년 국내·외 연구를 중심으로 (Research Trends on Related to Artificial Intelligence for the Visually Impaired : Focused on Domestic and Foreign Research in 1993-2020)

  • 배선영
    • 한국콘텐츠학회논문지
    • /
    • 제20권10호
    • /
    • pp.688-701
    • /
    • 2020
  • 본 연구는 시각장애인 대상의 인공지능 관련 연구 동향을 살펴보기 위해 1993년부터 2020년 8월까지 국내·외 논문 총 68편을 선정하여 연도별 논문 게재 수, 연구방법, 연구주제, 키워드 분석 현황, 연구유형, 구현방법별 비교·분석하였다. 연구결과, 연구기간 내 논문 편수는 꾸준히 증가하는 것처럼 보였으나 국내 연구의 경우에는 2016년도 이후에 활발해진 것을 알 수 있었다. 연구방법으로는 국내·외 연구 모두 개발연구가 89.7%를 차지했고, 키워드는 국내 연구에서는 Visually impaired, Deep learning, Assistive device 순이였으며 국외 연구에서는 Visually impaired, Deep learning, Artificial intelligence 순으로 단어 빈도순에서 차이를 보였다. 연구유형은 국내·외 모두 설계, 개발, 구현이 대부분을 차지했으며 구현방법으로는 국내 연구의 구현방법으로는 System 13.2%, Solution 7.4%, App. 4.4% 순이였으며 국외 연구의 구현방법으로는 System 32.4%, App.13.2%, Device 7.4%로 다소 차이를 보였다. 구현방법의 적용 기술로는 국내 연구는 YOLO 2.7%, TTS 2.1%, Tensorflow 2.1% 순이였으며 국외 연구에서는 CNN 8.0%, TTS 5.3%, MS-COCO 4.3% 순으로 사용횟수가 높았다. 본 연구는 시각장애인 대상의 인공지능 관련 연구 동향을 비교·분석하여 국내·외 연구의 현주소를 바로 알고 앞으로 시각장애인을 위한 인공지능 연구의 방향을 제시하고자 하였다.

눈동자 추적 기반 입력 및 딥러닝 기반 음성 합성을 적용한 루게릭 환자 의사소통 지원 시스템 (Communication Support System for ALS Patient Based on Text Input Interface Using Eye Tracking and Deep Learning Based Sound Synthesi)

  • 박현주;정승도
    • 디지털산업정보학회논문지
    • /
    • 제20권2호
    • /
    • pp.27-36
    • /
    • 2024
  • Accidents or disease can lead to acquired voice dysphonia. In this case, we propose a new input interface based on eye movements to facilitate communication for patients. Unlike the existing method that presents the English alphabet as it is, we reorganized the layout of the alphabet to support the Korean alphabet and designed it so that patients can enter words by themselves using only eye movements, gaze, and blinking. The proposed interface not only reduces fatigue by minimizing eye movements, but also allows for easy and quick input through an intuitive arrangement. For natural communication, we also implemented a system that allows patients who are unable to speak to communicate with their own voice. The system works by tracking eye movements to record what the patient is trying to say, then using Glow-TTS and Multi-band MelGAN to reconstruct their own voice using the learned voice to output sound.

키프레임 얼굴영상을 이용한 시청각음성합성 시스템 구현 (Implementation of Text-to-Audio Visual Speech Synthesis Using Key Frames of Face Images)

  • 김명곤;김진영;백성준
    • 대한음성학회지:말소리
    • /
    • 제43호
    • /
    • pp.73-88
    • /
    • 2002
  • In this paper, for natural facial synthesis, lip-synch algorithm based on key-frame method using RBF(radial bases function) is presented. For lips synthesizing, we make viseme range parameters from phoneme and its duration information that come out from the text-to-speech(TTS) system. And we extract viseme information from Av DB that coincides in each phoneme. We apply dominance function to reflect coarticulation phenomenon, and apply bilinear interpolation to reduce calculation time. At the next time lip-synch is performed by playing the synthesized images obtained by interpolation between each phonemes and the speech sound of TTS.

  • PDF

TTS를 이용한 음성지원 일정관리 시스템의 구현 (Implementation of Voice Support Calendar Management System Using TTS)

  • 이세환;김봉현;김승연
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2006년도 춘계학술발표대회
    • /
    • pp.501-504
    • /
    • 2006
  • 본 논문에서는 텍스트로 구성된 문서에 대한 음성 변환 시스템의 각 분야에 대해 기술하고, 음성합성 기술인 TTS기반의 음성지원 일정관리 시스템 설계 및 구현 부분에 대하여 설계한다. 이를 위해서 음성합성 기술의 개념 및 원리와 구조 등을 이해하고, 시스템 설계 및 구현을 하고자 한다. 시스템 설계 구현부에는 Speech SDK 5.1(음성합성엔진)을 사용하여 음성합성 기술부분을 처리하고, 이를 바탕으로 C# 언어를 사용하여 구현한다. 기존 텍스트기반의 일정관리 시스템 설계 부분에다가 음성합성 기능을 추가하여 텍스트의 지루함을 탈피하고, 음성 기술을 접목시켰다. 본 논문에 사용되는 엔진은 영문위주의 음성합성이므로 시스템 설계 부분에 있어 음성처리 부분을 영문으로 하여 결과물을 산출하였다. 최종적으로 실험에 의해 제안한 방법의 유용성을 입증한다.

  • PDF

음성합성을 위한 텍스트 음역 시스템과 숫자 음역 모호성 처리 (Text Transliteration System and Number Transliteration Disambiguation for TTS)

  • 박정연;신형진;육대범;이재성
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.449-452
    • /
    • 2018
  • TTS(Text-to-Speech)는 문자열을 입력받아 그 문자열을 음성으로 변환하는 음성합성 기술이다. 그러나 실제 입력되는 문장에는 한글뿐만 아니라 영단어 및 숫자 등이 혼합되어 있다. 영단어는 대소문자에 따라 다르게 읽을 수 있으며, 단위로 사용될 때는 약어로 사용되는 것이므로, 알파벳 단위로 읽어서는 안 된다. 숫자 또한 함께 사용되는 단어에 따라 읽는 방식이 달라진다. 본 논문에서는 한글과 숫자 및 단위, 영단어가 혼합된 문장을 분류하고 이를 음역하는 시스템을 구성하며 word vector를 이용한 숫자 및 단위의 모호성 해소방법을 소개한다.

  • PDF

Logatom을 사용한 문서음성변환 시스템 (Text-to-Speech System Using Logatom)

  • 조관선;이철희
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1999년도 학술발표대회 논문집 제18권 1호
    • /
    • pp.7-10
    • /
    • 1999
  • 본 논문에서는 logatom 기반 무제한 한국어 TTS 시스템 구현을 제안한다. 이를 위하여 한국어를 대표할 만한 문서코퍼스를 선택하여 분석하고 이를 바탕으로 합성에 필요한 logatom을 설계한다. 일반적으로 음성코퍼스를 통해 음성세그먼트를 추출하여 접속에 기반한 TTS 시스템에서는 음성세그먼트를 의미있는 단어 또 는 어절로부터 추출한다. 하지만 음성세그먼트 추출시 고려되는 사항은 합성단위에 기초한 음소간의 결합형태이므로 본 논문에서는 음성세그먼트 추출을 위하여 무의미한 음소열인 logatom을 설계한다. Logatom은 문장 세그먼트의 어절내 위치와 문서코퍼스 분석 결과 얻어진 음소간의 결합형태를 기반으로 설계된다. 제안된 시스템의 합성음질을 평가하기 위하여 CVC 기반 logatom을 사용하여 임의의 문장을 합성해 본 결과 대부분의 음성세그먼트 접속이 자음에서 이루어지고 어절의 위치를 고려한 logatom 설계로 인하여 어절 내에서는 비교적 자연스러운 합성음을 얻을 수 있었다.

  • PDF

장애인을 위한 멀티모달 인터페이스 기반의 홈 네트워크 제어 (Home Automation Control with Multi-modal Interfaces for Disabled Persons)

  • 박희동
    • 디지털융복합연구
    • /
    • 제12권2호
    • /
    • pp.321-326
    • /
    • 2014
  • 최근 장애인을 위한 IT 접근성 향상 기술에 대한 요구가 증대되고 있다. 따라서 장애인 IT 사용자를 위하여 음성 인식, 영상 인식, TTS 등과 같은 멀티모달 인터페이스를 지원하는 것이 매우 중요하다. 본 논문에서는 홈 네트워크 제어에 있어서 장애인 IT 접근성 향상 기술의 적용 방안에 대하여 서술한 후, 장애인이 쉽게 홈 네트워크를 제어할 수 있도록 음성 인식 및 애니메이션 UI (User interfaces)등과 같은 멀티모달 인터페이스 기반의 홈 네트워크 제어 시스템 모델을 구현하였다.

음성인식 및 합성을 이용한 십자말 게임의 구현 (An Implementation of Crossward Game using Speech Recognition and Synthesis System)

  • 김동주;윤재선;이용주;김동환;홍광석
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 2001년도 추계학술발표대회 논문집 제20권 2호
    • /
    • pp.29-32
    • /
    • 2001
  • 본 논문에서는 연구실에서 만든 음성인식기와 합성기를 이용하여 십자말 게임을 구현하였다. 십자말 게임에는 고사성어 600개 정도의 단어가 사용되었으며, 다른 영역별 사전을 추가 할 수 있도록 만들어졌다. 구현된 게임은 시작, 진행 등의 모든 과정이 음성으로 동작하며, 부과적인 정보는 음성 합성(TTS)에 의해 이루어진다. 십자말 게임에 사용되는 단어의 배열은 매번 랜덤하게 선택되도록 구성되며, 음성 인식기는 VCCV (Vowel + Consonant + Consonant + Vowel) 기반의 화자독립으로 구현되었다. 선택된 문제에 대한 설명은 텍스트로 보여주면서, 동시에 TTS 시스템에 의해 음성으로 출력된다.

  • PDF