• Title/Summary/Keyword: TTS system

Search Result 148, Processing Time 0.024 seconds

Design and Implementation of a Navigation System for Visually Impaired Persons (시각장애인을 위한 네비게이션 시스템 설계 및 구현)

  • Jang, Su-Min;Hwang, Dong-Gyo;Kang, Soo;Kim, Eun-Ju;Park, Jun-Ho;Jang, Ki-Hun;Yoo, Jae-Soo
    • The Journal of the Korea Contents Association
    • /
    • v.12 no.1
    • /
    • pp.38-47
    • /
    • 2012
  • In order to extend the activity range of visually impaired persons, we design and implement a navigation system that supports road information services and points of interest. The proposed navigation system consists of route creation modules and storage modules for visually impaired persons. In particular, the main interface of the navigation system are implemented using TTS(Text-to-Speech) program for sound and braille module that outputs braille with sense of touch. We also use google map APIs that can provide latest map information for the navigation system.

A Real-time Bus Arrival Notification System for Visually Impaired Using Deep Learning (딥 러닝을 이용한 시각장애인을 위한 실시간 버스 도착 알림 시스템)

  • Seyoung Jang;In-Jae Yoo;Seok-Yoon Kim;Youngmo Kim
    • Journal of the Semiconductor & Display Technology
    • /
    • v.22 no.2
    • /
    • pp.24-29
    • /
    • 2023
  • In this paper, we propose a real-time bus arrival notification system using deep learning to guarantee movement rights for the visually impaired. In modern society, by using location information of public transportation, users can quickly obtain information about public transportation and use public transportation easily. However, since the existing public transportation information system is a visual system, the visually impaired cannot use it. In Korea, various laws have been amended since the 'Act on the Promotion of Transportation for the Vulnerable' was enacted in June 2012 as the Act on the Movement Rights of the Blind, but the visually impaired are experiencing inconvenience in using public transportation. In particular, from the standpoint of the visually impaired, it is impossible to determine whether the bus is coming soon, is coming now, or has already arrived with the current system. In this paper, we use deep learning technology to learn bus numbers and identify upcoming bus numbers. Finally, we propose a method to notify the visually impaired by voice that the bus is coming by using TTS technology.

  • PDF

Research Trends on Related to Artificial Intelligence for the Visually Impaired : Focused on Domestic and Foreign Research in 1993-2020 (시각장애인을 위한 인공지능 관련 연구 동향 : 1993-2020년 국내·외 연구를 중심으로)

  • Bae, Sun-Young
    • The Journal of the Korea Contents Association
    • /
    • v.20 no.10
    • /
    • pp.688-701
    • /
    • 2020
  • In this study, a total of 68 domestic and international papers were selected from 1993 to August 2020 in order to examine the research trends related to artificial intelligence for the visually impaired. The papers were compared and analyzed by the number of papers published by year, research method, research topic, keyword analysis status, research type, and implementation method. As a result of the study, the number of papers during the study period seemed to increase steadily. But in the case of domestic research, It can be seen that it has become active since 2016. As for research methods, development research accounted for 89.7% of both domestic and foreign research. Keywords was in Visually Impaired, Deep Learning, and Assistive Device order in domestic research. And it was in Visually Impaired, Deep learning, Artificial intelligence order in foreign research. There was a difference in the frequency of words. Research type were Design, development and implementation both in domestic and foreign. Implementation method were in System 13.2%, Solution 7.4%, App. 4.4% order in domestic research, and it was in System 32.4%, App. 13.2%, Device 7.4% order in foreign research. As for the applied technology of the implementation method, were in YOLO 2.7%, TTS 2.1%, Tensorflow 2.1% order in domestic research, and it was used in CNN 8.0%, TTS 5.3%, MS-COCO 4.3% order in foreign research. The purpose of this study was to compare and analyze the trends of artificial intelligence-related research targeting the visually impaired, to immediately know the current status of domestic and foreign research, and to present the direction of artificial intelligence research for the visually impaired in the future.

Communication Support System for ALS Patient Based on Text Input Interface Using Eye Tracking and Deep Learning Based Sound Synthesi (눈동자 추적 기반 입력 및 딥러닝 기반 음성 합성을 적용한 루게릭 환자 의사소통 지원 시스템)

  • Park Hyunjoo;Jeong Seungdo
    • Journal of Korea Society of Digital Industry and Information Management
    • /
    • v.20 no.2
    • /
    • pp.27-36
    • /
    • 2024
  • Accidents or disease can lead to acquired voice dysphonia. In this case, we propose a new input interface based on eye movements to facilitate communication for patients. Unlike the existing method that presents the English alphabet as it is, we reorganized the layout of the alphabet to support the Korean alphabet and designed it so that patients can enter words by themselves using only eye movements, gaze, and blinking. The proposed interface not only reduces fatigue by minimizing eye movements, but also allows for easy and quick input through an intuitive arrangement. For natural communication, we also implemented a system that allows patients who are unable to speak to communicate with their own voice. The system works by tracking eye movements to record what the patient is trying to say, then using Glow-TTS and Multi-band MelGAN to reconstruct their own voice using the learned voice to output sound.

Implementation of Text-to-Audio Visual Speech Synthesis Using Key Frames of Face Images (키프레임 얼굴영상을 이용한 시청각음성합성 시스템 구현)

  • Kim MyoungGon;Kim JinYoung;Baek SeongJoon
    • MALSORI
    • /
    • no.43
    • /
    • pp.73-88
    • /
    • 2002
  • In this paper, for natural facial synthesis, lip-synch algorithm based on key-frame method using RBF(radial bases function) is presented. For lips synthesizing, we make viseme range parameters from phoneme and its duration information that come out from the text-to-speech(TTS) system. And we extract viseme information from Av DB that coincides in each phoneme. We apply dominance function to reflect coarticulation phenomenon, and apply bilinear interpolation to reduce calculation time. At the next time lip-synch is performed by playing the synthesized images obtained by interpolation between each phonemes and the speech sound of TTS.

  • PDF

Implementation of Voice Support Calendar Management System Using TTS (TTS를 이용한 음성지원 일정관리 시스템의 구현)

  • Lee Se-Hwan;Kim Bong-Hyun;Kim Seung-Youn
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.501-504
    • /
    • 2006
  • 본 논문에서는 텍스트로 구성된 문서에 대한 음성 변환 시스템의 각 분야에 대해 기술하고, 음성합성 기술인 TTS기반의 음성지원 일정관리 시스템 설계 및 구현 부분에 대하여 설계한다. 이를 위해서 음성합성 기술의 개념 및 원리와 구조 등을 이해하고, 시스템 설계 및 구현을 하고자 한다. 시스템 설계 구현부에는 Speech SDK 5.1(음성합성엔진)을 사용하여 음성합성 기술부분을 처리하고, 이를 바탕으로 C# 언어를 사용하여 구현한다. 기존 텍스트기반의 일정관리 시스템 설계 부분에다가 음성합성 기능을 추가하여 텍스트의 지루함을 탈피하고, 음성 기술을 접목시켰다. 본 논문에 사용되는 엔진은 영문위주의 음성합성이므로 시스템 설계 부분에 있어 음성처리 부분을 영문으로 하여 결과물을 산출하였다. 최종적으로 실험에 의해 제안한 방법의 유용성을 입증한다.

  • PDF

Text Transliteration System and Number Transliteration Disambiguation for TTS (음성합성을 위한 텍스트 음역 시스템과 숫자 음역 모호성 처리)

  • Park, Jeong Yeon;Shin, Hyeong Jin;Yuk, Dae Bum;Lee, Jae Sung
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.449-452
    • /
    • 2018
  • TTS(Text-to-Speech)는 문자열을 입력받아 그 문자열을 음성으로 변환하는 음성합성 기술이다. 그러나 실제 입력되는 문장에는 한글뿐만 아니라 영단어 및 숫자 등이 혼합되어 있다. 영단어는 대소문자에 따라 다르게 읽을 수 있으며, 단위로 사용될 때는 약어로 사용되는 것이므로, 알파벳 단위로 읽어서는 안 된다. 숫자 또한 함께 사용되는 단어에 따라 읽는 방식이 달라진다. 본 논문에서는 한글과 숫자 및 단위, 영단어가 혼합된 문장을 분류하고 이를 음역하는 시스템을 구성하며 word vector를 이용한 숫자 및 단위의 모호성 해소방법을 소개한다.

  • PDF

Text-to-Speech System Using Logatom (Logatom을 사용한 문서음성변환 시스템)

  • Cho Kwansun;Lee Chulhee
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • spring
    • /
    • pp.7-10
    • /
    • 1999
  • 본 논문에서는 logatom 기반 무제한 한국어 TTS 시스템 구현을 제안한다. 이를 위하여 한국어를 대표할 만한 문서코퍼스를 선택하여 분석하고 이를 바탕으로 합성에 필요한 logatom을 설계한다. 일반적으로 음성코퍼스를 통해 음성세그먼트를 추출하여 접속에 기반한 TTS 시스템에서는 음성세그먼트를 의미있는 단어 또 는 어절로부터 추출한다. 하지만 음성세그먼트 추출시 고려되는 사항은 합성단위에 기초한 음소간의 결합형태이므로 본 논문에서는 음성세그먼트 추출을 위하여 무의미한 음소열인 logatom을 설계한다. Logatom은 문장 세그먼트의 어절내 위치와 문서코퍼스 분석 결과 얻어진 음소간의 결합형태를 기반으로 설계된다. 제안된 시스템의 합성음질을 평가하기 위하여 CVC 기반 logatom을 사용하여 임의의 문장을 합성해 본 결과 대부분의 음성세그먼트 접속이 자음에서 이루어지고 어절의 위치를 고려한 logatom 설계로 인하여 어절 내에서는 비교적 자연스러운 합성음을 얻을 수 있었다.

  • PDF

Home Automation Control with Multi-modal Interfaces for Disabled Persons (장애인을 위한 멀티모달 인터페이스 기반의 홈 네트워크 제어)

  • Park, Hee-Dong
    • Journal of Digital Convergence
    • /
    • v.12 no.2
    • /
    • pp.321-326
    • /
    • 2014
  • The needs for IT accessibility for disabled persons has increased for recent years. So, it is very important to support multi-modal interfaces, such as voice and vision recognition, TTS, etc. for disabled persons. In this paper, we deal with IT accessibility issues of home networks and show our implemented home network control system model with multi-modal interfaces including voice recognition and animated user interfaces.

An Implementation of Crossward Game using Speech Recognition and Synthesis System (음성인식 및 합성을 이용한 십자말 게임의 구현)

  • Kim Dong-Ju;Youn Jeh-Seon;Lee Young-Ju;Kim Dong-Hwan;Hong Kwang-Seok
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.29-32
    • /
    • 2001
  • 본 논문에서는 연구실에서 만든 음성인식기와 합성기를 이용하여 십자말 게임을 구현하였다. 십자말 게임에는 고사성어 600개 정도의 단어가 사용되었으며, 다른 영역별 사전을 추가 할 수 있도록 만들어졌다. 구현된 게임은 시작, 진행 등의 모든 과정이 음성으로 동작하며, 부과적인 정보는 음성 합성(TTS)에 의해 이루어진다. 십자말 게임에 사용되는 단어의 배열은 매번 랜덤하게 선택되도록 구성되며, 음성 인식기는 VCCV (Vowel + Consonant + Consonant + Vowel) 기반의 화자독립으로 구현되었다. 선택된 문제에 대한 설명은 텍스트로 보여주면서, 동시에 TTS 시스템에 의해 음성으로 출력된다.

  • PDF