• 제목/요약/키워드: Korean speech recognition platform

검색결과 20건 처리시간 0.027초

VoiceXML 기반 음성인식시스템을 이용한 서비스 개발 (The Interactive Voice Services based on VoiceXML)

  • 김학균;김은향;김재인;구명완
    • 대한음성학회지:말소리
    • /
    • 제43호
    • /
    • pp.113-125
    • /
    • 2002
  • As there are needs to search the Web information via wire or wireless telephones, VoiceXML forum was established to develop and promote the Voice eXtensible Markup Language (VoiceXML). VoiceXML simplifies the creation of personalized interactive voice response services on the Web, and allows voice and phone access to information on Web sites, call center databases. Also, it can utilize the Web-based technologies, such as CGI(Common Gateway Interface) scripts. In this paper, we have developed the voice portal service platform based on VoiceXML called TeleGateway. It enables integration of voice services with data services using the Automatic Speech Recognition (ASR) and Text-To-Speech (TTS) engines. Also, we have showed the various services on voice portal services.

  • PDF

음성정보기술을 이용한 통신서비스 - KT 서비스를 중심으로 - (Telecommunication Services Based On Spoken Language Information Technology - In view of services provided by KT -)

  • 구명완;김재인;정영준;김문식;김원우;김학훈;박성준;류창선;김희경
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2004년도 춘계 학술대회 발표논문집
    • /
    • pp.125-130
    • /
    • 2004
  • In this paper, we explain telecommunication services based on spoken language information technology. There are three different kinds of services. The first is based on Advanced Intelligent services(AIN). We built a Intelligent Peripheral(IP)with speech recognition, speech synthesis and VoiceXML interpreter. The second is based on KT-HUVOIS, a proprietary speech platform based on VoiceXML. The third is based on VoiceXML interpreter. We explain various services depending on these platforms in detail.

  • PDF

음성인식을 활용한 Dobot 기반 오목 플랫폼 (Dobot-based Omok platform using Voice recognition)

  • 박상용;이강희
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2020년도 제62차 하계학술대회논문집 28권2호
    • /
    • pp.19-21
    • /
    • 2020
  • 해가 갈수록 여러 요인들로 인하여 장애인 인구는 증가하고 있다. 하지만 이러한 장애인들을 위한 주변기기의 발전은 미흡한 상황이며 더욱이 장애인들의 여가를 위한 놀이문화, 기술들은 더욱 발전이 더딘 상태이다. 여가 활동은 장애인의 행복에도 직관적인 영향을 끼치는 중요한 부분이다. 따라서 본 논문에서는 장애인들 중 손과 같은 신체를 움직이기 어려운 중증 지체장애인을 위한 오목 플랫폼을 제안한다. 본 논문에서 구현한 오목 플랫폼은 음성인식을 기반으로 사용자가 오목알을 착수하고 싶은 좌표를 음성으로 입력시키면 Dobot 즉 로봇암을 통하여 착수점에 오목알을 착수한다. 실험에선 Google Vocie To Text API를 Python 환경에서 사용하여 사용자의 음성입력을 받았으며 Dobot Studio의 Script에서 입력된 음성 값을 오목판에 1대1로 맵핑시켜 정확한 위치에 착수할 수 있도록 구현하였다. 본 논문의 연구 결과를 응용하면 오목에만 국한되는게 아닌 다양한 보드게임을 구현할 수 있다.

  • PDF

A Design and Implementation of Speech Recognition and Synthetic Application for Hearing-Impairment

  • Kim, Woo-Lin;Ham, Hye-Won;Yun, Sang-Un;Lee, Won Joo
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권12호
    • /
    • pp.105-110
    • /
    • 2021
  • 본 논문에서는 STT(Speech-to-Text), TTS(Text-to-Speech) API와 가속도 센서 기반의 청각 장애인의 의사소통을 도와주는 안드로이드 모바일 애플리케이션을 설계하고 구현한다. 이 애플리케이션은 청각 장애인의 대화 상대가 말하는 것을 마이크로 녹음하고 STT API를 이용하여 텍스트로 변환하여 청각 장애인에게 보여주는 기능을 제공한다. 또한, TTS API를 이용하여 청각 장애인이 문자를 입력하면 음성으로 변환하여 대화 상대에게 들려준다. 청각 장애인이 스마트폰을 흔들면 이 애플리케이션이 실행하도록 가속도 센서 기반의 백그라운드 서비스 기능을 제공한다. 본 논문에서 구현한 애플리케이션은 청각 장애인들이 다른 사람과 의사소통을 할 때 영상통화로 수화를 이용하지 않고 쉽게 대화할 수 있는 기능을 제공한다.

자동음성인식 기술을 이용한 모바일 기반 발음 교수법과 영어 학습자의 발음 향상에 관한 연구 (The Study on Automatic Speech Recognizer Utilizing Mobile Platform on Korean EFL Learners' Pronunciation Development)

  • 박아영
    • 디지털콘텐츠학회 논문지
    • /
    • 제18권6호
    • /
    • pp.1101-1107
    • /
    • 2017
  • 본 논문은 스마트폰의 플랫폼에 내장되어 있는 자동음성인식 기술을 활용하여 영어 학습자의 발음에 대한 즉각적인 문자 피드백을 제공하는 모바일 기반 발음 교수법이 영어 학습자의 자음 발음 (V-B, R-L, G-Z) 인식과 출력에 미치는 영향에 대해 연구했다. 특히, 자동음성인식 기술을 이용한 모바일 기반 발음 교수법을 사용한 그룹, 전통적인 교사 중심의 발음 교수법 그룹, 그리고 이 둘을 합친 하이브리드 교수법 그룹으로 나누어 영어 학습자의 발음 평가 결과를 (인지, 출력) 비교, 분석했다. ANCOVA를 이용한 분석 결과, 영어 학습자의 발음 출력에 있어 하이브리드 교수법 그룹이 (M=82.71, SD =3.3) 전통적인 교수법 그룹 (M=62.6, SD=4.05) 보다 유의미하게 높은 결과를 나타냈다 (p<.05).

감성 상호작용을 갖는 교육용 휴머노이드 로봇 D2 개발 (Design and implement of the Educational Humanoid Robot D2 for Emotional Interaction System)

  • 김도우;정기철;박원성
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 제38회 하계학술대회
    • /
    • pp.1777-1778
    • /
    • 2007
  • In this paper, We design and implement a humanoid robot, With Educational purpose, which can collaborate and communicate with human. We present an affective human-robot communication system for a humanoid robot, D2, which we designed to communicate with a human through dialogue. D2 communicates with humans by understanding and expressing emotion using facial expressions, voice, gestures and posture. Interaction between a human and a robot is made possible through our affective communication framework. The framework enables a robot to catch the emotional status of the user and to respond appropriately. As a result, the robot can engage in a natural dialogue with a human. According to the aim to be interacted with a human for voice, gestures and posture, the developed Educational humanoid robot consists of upper body, two arms, wheeled mobile platform and control hardware including vision and speech capability and various control boards such as motion control boards, signal processing board proceeding several types of sensors. Using the Educational humanoid robot D2, we have presented the successful demonstrations which consist of manipulation task with two arms, tracking objects using the vision system, and communication with human by the emotional interface, the synthesized speeches, and the recognition of speech commands.

  • PDF

VoiceXML을 이용한 음성 인식시스템에서의 ASP 모듈 연구 (A Study On The ASP Module Using VoiceMXL in Automatic Speech Recognition System)

  • 장준식;김민석;윤재석
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2001년도 추계종합학술대회
    • /
    • pp.609-612
    • /
    • 2001
  • 본 연구에서는 VoiceXML의 용이한 확장성과 GSL(Grammar Specific Language)을 사용하여 사람이 말하는 자연어를 컴퓨터가 잘 이해할 수 있게 기호화 하고 이를 컴퓨터가 어떻게 인식하는가에 대해 다루어 보았다. 그리고 Voice Portal 항공정보시스템을 구축하여 사용자가 원하는 정보를 들려 줄 수 있게 하기 위한 ASP(Active Server rage)모듈을 작성하여 Voice Portal 항공정보시스템상에서 그 효율성을 실험하여 보았다.

  • PDF

인공지능 딥러링 학습 플랫폼에 관한 선행연구 고찰 (A Review on Deep Learning Platform for Artificial Intelligence)

  • 진찬용;신성윤;남수태
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2019년도 춘계학술대회
    • /
    • pp.169-170
    • /
    • 2019
  • 인공지능이 글로벌 경쟁력 원천 기술로 부각되면서 정부도 자율주행차, 드론, 로봇 등 미래 신산업의 기반 기술이 되는 인공지능을 전략적으로 육성하고 있다. 국내 인공지능 연구 및 서비스는 네이버와 카카오를 중심으로 출시되었으나 해외에 비하면 규모나 수준이 미약한 편이다. 최근, 딥러닝 (deep learning)은 최근 음성인식과 영상인식을 비롯한 다양한 패턴인식 분야에서 혁신적인 성능을 기록하면서 많은 연구가 진행되고 있다. 그 뿐만 아니라 딥러닝은 초창기부터 산업계의 큰 관심을 끌어 구글이나 마이크로소프트, 삼성전자 등 글로벌 정보기술 회사에서 상용제품에 딥러닝 기술을 성공적으로 적용하고 있고 계속 연구개발을 진행하고 있어 대중매체에서도 관심을 가지고 주목하고 있다. 이러한 선행연구를 바탕으로 주목 받고 있는 인공지능에 대해 살펴보도록 하겠다.

  • PDF

Arduino IoT Studio based on 5W1H Programming Model for non Programmer

  • Im, Hong-Gab;Baek, Yeong-Tae;Lee, Se-Hoon;Kim, Ji-Seong;Sin, Bo-Bae
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권2호
    • /
    • pp.29-35
    • /
    • 2017
  • In this paper, we present a 5W1H programming model for IT non-experienced people who are not familiar with computer programming and those who need programming education. Based on this model, we can design a development tool that can be easily programmed by beginners. This development tool is a programming method applying the 5W1H concept and constructs a sentence to satisfy the control condition of 'Who, When, Where, What, and How', which is the sentence element of 5W1H. Therefore, the user can easily develop the target system as if constructing the sentence without learning the programming language of the target system. In this paper, to verify the effectiveness of the 5W1H programming model proposed in this paper, we applied the concept of 5W1H programming to Arduino and developed the development tool and performed the first verification and applied the second verification to the speech recognition smart home development platform.

한국형 멀티모달 몽타주 앱을 위한 생성형 AI 연구 (Research on Generative AI for Korean Multi-Modal Montage App)

  • 임정현;차경애;고재필;홍원기
    • 서비스연구
    • /
    • 제14권1호
    • /
    • pp.13-26
    • /
    • 2024
  • 멀티모달 (multi-modal) 생성이란 텍스트, 이미지, 오디오 등 다양한 정보를 기반으로 결과를 도출하는 작업을 말한다. AI 기술의 비약적인 발전으로 인해 여러 가지 유형의 데이터를 종합적으로 처리해 결과를 도출하는 멀티모달 기반 시스템 또한 다양해지는 추세이다. 본 논문은 음성과 텍스트 인식을 활용하여 인물을 묘사하면, 몽타주 이미지를 생성하는 AI 시스템의 개발 내용을 소개한다. 기존의 몽타주 생성 기술은 서양인들의 외형을 기준으로 이루어진 반면, 본 논문에서 개발한 몽타주 생성 시스템은 한국인의 안면 특징을 바탕으로 모델을 학습한다. 따라서, 한국어에 특화된 음성과 텍스트의 멀티모달을 기반으로 보다 정확하고 효과적인 한국형 몽타주 이미지를 만들어낼 수 있다. 개발된 몽타주 생성 앱은 몽타주 초안으로 충분히 활용 가능하기 때문에 기존의 몽타주 제작 인력의 수작업을 획기적으로 줄여줄 수 있다. 이를 위해 한국지능정보사회진흥원의 AI-Hub에서 제공하는 페르소나 기반 가상 인물 몽타주 데이터를 활용하였다. AI-Hub는 AI 기술 및 서비스 개발에 필요한 인공지능 학습용 데이터를 구축하여 원스톱 제공을 목적으로 한 AI 통합 플랫폼이다. 이미지 생성 시스템은 고해상도 이미지를 생성하는데 사용하는 딥러닝 모델인 VQGAN과 한국어 기반 영상생성 모델인 KoDALLE 모델을 사용하여 구현하였다. 학습된 AI 모델은 음성과 텍스트를 이용해 묘사한 내용과 매우 유사한 얼굴의 몽타주 이미지가 생성됨을 확인할 수 있다. 개발된 몽타주 생성 앱의 실용성 검증을 위해 10명의 테스터가 사용한 결과 70% 이상이 만족한다는 응답을 보였다. 몽타주 생성 앱은 범죄자 검거 등 얼굴의 특징을 묘사하여 이미지화하는 여러 분야에서 다양하게 사용될 수 있을 것이다.