• 제목/요약/키워드: Voice Translation

검색결과 21건 처리시간 0.048초

하이브리드 자동 통역지원 시스템에 관한 연구 (A Study of Hybrid Automatic Interpret Support System)

  • 임총규;박병호;박주식;강봉균
    • 산업경영시스템학회지
    • /
    • 제28권3호
    • /
    • pp.133-141
    • /
    • 2005
  • The previous research has been mainly focused on individual technology of voice recognition, voice synthesis, translation, and bone transmission technical. Recently, commercial models have been produced using aforementioned technologies. In this research, a new automated translation support system concept has been proposed by combining established technology of bone transmission and wireless system. The proposed system has following three major components. First, the hybrid system consist of headset, bone transmission and other technologies will recognize user's voice. Second, computer recognized voice (using small server attached to the user) of the user will be converted into digital signal. Then it will be translated into other user's language by translation algorithm. Third, the translated language will be wirelessly transmitted to the other party. The transmitted signal will be converted into voice in the other party's computer using the hybrid system. This hybrid system will transmit the clear message regardless of the noise level in the environment or user's hearing ability. By using the network technology, communication between users can also be clearly transmitted despite the distance.

Design of Metaverse for Two-Way Video Conferencing Platform Based on Virtual Reality

  • Yoon, Dongeon;Oh, Amsuk
    • Journal of information and communication convergence engineering
    • /
    • 제20권3호
    • /
    • pp.189-194
    • /
    • 2022
  • As non-face-to-face activities have become commonplace, online video conferencing platforms have become popular collaboration tools. However, existing video conferencing platforms have a structure in which one side unilaterally exchanges information, potentially increase the fatigue of meeting participants. In this study, we designed a video conferencing platform utilizing virtual reality (VR), a metaverse technology, to enable various interactions. A virtual conferencing space and realistic VR video conferencing content authoring tool support system were designed using Meta's Oculus Quest 2 hardware, the Unity engine, and 3D Max software. With the Photon software development kit, voice recognition was designed to perform automatic text translation with the Watson application programming interface, allowing the online video conferencing participants to communicate smoothly even if using different languages. It is expected that the proposed video conferencing platform will enable conference participants to interact and improve their work efficiency.

Sign Language Image Recognition System Using Artificial Neural Network

  • Kim, Hyung-Hoon;Cho, Jeong-Ran
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권2호
    • /
    • pp.193-200
    • /
    • 2019
  • Hearing impaired people are living in a voice culture area, but due to the difficulty of communicating with normal people using sign language, many people experience discomfort in daily life and social life and various disadvantages unlike their desires. Therefore, in this paper, we study a sign language translation system for communication between a normal person and a hearing impaired person using sign language and implement a prototype system for this. Previous studies on sign language translation systems for communication between normal people and hearing impaired people using sign language are classified into two types using video image system and shape input device. However, existing sign language translation systems have some problems that they do not recognize various sign language expressions of sign language users and require special devices. In this paper, we use machine learning method of artificial neural network to recognize various sign language expressions of sign language users. By using generalized smart phone and various video equipment for sign language image recognition, we intend to improve the usability of sign language translation system.

영한 병렬 코퍼스에 나타난 영어 수동문의 한국어 번역 (Translating English By-Phrase Passives into Korean: A Parallel Corpus Analysis)

  • 이승아
    • 영어영문학
    • /
    • 제56권5호
    • /
    • pp.871-905
    • /
    • 2010
  • This paper is motivated by Watanabe's (2001) observation that English byphrase passives are sometimes translated into Japanese object topicalization constructions. That is, the original English sentence in the passive may be translated into the active voice with the logical object topicalized. A number of scholars, including Chomsky (1981) and Baker (1992), have remarked that languages have various ways to avoid focusing on the logical subject. The aim of the present study is to examine the translation equivalents of the English by-phrase passives in an English-Korean parallel corpus compiled by the author. A small sample of articles from Newsweek magazine and its published Korean translation reveals that there are indeed many ways to translate English by-phrase passives, including object topicalization (12.5%). Among the 64 translated sentences analyzed and classified, 12 (18.8%) examples were problematic in terms of agent defocusing, which is the primary function of passives. Of these 12 instances, five cases were identified where an alternative translation would be more suitable. The results suggest that the functional characteristics of English by-phrase passives should be highlighted in translator training as well as language teaching.

오픈소스를 이용한 문자/음성 인식 및 번역 앱 개발 (Text/Voice Recognition & Translation Application Development Using Open-Source)

  • 윤태진;서효종;김도헌
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2017년도 제56차 하계학술대회논문집 25권2호
    • /
    • pp.425-426
    • /
    • 2017
  • 본 논문에서는 Google에서 지원하는 오픈소스인 Tesseract-OCR을 이용한 문자/음성 인식 및 번역 앱에 대해 제안한다. 최근 한국어를 포함한 외국어 인식과 번역기능을 이용한 다양한 스마트폰 앱이 개발되어 여행에 필수품으로 자리잡고 있다. 스마트폰의 카메라기능을 이용하여 촬영한 영상을 인식률을 높이도록 처리하고, Crop기능을 넣어 부분 인식기능을 지원하며, Tesseract-OCR의 train data를 보완하여 인식률을 높이고, Google 음성인식 API를 이용한 음성인식 기능을 통해 인식된 유사한 문장들을 선택하도록 하고, 이를 번역하고 보여주도록 개발하였다. 번역 기능은 번역대상 언어와 번역할 언어를 선택할 수 있고 기본적으로 영어, 한국어, 일본어, 중국어로 번역이 가능하다. 이 기능을 이용하여 차량번호 인식, 사진에 포함된 글자를 통한 검색 등 다양한 응용분야에 맞게 앱을 개발할 수 있다.

  • PDF

음성 전화를 위한 Internet-ISDN 연동 게이트웨이 신호 프로토콜 검증 (Signalling Protocol Validation of Internet-ISDN Interworking Gateway for Voice Telephony)

  • 유상신
    • 한국정보처리학회논문지
    • /
    • 제6권10호
    • /
    • pp.2740-2751
    • /
    • 1999
  • Critical to more widespread use of Internet telephony are the smooth interoperability with the existing telephone network and the improved quality of voice connections. Of these requirements, this interoperability comes through the use of Internet Telephony Gateway's which perform protocol translation between an IP network and the Public Switched Telephone Network. In this paper, we have focused on the necessity and possibility of interoperability, and furthermore derives the necessary requirements for interoperability between IP networks and PSTN. For this purpose, we have analyzed the signaling protocols for gateway system. Then, we have modelled the inter-working part using the Petri-Net model. Through reachability trees of the Petri-Net model, we have confirmed that interoperability is possible, and that characteristics of deadlock, liveness, and boundness are satisfied.

  • PDF

머신러닝과 립 모션을 활용한 지화 번역 시스템 구현에 관한 연구 (A Study on Finger Language Translation System using Machine Learning and Leap Motion)

  • 손다은;고형민;신행용
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.552-554
    • /
    • 2019
  • 농아는 청각장애인과 언어장애인을 말하며 청각장애인과 언어장애인은 음성으로 의사소통하는 것에 어려움이 있기 때문에 수화나 구화 등을 이용하여 의사소통을 한다. 그러나 수화는 모든 사람들이 사용하는 통신 수단이 아니기 때문에 수화를 알지 못하는 사람과의 의사소통하는 데 있어 한계가 생길 수밖에 없다. 본 논문에서는 장애인과 비장애인이 어려움 없이 의사소통할 수 있는 수단으로 지화 번역 시스템을 제안하고 설계 및 구현하였다. 립 모션으로 지화를 인식하였고 인식률을 높이기 위해 머신 러닝 기술을 이용하여 지화 데이터를 스스로 학습시켰다. 구현 및 실험 결과를 통해 제안한 알고리즘 적용으로 인식률 개선이 이뤄졌음을 확인하였다.

시각장애인을 위한 점자 교육 시스템 (OnDot: Braille Training System for the Blind)

  • 김학진;문준혁;송민욱;이세민;공기석
    • 한국인터넷방송통신학회논문지
    • /
    • 제20권6호
    • /
    • pp.41-50
    • /
    • 2020
  • 본 논문에서는 기존의 점자 학습 제품의 단점들을 보완한 점자 교육 시스템을 다룬다. 시각장애인 전용 어플리케이션은 사용자 편의성을 위해 터치 제스처 및 음성 안내를 통하여 전체 기능을 수행할 수 있도록 구성한다. 점자키트는 아두이노와 3D 프린팅을 통해 교육 목적에 맞게 제작한다. 시스템은 다음과 같은 기능들을 지원한다. 첫 째, 초성·종성·모음·약어 등 기초적인 점자의 학습. 둘 째, 단계별 퀴즈를 풀어 학습한 점자를 확인하는 기능. 셋 째, 모르는 점자가 있을 때 번역하는 기능이다. 실험을 통한 터치 제스처의 인식률과 점자 표현의 정확도를 확인하였고 번역의 경우 의도한대로 번역이 되는 것을 확인하였다. 이 시스템을 통해 시각장애인이 효율적으로 점자를 학습할 수 있다.

음성인식기 성능 향상을 위한 영상기반 음성구간 검출 및 적응적 문턱값 추정 (Visual Voice Activity Detection and Adaptive Threshold Estimation for Speech Recognition)

  • 송태엽;이경선;김성수;이재원;고한석
    • 한국음향학회지
    • /
    • 제34권4호
    • /
    • pp.321-327
    • /
    • 2015
  • 본 연구에서는 음성인식기 성능향상을 위한 영상기반 음성구간 검출방법을 제안한다. 기존의 광류기반 방법은 조도변화에 대응하지 못하고 연산량이 많아서 이동형 플렛홈에 적용되는 스마트 기기에 적용하는데 어려움이 있고, 카오스 이론 기반 방법은 조도변화에 강인하지만 차량 움직임 및 입술 검출의 부정확성으로 인해 발생하는 오검출이 발생하는 문제점이 있다. 본 연구에서는 기존 영상기반 음성구간 검출 알고리즘의 문제점을 해결하기 위해 지역 분산 히스토그램(Local Variance Histogram, LVH)과 적응적 문턱값 추정 방법을 이용한 음성구간 검출 알고리즘을 제안한다. 제안된 방법은 조도 변화에 따른 픽셀 변화에 강인하고 연산속도가 빠르며 적응적 문턱값을 사용하여 조도변화 및 움직임이 큰 차량 운전자의 발화를 강인하게 검출할 수 있다. 이동중인 차량에서 촬영한 운전자의 동영상을 이용하여 성능을 측정한 결과 제안한 방법이 기존의 방법에 비하여 성능이 우수함을 확인하였다.

일본어 파열음[k, t]과 파찰음[t s , $t{\int}$ 의 국어 표기상의 문제점 (Some Notational Problems of the translation of Japanese stops[k, t] and affricates[t s ,$t{\int}$] into Korean)

  • 이영희
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2007년도 한국음성과학회 공동학술대회 발표논문집
    • /
    • pp.187-192
    • /
    • 2007
  • The purpose of this paper is to show that the current notation of Japanese proper names in Korean has some problems. It cannot represent the different sounds between the voiced and voiceless. The purpose of this paper is also to give a more correct notation which is coherent and efficient. After introducing some general knowledge about the phonemes of Japanese language, I measured the Voice Onset Time of the stops[k, t] at the beginning, in the middle and at the end of a word, and compared the spectrogram of affricates with that of fricatives. In conclusion, Japanese voiceless [k, t ,$t{\int}$] should be written as [ㅋ,ㅌ,ㅊ] and voiced [g, d $d_3$] as [ㄱ,ㄷ,ㅈ] and the affricate[ts] as[ㅊ] in Korean.

  • PDF