• Title/Summary/Keyword: Speech translation

Search Result 88, Processing Time 0.022 seconds

Spontaneous Speech Translation System Development (대화체 음성언어 번역 시스템 개발)

  • Park, Jun;Lee, Young-jik;Yang, Jae-woo
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.08a
    • /
    • pp.281-286
    • /
    • 1998
  • ETRI에서 개발 중인 대화체 음성언어번역 시스템에 대하여 기술한다. 현재, ETRI는 DAM성언어번역 국제 공동 연구콘서시움인 C-STAR에 핵심참가기관으로 참여하여, 한일, 한영음성언어번역 시스템을 개발하고 있으며 1999년 국제 공동시험을 계획하고 이?. 최근의 연구 진행상황을 간추리면, 먼저 음성인식분야에서 유무성음 및 묵음정보를 미리 추출하여 이를 탐색에 활용하였으며, 음향모델 규모의 설정을 위한 교차 엔트로피 기반 변이음 군집화 알고리즘이 구현되었다. 또한 대상어휘의 확장을 위하여 의사형태소의 개념을 도입하였다. 언어번역분야에서는 이전과 같은 개념기반의 번역을 시도하고 있으며, C-STAR 회원기관과 공동으로 중간언어 규격을 정의하고 있다. 음성합성분야에서는 훈련형 합성기를 개발하여 합성데이타베이스 구축기간을 현저하게 줄였다.

  • PDF

An Experimental Speech Translation System for Hotel Reservation (호텔예약을 위한 자동통역 시스템)

  • 구명완;김웅인;김재인;도삼주;강용범;박상규;손일현;김우성;장두성
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1995.06a
    • /
    • pp.105-108
    • /
    • 1995
  • 한국에 있는 손님이 한국어 만을 사용하여 일본 호텔을 예약할 수 있도록 해 주는 한일간 자동통역 시연 시스템에 관해 기술하였다. 이 시스템은 한국어 음성인식부, 한일 기계번역부, 한국어 음성합성부로 구성되어 있다. 한국어 음성인식부는 기본적으로 HMM을 이용하는 화자독립, 약 300단어급 연속음성인식 시스템으로서 전향 언어 모델로 바이그램 언어 모델, 후향 언어 모델로는 의존 문법을 사용하여 N-BEST 문장을 생성해낸다. 실험결과, 단어 인식률은 top1 문장에 대해 약 94.5%, top5 문장에 대해 약 94.7%의 인식률을 얻었다. 인식 시간은 길이가 다른 여러 문장들에 대해 약 0.1~3초가 걸렸다. 기계번역부에서는 음성인식에서 의존 문법을 사용하여 분석된 파싱 결과를 이용, 직접 번역 방식을 채택하여 일본어를 생성한다. 음성 합성부는 반음소를 합서의 기본단위로 하고, 합성방식으로는 주기 파형 분해 및 재배치 방식으로 하였다. 실험 환경은 2 CPU를 장착한 SPARC 20 workstation 이었으며 실시간 특징 추출을 위해 TMS320C30 DSP 보드 1개를 이용하였다.

  • PDF

Multilingual Speech and Machine Translation System for Foreign Tourists (외국인 관광객을 위한 다국어 통번역 시스템)

  • Choi, Sung-Kwon;Kim, Young-Gil
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.10a
    • /
    • pp.665-666
    • /
    • 2016
  • 본 논문은 현재 개발 중에 있는 외국인 관광객을 위한 다국어 통번역 시스템을 기술하는 것을 목표로 한다. 다국어 통번역 시스템에서 개발 중에 있는 언어는 한국어, 일본어, 중국어, 영어, 스페인어, 불어, 독일어, 러시아어이다. 이렇게 개발된 다국어 통번역 시스템은 2018년 평창 동계 올림픽 때 다국어 통번역 서비스를 제공할 예정이다. 현재의 다국어 통번역 시스템의 성능은 번역만 보았을 때, 영한 87.63%, 한영 88.21%, 중한 85.38%, 한중 77.94%, 일한 89.00%, 한일 86.69%, 스한 76.90%, 한스 77.46%, 불한 76.28%, 한불 79.78%이다.

Classification of Korean Parts-of-Speech for Korean-English Machine Translation (한.영 기계번역을 위한 한국어 품사 분류)

  • 송재관;박찬곤
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.165-167
    • /
    • 1998
  • 본 논문에서는 한.영 기계번역을 위한 한국어 품사 분류를 한다. 한국어 표준문법에서 제시되는 품사 분류 기준은 의미, 기능, 형식의 세 가지 기준을 적용하고 있으며, 자연언어처리에서도 같은 분류 기준을 바탕으로 하고 있다. 품사 분류에 여러 가지 기준을 적용하는 것은 문법구조 이해 및 품사 분류를 어렵게 한다. 또한 한.영 기계번역시 품사의 불일치로 전처리가 필요하다. 이러한 문제를 해결하기 위하여 본 논문에서는 하나의 기준을 적용하여 품사 분류를 한다. 방법으로 한국어 표준문법에 의하여 말뭉치에 태깅하고 문제점을 찾아내며, 새로운 기준에 의하여 품사 분류를 한다. 본 논문에서 분류된 품사는 한국어 문장에서 통사적 역할이 동일하고, 영에서의 사전 품사와 동일하다. 또한 품사 분류의 모호성을 제거하고, 한국어의 문장 구조를 명확히 표현하며, 한.영 기계번역시 패턴 매칭에 의한 목적언어 생성이 가능하다.

  • PDF

Teaching English Pronunciation for International Communication

  • Park, Joo-Kyung
    • Proceedings of the KSPS conference
    • /
    • 2000.07a
    • /
    • pp.36-43
    • /
    • 2000
  • Koreans' interest in and concern with learning English are at the peak as more actions and transactions in our daily life are carried out in English. Even though we are experiencing a big transition from a conventional grammar-translation method to communicative language teaching, little efforts have been made to set the new goals and objectives, norms and standards, and to develop new instructional methods for teaching pronunciation for international communication. This lecture will introduce a new approach of teaching English pronunciation for international communication, suggesting how to implement it to Korean ELT classrooms. It will also address the necessity of research on Korean learners of English, focusing on their perception and production of English sounds for international intelligibility and identity,

  • PDF

The Trends and Application of Automatic Speech Translation Technology (자동통역 기술 동향 및 응용)

  • Kim, S.H.;Cho, H.Y.;Yun, S.;Kim, C.H.;Kim, S.H.
    • Electronics and Telecommunications Trends
    • /
    • v.25 no.3
    • /
    • pp.28-39
    • /
    • 2010
  • 근래에 국가간 인적, 물적 교류가 활발해지면서 언어 장벽으로 인한 문제를 해결하기 위한 자동통역 기술의 중요성이 부각되고 있다. 세계 각국에서는 1990년대부터 시작된 정부차원의 연구개발 단계를 거쳐 시범 서비스 및 실용화를 위한 연구개발에 박차를 가하고 있으며, 현재 이라크 내 미군에 의한 군사 목적, 미국 내 병원 진료, 여행시 통역 등의 목적에 자동통역 기술이 활용되고 있다. 본 고에서는 자동통역 기술 및 핵심 요소기술에 대해 설명하고 최근 자동통역 기술의 개발 동향 및 응용 사례에 대해 기술한다.

Korean-English statistical speech translation Using n-best re-ranking (n-best 리랭킹을 이용한 한-영 통계적 음성 번역)

  • Lee, Dong-Hyeon;Lee, Jong-Hoon;Lee, Gary Geun-Bae
    • Annual Conference on Human and Language Technology
    • /
    • 2006.10e
    • /
    • pp.171-176
    • /
    • 2006
  • 본 논문에서는 n-best 리랭킹을 이용한 한-영 통계적 음성 번역 시스템에 대해 논하고 있다. 보통의 음성 번역 시스템은 음성 인식 시스템, 자동 번역 시스템, 음성 합성 시스템이 순차적으로 결합되어 있다. 하지만 본 시스템은 음성 인식 오류에 보다 강인한 시스템을 만들기 위해 음성 인식 시스템으로부터 n-best 인식 문장을 추출하여 번역 결과와 함께 리랭킹의 과정을 거친다. 자동 번역 시스템으로 구절기반 통계적 자동 번역 모델을 사용하여, 음성 인식기의 발음 모델에서 기본 단어 단위와 맞추어 번역 모델과 언어 모델을 훈련시킴으로써 음성 번역 시스템에서 형태소 분석기를 제거할 수 있다. 또한 음성 인식 시스템에서 상황 별로 언어 모델을 분리하여 처리함으로써 자동 번역 시스템에 비해 부족한 음성 인식 시스템의 처리 범위를 보완할 수 있었다.

  • PDF

Gendered innovation for algorithm through case studies (음성·영상 신호 처리 알고리즘 사례를 통해 본 젠더혁신의 필요성)

  • Lee, JiYeoun;Lee, Heisook
    • Journal of Digital Convergence
    • /
    • v.16 no.12
    • /
    • pp.459-466
    • /
    • 2018
  • Gendered innovations is a term used by policy makers and academics to refer the process of creating better research and development (R&D) for both men and women. In this paper, we analyze the literatures in image and speech signal processing that can be used in ICT, examine the importance of gendered innovations through case study. Therefore the latest domestic and foreign literature related to image and speech signal processing based on gender research is searched and a total of 9 papers are selected. In terms of gender analysis, research subjects, research environment, and research design are examined separately. Especially, through the case analysis of algorithms of the elderly voice signal processing, machine learning, machine translation technology, and facial gender recognition technology, we found that there is gender bias in existing algorithms, and which leads to gender analysis is required. We also propose a gendered innovations method integrating sex and gender analysis in algorithm development. Gendered innovations in ICT can contribute to the creation of new markets by developing products and services that reflect the needs of both men and women.

Design and Implementation of Finger Language Translation System using Raspberry Pi and Leap Motion (라즈베리 파이와 립 모션을 이용한 지화 번역 시스템 설계 및 구현)

  • Jeong, Pil-Seong;Cho, Yang-Hyun
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.19 no.9
    • /
    • pp.2006-2013
    • /
    • 2015
  • Deaf are it is difficult to communicate to represent the voice heard, so theay use mostly using the speech, sign language, writing, etc. to communicate. It is the best way to use sign language, in order to communicate deaf and normal people each other. But they must understand to use sign language. In this paper, we designed and implementated finger language translation system to support communicate between deaf and normal people. We used leap motion as input device that can track finger and hand gesture. We used raspberry pi that is low power sing board computer to process input data and translate finger language. We implemented application used Node.js and MongoDB. The client application complied with HTML5 so that can be support any smart device with web browser.

A study about the aspect of translation on 'Kyo(驚)' in novel 『Kokoro』 -Focusing on novels translated in Korean and English (소설 『こころ』에 나타난 감정표현 '경(驚)'에 관한 번역 양상 - 한국어 번역 작품과 영어 번역 작품을 중심으로 -)

  • Yang, JungSoon
    • Cross-Cultural Studies
    • /
    • v.51
    • /
    • pp.329-356
    • /
    • 2018
  • Types of emotional expressions are comprised of vocabulary that describes emotion and composition of sentences to express emotion such as an exclamatory sentence and a rhetorical question, expressions of interjection, adverbs of attitude for an idea, and a style of writing. This study is focused on vocabulary that describes emotion and analyzes the aspect of translation when emotional expression of 'Kyo(驚)' is shown in "Kokoro". As a result, the aspect of translation for expression of 'Kyo(驚)' showed that it was translated to vocabulary as suggested in the dictionary in some cases. However, it was not always translated as suggested in the dictionary. Vocabulary that describes the emotion of 'Kyo(驚)' in Japanese sentences is mostly translated to corresponding parts of speech in Korean. Some adverbs needed to add 'verbs' when they were translated. Different vocabulary was added or used to maximize emotion. However, the corresponding part of speech in English was different from Korean. Examples of Japanese sentences expressing 'Kyo(驚)' by verbs were translated to expression of participles for passive verbs such as 'surprise' 'astonish' 'amaze' 'shock' 'frighten' 'stun' in many cases. Idioms were also translated with focus on the function of sentences rather than the form of sentences. Those expressed in adverbs did not accompany verbs of 'Kyo(驚)'. They were translated to expression of participles for passive verbs and adjectives such as 'surprise' 'astonish' 'amaze' 'shock' 'frighten' 'stun' in many cases. Main agents of emotion were showat the first person and the third person in simple sentences. Translation of emotional expressions when a main agent was the first person showed that the fundamental word order of Japanese was translated as in Korean. However, adverbs of time and adverbs of degree were ended to be added. The first person as the main agent of emotion was positioned at the place of subject when it was translated in English. However, things or causes of events were positioned at the place of subject in some cases to show the degree of 'Kyo(驚)' which the main agent experienced. The expression of conjecture and supposition or a certain visual and auditory basis was added to translate the expression of emotion when the main agent of emotion was the third person. Simple sentences without the main agent of emotion showed that their subjects could be omitted even if they were essential components because they could be known through context in Korean. These omitted subjects were found and translated in English. Those subjects were not necessarily human who was the main agent of emotion. They could be things or causes of events that specified the expression of emotion.