• Title/Summary/Keyword: 음성 생성

Search Result 692, Processing Time 0.039 seconds

후두와 성도의 해부, 생리 및 병리

  • 정광윤
    • Proceedings of the KSLP Conference
    • /
    • 1995.11a
    • /
    • pp.63-78
    • /
    • 1995
  • 음성의 생성기전은 폐의 호기에 의하여 성대가 진동하여 원음이 발생하고, 원음이 하인두, 구인두, 비인두, 구강 등의 성도를 통과하면서 공명이 일어나며, 혀와 입술의 운동에 의하여 조음이 일어나서 결국은 음성이 생성되게 된다. 저자는 음성을 생성하는 후두 및 성도의 음성외과학적 구조 및 생리에 대하여 주로 언급하고, 성도에 발생하는 다양한 질환중 음성에 영향을 주는 질환만을 선택하여 간략히 설명하고자 한다. (중략)

  • PDF

Voice Synthesis Detection Using Language Model-Based Speech Feature Extraction (언어 모델 기반 음성 특징 추출을 활용한 생성 음성 탐지)

  • Seung-min Kim;So-hee Park;Dae-seon Choi
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.34 no.3
    • /
    • pp.439-449
    • /
    • 2024
  • Recent rapid advancements in voice generation technology have enabled the natural synthesis of voices using text alone. However, this progress has led to an increase in malicious activities, such as voice phishing (voishing), where generated voices are exploited for criminal purposes. Numerous models have been developed to detect the presence of synthesized voices, typically by extracting features from the voice and using these features to determine the likelihood of voice generation.This paper proposes a new model for extracting voice features to address misuse cases arising from generated voices. It utilizes a deep learning-based audio codec model and the pre-trained natural language processing model BERT to extract novel voice features. To assess the suitability of the proposed voice feature extraction model for voice detection, four generated voice detection models were created using the extracted features, and performance evaluations were conducted. For performance comparison, three voice detection models based on Deepfeature proposed in previous studies were evaluated against other models in terms of accuracy and EER. The model proposed in this paper achieved an accuracy of 88.08%and a low EER of 11.79%, outperforming the existing models. These results confirm that the voice feature extraction method introduced in this paper can be an effective tool for distinguishing between generated and real voices.

An acoustic Doppler-based silent speech interface technology using generative adversarial networks (생성적 적대 신경망을 이용한 음향 도플러 기반 무 음성 대화기술)

  • Lee, Ki-Seung
    • The Journal of the Acoustical Society of Korea
    • /
    • v.40 no.2
    • /
    • pp.161-168
    • /
    • 2021
  • In this paper, a Silent Speech Interface (SSI) technology was proposed in which Doppler frequency shifts of the reflected signal were used to synthesize the speech signals when 40kHz ultrasonic signal was incident to speaker's mouth region. In SSI, the mapping rules from the features derived from non-speech signals to those from audible speech signals was constructed, the speech signals are synthesized from non-speech signals using the constructed mapping rules. The mapping rules were built by minimizing the overall errors between the estimated and true speech parameters in the conventional SSI methods. In the present study, the mapping rules were constructed so that the distribution of the estimated parameters is similar to that of the true parameters by using Generative Adversarial Networks (GAN). The experimental result using 60 Korean words showed that, both objectively and subjectively, the performance of the proposed method was superior to that of the conventional neural networks-based methods.

A Automated Method for Training Keyword Spotter based on Speech Synthesis (키워드 음성인식을 위한 음성합성 기반 자동 학습 기법)

  • Lim, Jaebong;Lee, Jongsoo;Cho, Yonghun;Baek, Yunju
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.05a
    • /
    • pp.494-496
    • /
    • 2021
  • 최근 경량 딥러닝 기반 키워드 음성인식은 가전, 완구, 키오스크 등 다양한 응용에 음성 인터페이스를 쉽게 적용할 수 있는 기술로서 주목받고 있다. 키워드 음성인식은 일부 키워드만 인식 가능한 음성인식 기술로서 저성능 디바이스에서 활용 가능한 장점이 있다. 그러나 응용에 따라 필요한 키워드에 대하여 다시 음성데이터를 수집해야하고 이를 학습하여 모델을 새로 준비해야하는 단점이 있다. 따라서 본 연구에서는 음성데이터 수집 없이 음성합성을 통해 생성한 음성으로만 키워드 음성인식 모델을 학습하는 음성합성 기반 자동 학습 기법을 제안하였다. 생성한 음성데이터를 활용하고자하는 시도가 활발히 이루어지고 있으나, 기존 연구에서는 정확도를 유지하기 위하여 수집한 실제 음성데이터가 필요한 한계가 있다. 제안한 자동 학습 기법은 생성한 음성데이터에 대해 복합 데이터 증대 기법을 적용하여 실제 음성데이터 없이 키워드 음성인식의 정확도를 높였다. 제안한 기법에 대하여 상용 음성합성 서비스를 기반으로 수집한 한국어 키워드 데이터세트를 활용하여 성능평가를 진행하였다. 20개 한국어 키워드에 대해 실험한 결과, 제안한 기법을 적용하여 학습시킨 키워드 음성인식 모델의 정확도는 86.44%임을 확인하였다.

Service Scenario Creator of Voice Processing System (음성 처리 시스템의 서비스 시나리오 생성기)

  • Hwang, Byung-Chul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11b
    • /
    • pp.1313-1316
    • /
    • 2002
  • 본 논문은 음성 처리 시스템의 서비스 시나리오 생성기에 관한 것으로, 좀더 상세하게는, 음성 처리 시스템의 서비스 시나리오를 생성하기 위한 단위 서비스 상태를 각각 정의하고 수행하는 다수의 상태 정의 모듈과, 시나리오 작성자가 상기 다수의 상태 정의 모듈 중 서비스 시나리오의 작성에 필요한 상태 정의 모듈들을 추출하고 추출된 각 상태 정의 모듈의 입력 값, 비교 값 및 분기할 다음 상태 정의 모듈 명을 지정할 수 있도록 유저 인터페이스 기능을 제공하는 유저 인터페이스 모듈과, 시나리오 작성자에 의하여 추출된 상태 정의 모듈들에 상기 지정된 입력 값, 비교 값 및 분기할 다음 상태 정의 모듈 명을 입력하여 서비스 시나리오를 생성하는 서비스 시나리오 생성 모듈과, 생성된 서비스 시나리오를 제어부가 실행할 수 있는 실행 코드로 변환하여 제어부에 제공하는 실행 코드 변환 모듈로 이루어지는 음성 처리 시스템의 서비스 시나리오 생성기에 관한 것이다.

  • PDF

Subtitle generation using Speech recognition (음성인식기술을 이용한 자막생성 연구)

  • AHN, Chung Hyun;Jang, In Sun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.48-49
    • /
    • 2016
  • 본 논문에서는 동영상, 팟캐스트 오로부터 자막을 생성하여 청각장애인의 미디어 접근권을 향상시키는 음성인식기술을 적용한 자막생성에 대하여 제안한다. 또한 레퍼런스 음성 DB 와 드라마, 팟캐스트 오디오로부터 생성된 자막의 정확도에 대해 평가하였다. 오디오를 이용하여 생성된 자막은 사극의 경우에는 다소 정확도가 낮게 평가되었으나, 전체적으로는 약 80%이상의 정확도를 갖는 것으로 파악되었다.

  • PDF

A Study On the Automatic Generation System of Mobile Voice Web Page (모바일 음성 웹 페이지의 자동 생성 시스템에 관한 연구)

  • You-Jung Ko;Yoon-Joong Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.11a
    • /
    • pp.153-156
    • /
    • 2008
  • 모바일 기기는 화면의 크기가 작아 스타일러스나 펜으로 웹 컨텐츠를 이용하기에는 불편함이 있다. 이에 따라 음성으로 웹의 컨텐츠를 개발하기 위한 포준 언어인 VoiceXML(Voice Extenxible Markup Language), SALT(Speech application Language Tags)가 빠르게 보급되고 있다. 이를 이용하기 위해서는 기존의 모바일 웹페이지를 음성 웹 표준 기술에 맞게 변환해줘야 한다. 따라서 본 논문에서는 WML(Wireless Markup Language)로 구성된 모바일 웹 페이지를 SALT 음성기술을 이용하여 음성명령이 가능한 모바일 음성 웹페이지(WML + SALT)로 자동 생성하는 시스템을 구현 하고자 한다. 이에 따라 사용자는 음성명령을 통해 컨텐츠를 제어함으로써 편리함을 제공하고, 개발자는 자동 생성 시스템을 이용함으로써 기존의 모바일 웹 페이지를 음성 웹 페이지를 변환하기 위한 개발시간과 비용을 감소 할 수 있다.

Automatic Generation of Voice Web Pages Based on SALT (SALT 기반 음성 웹 페이지의 자동 생성)

  • Ko, You-Jung;Kim, Yoon-Joong
    • Journal of KIISE:Software and Applications
    • /
    • v.37 no.3
    • /
    • pp.177-184
    • /
    • 2010
  • As a voice browser is introduced, voice dialog application becomes available on the Web environment. The voice dialog application consists of voice Web pages that need to translate the dialog scripts into SALT(Speech Application Language Tags). The current Web pages have been designed for visual. They, however, are potentially capable of using voice dialog. This paper, therefore, proposes an automated voice Web generation method that finds the elements for voice dialog from Web pages based HTML and converts them into SALT. The automatic generation system of a voice Web page consists of a lexical analyzer and a syntactic analyzer that converts a Web page which is described in HTML to voice Web page which is described in HTML+SALT. The converted voice Web page is designed to be able to handle not only the current mouse and keyboard input but also voice dialog.

A Study on the interface design of the homepage builder focusing on the domestic portal sites (시각 장애인 홈페이지 빌더의 인터페이스 디자인에 관한 연구)

  • Ha, Tae-Hyeon;Baek, Hyeon-Gi
    • 한국디지털정책학회:학술대회논문집
    • /
    • 2005.06a
    • /
    • pp.497-503
    • /
    • 2005
  • 본 연구의 목표는 시각장애인을 위해 음성 인식, 음성 합성 기술을 이용하여 일반인과 마찬가지로 개인의 특성에 맞는 홈페이지를 구축하게 하는 웹 사이트 자동 생성 툴을 개발하는 것이며, 음성매일, 개인 일정, 주소록, 북마크 등을 생성 할 수 있는 개인정보관리기능은 물론 개인 맞춤 정보 생성 기능을 제공하며, 시각장애인들이 원하는 정보를 스스로 제공하여 일반인과 공유함으로써 의사소통의 통로 역할을 담당 할 수 있게 한다. 웹 사이트 자동 생성 툴에서는 기본적인 명령어를 음성인식으로 처리할 수 있게 지원하며 음성출력이 지원되는 TTS를 추가적으로 제공한다. 본 연구개발을 통해 시각장애인들이 사회적 소외감을 없애며 정보화 시대에 동등한 위치에서 생활 할 수 있도록 하는 것이다.

  • PDF

Speech Recognition Accuracy Measure using Deep Neural Network for Effective Evaluation of Speech Recognition Performance (효과적인 음성 인식 평가를 위한 심층 신경망 기반의 음성 인식 성능 지표)

  • Ji, Seung-eun;Kim, Wooil
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.21 no.12
    • /
    • pp.2291-2297
    • /
    • 2017
  • This paper describe to extract speech measure algorithm for evaluating a speech database, and presents generating method of a speech quality measure using DNN(Deep Neural Network). In our previous study, to produce an effective speech quality measure, we propose a combination of various speech measures which are highly correlated with WER(Word Error Rate). The new combination of various types of speech quality measures in this study is more effective to predict the speech recognition performance compared to each speech measure alone. In this paper, we describe the method of extracting measure using DNN, and we change one of the combined measure from GMM(Gaussican Mixture Model) score used in the previous study to DNN score. The combination with DNN score shows a higher correlation with WER compared to the combination with GMM score.