• 제목/요약/키워드: speech DB

검색결과 167건 처리시간 0.033초

산업용 음성 DB 메타데이터 표준화 (Standardization of XML based Meta-data for Industrial Speech Databases)

  • 주영희;홍기형
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2005년도 추계 학술대회 발표논문집
    • /
    • pp.211-214
    • /
    • 2005
  • 본고에서는 산업용 음성 DB를 위한 XML 기반 메타데이터의 표준화에 대한 현재 상황과 표준화 활동에 대하여 소개한다. 산업용 음성 DB는 구축에 많은 시간과 비용을 요구하며, 양질의 음성 처리 시스템 (인식/합성/인증)의 개발을 위해서는 가능한 많은 양의 음성 데이터가 필요하다. 산업용 음성 DB 메타데이터 표준화는 서로 다른 기관에서 구축한 음성 DB의 공유와 재사용을 원활히 하기 위하여, 2004년 9월부터 요구사항 분석을 시작하여, 2005년 3월 초안이 완성되었다. 본 표준안은 음성 DB 메타데이터의 구조를 XML 기반으로 정의한 것이며, 음성 파일 이름, 화자 식별자, 음소 기호와 같은 구조 외의 표준화 대상에 대해서는 다루지 않는다. 이미 ETRI와 SiTEC [5]에서 XML 기반의 메타데이터 구조와 내용 표준안을 제안한 바 있으나. [5]에서 제안한 구조는 평면 구조를 취하고 있어 내용의 중복성등의 단점이 있어, 이를 보완하여 음성 DB 데이터 모델을 객체지향 방식으로 설계하였다.

  • PDF

한국인 표준 음성 DB 구축 (Developing a Korean Standard Speech DB)

  • 신지영;장혜진;강연민;김경화
    • 말소리와 음성과학
    • /
    • 제7권1호
    • /
    • pp.139-150
    • /
    • 2015
  • The data accumulated in this database will be used to develop a speaker identification system. This may also be applied towards, but not limited to, fields of phonetic studies, sociolinguistics, and language pathology. We plan to supplement the large-scale speech corpus next year, in terms of research methodology and content, to better answer the needs of diverse fields. The purpose of this study is to develop a speech corpus for standard Korean speech. For the samples to viably represent the state of spoken Korean, demographic factors were considered to modulate a balanced spread of age, gender, and dialects. Nine separate regional dialects were categorized, and five age groups were established from individuals in their 20s to 60s. A speech-sample collection protocol was developed for the purpose of this study where each speaker performs five tasks: two reading tasks, two semi-spontaneous speech tasks, and one spontaneous speech task. This particular configuration of sample data collection accommodates gathering of rich and well-balanced speech-samples across various speech types, and is expected to improve the utility of the speech corpus developed in this study. Samples from 639 individuals were collected using the protocol. Speech samples were collected also from other sources, for a combined total of samples from 1,012 individuals.

연결 단어 음성 인식기 학습용 음성DB 녹음을 위한 최적의 대본 작성 알고리즘 (The Optimal and Complete Prompts Lists Generation Algorithm for Connected Spoken Word Speech Corpus)

  • 유하진
    • 한국음향학회지
    • /
    • 제23권2호
    • /
    • pp.187-191
    • /
    • 2004
  • 연결 단어 인식기, 특히 연결 숫자음 인식기를 제작하기 위한 음성 데이터베이스를 구축하는데 있어서 완전하고 효율적인 발성목록을 작성하기 위한 알고리즘을 제안한다. 기존의 음성 DB에서 사용되는 목록은 주로 난수 발생기에 의하여 만들어지거나 사용자의 전화번호, 우편번호 등을 이용하여 만들어져 왔으므로 다양한 환경의 음소 또는 단어를 균일하게 포함하고 있지 못하다. 따라서 본 논문에서는 하나의 단어에 대하여 전후에 모든 단어가 연결되는 조합을 모두 한번씩 포함하는 목록을 만드는 효율적인 알고리즘을 제안한다. 본 알고리즘으로 7연 숫자 목록을 만들면 200개의 문장으로 모든 조합을 포함할 수 있게 된다. 본 논문에서는 알고리즘 예제와 본 알고리즘의 완전성과 효율성에 대하여 기술하였다.

x-vector를 이용한 다화자 음성합성 시스템 (A Multi-speaker Speech Synthesis System Using X-vector)

  • 조민수;권철홍
    • 문화기술의 융합
    • /
    • 제7권4호
    • /
    • pp.675-681
    • /
    • 2021
  • 최근 인공지능 스피커 시장이 성장하면서 사용자와 자연스러운 대화가 가능한 음성합성 기술에 대한 수요가 증가하고 있다. 따라서 다양한 음색의 목소리를 생성할 수 있는 다화자 음성합성 시스템이 필요하다. 자연스러운 음성을 합성하기 위해서는 대용량의 고품질 음성 DB로 학습하는 것이 요구된다. 그러나 많은 화자가 발화한 고품질의 대용량 음성 DB를 수집하는 것은 녹음 시간과 비용 측면에서 매우 어려운 일이다. 따라서 각 화자별로는 소량의 학습 데이터이지만 매우 많은 화자의 음성 DB를 사용하여 음성합성 시스템을 학습하고, 이로부터 다화자의 음색과 운율 등을 자연스럽게 표현하는 기술이 필요하다. 본 논문에서는 화자인식 기술에서 사용하는 딥러닝 기반 x-vector 기법을 적용하여 화자 인코더를 구성하고, 화자 인코더를 통해 소량의 데이터로 새로운 화자의 음색을 합성하는 기술을 제안한다. 다화자 음성합성 시스템에서 텍스트 입력에서 멜-스펙트로그램을 합성하는 모듈은 Tacotron2로, 합성음을 생성하는 보코더는 로지스틱 혼합 분포가 적용된 WaveNet으로 구성되어 있다. 학습된 화자 임베딩 신경망에서 추출한 x-vector를 Tacotron2에 입력으로 추가하여 원하는 화자의 음색을 표현한다.

발화속도 적응적인 한국어 연속음 인식기 (Adaptive Korean Continuous Speech Recognizer to Speech Rate)

  • 김재범;박찬규;한미성;이정현
    • 한국정보처리학회논문지
    • /
    • 제4권6호
    • /
    • pp.1531-1540
    • /
    • 1997
  • 본 논문에서는 발화속도 측정과 이를 통한 보상방법을 통하여 성능 향상된 한국어 연속음 인식 시스템을 제안한다. 연속음 인식은 다양한 조음화 현상과 발화속도의 변화로 인하여 고립단어 인식에 비하여 어렵다. 따라서, 연속음 인식을 위해서는 조음화 현상과 발화속도의 변화를 모델링할 수 있는 방법이 필요하다. 본 논문에서는 발화속도를 포만트의 변화율로서 측정하였고, 이 정보를 이용하여 빠른 발화에서는 상대적으로 많은 특징벡터를 발생시켜 보상을 시도하였다. 또한 조음화 현상을 모델링하기 위하여 한국어의 다이폰 집합을 514개로 정의하였고, 훈련을 위한 음성 DB론느 ETRI의 445 단어 DB를 사용하였다. 이러한 방법을 결합한 한국어 연속음 인식기를 DHMM (Discrete Hidden Markov Model)으로 구현하여 인식률이 향상됨을 보였다.

  • PDF

모바일 환경에서 인증과 음성인식을 위한 웹 서비스 구현 (An Implementation of the Web Service for Authorization and Speech Recognition in the Mobile Environment)

  • 오지영;김윤중;고유정
    • 한국멀티미디어학회논문지
    • /
    • 제8권2호
    • /
    • pp.225-232
    • /
    • 2005
  • PDA는 저장 공간이 제약적이고 입력을 위해 펜 기반장치를 사용해야 하므로 불편함을 지닌다. 본 논문에서는 이러한 불편함을 보완하기 위하여 기존의 음성인식 시스템을 XML(extensible Markup Language) 웹 서비스로 제공하고, PDA에서 음성인식 웹 서비스를 요청함으로써 음성명령이 가능하도록 구현하였다. 본 시스템의 구성은 모바일 클라이언트와 음성인식 웹 서비스 프로바이더로 되어 있다. 모바일 클라이언트는 사용자정보와 음성 데이터를 DIME(Direct Internet Message Encapsulation)을 이용하여 음성 인식 웹 서비스 프로바이더를 요청한다. 음성 인식 웹 서비스 프로바이더는 인증된 클라이언트에 한하여 음성 인식 결과와 사용자명을 반환하는 서비스를 제공한다. 따라서 이 시스템은 PDA에서 대용량의 음성 DB나 음성인식 시스템을 직접 탑재하지 않고도 음성인식 서비스를 이용할 수 있다.

  • PDF

음소 음향학적 변화 패턴을 이용한 한국어 음성신호의 연속 모음 분할 (Consecutive Vowel Segmentation of Korean Speech Signal using Phonetic-Acoustic Transition Pattern)

  • 박창목;왕지남
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2001년도 추계학술발표논문집 (상)
    • /
    • pp.801-804
    • /
    • 2001
  • This article is concerned with automatic segmentation of two adjacent vowels for speech signals. All kinds of transition case of adjacent vowels can be characterized by spectrogram. Firstly the voiced-speech is extracted by the histogram analysis of vowel indicator which consists of wavelet low pass components. Secondly given phonetic transcription and transition pattern spectrogram, the voiced-speech portion which has consecutive vowels automatically segmented by the template matching. The cross-correlation function is adapted as a template matching method and the modified correlation coefficient is calculated for all frames. The largest value on the modified correlation coefficient series indicates the boundary of two consecutive vowel sounds. The experiment is performed for 154 vowel transition sets. The 154 spectrogram templates are gathered from 154 words(PRW Speech DB) and the 161 test words(PBW Speech DB) which are uttered by 5 speakers were tested. The experimental result shows the validity of the method.

  • PDF

음성합성시스템을 위한 음색제어규칙 연구 (A Study on Voice Color Control Rules for Speech Synthesis System)

  • 김진영;엄기완
    • 음성과학
    • /
    • 제2권
    • /
    • pp.25-44
    • /
    • 1997
  • When listening the various speech synthesis systems developed and being used in our country, we find that though the quality of these systems has improved, they lack naturalness. Moreover, since the voice color of these systems are limited to only one recorded speech DB, it is necessary to record another speech DB to create different voice colors. 'Voice Color' is an abstract concept that characterizes voice personality. So speech synthesis systems need a voice color control function to create various voices. The aim of this study is to examine several factors of voice color control rules for the text-to-speech system which makes natural and various voice types for the sounding of synthetic speech. In order to find such rules from natural speech, glottal source parameters and frequency characteristics of the vocal tract for several voice colors have been studied. In this paper voice colors were catalogued as: deep, sonorous, thick, soft, harsh, high tone, shrill, and weak. For the voice source model, the LF-model was used and for the frequency characteristics of vocal tract, the formant frequencies, bandwidths, and amplitudes were used. These acoustic parameters were tested through multiple regression analysis to achieve the general relation between these parameters and voice colors.

  • PDF

음성 DB의 메타데이타 표준화 (Meta-data Standardization of Speech Database)

  • 김상훈
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2003년도 10월 학술대회지
    • /
    • pp.61-64
    • /
    • 2003
  • In this paper, we introduce a new description method of annotation information of speech database. As one of structured description methods, XML based description which has been standardized by W3C will be applied to represent metadata of speech database. It will be continuously revised through the speech technology standard forum during this year

  • PDF