• Title/Summary/Keyword: 훈련 음향 생성

Search Result 26, Processing Time 0.036 seconds

A Study On the Automatic Generation Algorithm of Reference Pattern Using Levelbuilding Algorithm. (Levelbuilding 알고리즘을 이용한 참조패턴의 자동생성 알고리즘에 관한 연구)

  • 김윤중
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.06c
    • /
    • pp.79-82
    • /
    • 1998
  • 본 연구에서는 연결단어 음성인식 상에서 올바른 참조 패턴을 생성하기 위해 Levelbuilding 알고리즘을 이용하여 인식대상 단어의 표본 집합(훈련패턴 집합)으로부터 참조 패턴을 자동적으로 생성하는 알고리즘을 개발하였다. 본 연구는 분한 K-Mans 훈련방법에 기초하고 있으며, Levelbuilding 알고리즘을 이용하여 훈련패턴으로부터 참조 패턴을 생성하는 것이다. 먼저 초기화 과정에서 훈련 패턴을 그에 포함된 단어 수만큼 등간격 분리하여 분리된 단어들을 소속 Cluster로 분류하고 각 Cluster의 Center들로 초기 참조패턴을 구성한다. 그리고 참조패턴, 제어정보 및 Levelbuilding 알고리즘을 이용하여 각 훈련패턴을 분리하고, 분리된 단어들을 소속 Cluster로 분류하여 단어 Cluster집합을 구성한 후 DTW 및 minimax알고리즘을 이용해 각 Cluster의 Center를 구하여 참조 패턴을 생성한다. 참조패턴 구성에 변화가 없을 때까지 전 단계의 참조패턴과 본 알고리즘을 반복 수행하여 최적의 참조패턴을 생성한다. 본 알고리즘을 이용하여 3개 숫자의 연결단어 집합으로부터 영('0')에서 구('9')까지 숫자음에 대한 참조패턴을 자동 생성하였다. 참조패턴 생성과정에서 가정 중요한 처리인 훈련패턴 분리과정을 분석하기 위하여 각 반복과정에서 분리된 정보를 그래프로 도시화하여 확인하였다.

  • PDF

Language Identification System using phoneme recognizer and phonotactic language model (음소인식기와 음소결합확률모델을 이용한 언어식별시스템)

  • Lee Dae-Seong;Kim Se-Hyun;Oh Yung-Hwan
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.73-76
    • /
    • 2001
  • 본 논문에서는 음소인식기와 음소결합확률모델을 이용하여 전화음성을 대상으로 입력음성이 어느 나라 말 인지를 식별할 수 있는 언어식별시스템을 구현하였고 성능을 실험하였다. 시스템은 음소인식기로 입력음성에 대한 음소열을 인식하는 과정, 인식된 음소열을 이용하여 인식대상 언어별 음소결합확률모델을 생성하는 훈련과정, 훈련과정에서 생성된 음소결합확률모델로부터 확률 값을 계산하여 인식결과를 출력하는 식별과정으로 구성된다. 본 논문에서는 음소결합확률모델로부터 우도를 계산할 때 정보이론(Information Theory, Shannon and Weaver, 1949)을 이용하여 가중치를 적용하는 방법을 제안하였다. 시스템의 훈련 및 실험에는 OGI 11개국어 전화음성 corpus (OGI-TS)를 사용하였으며, 음소인식기는 HTK를 이용하여 구현하였고 음소인식기 훈련에는 NTIMIT 전화음성 DB를 이용하였다. 실험결과 11개국어를 대상으로 45초 길이의 음성에 대해서 평균 $74.1\%$, 10초 길이의 음성에 대해서는 평균 $57.1\%$의 인식률을 얻을 수 있었다.

  • PDF

Development of Stereo Sound Authoring Tool to Modify and Edit 2Channel Stereo Sound Source Using HRTF (HRTF를 이용한 2채널 스테레오 음원을 수정 및 편집 할 수 있는 입체음향 저작도구 개발)

  • Kim, Young-Sik;Kim, Yong-Il;Bae, Myeong-Soo;Jeon, Su-Min;Lee, Dae-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.909-912
    • /
    • 2017
  • In implementing a computerized virtual training system, the auditory element is responsible for the human cognitive ability following visual elements. Especially, the improvement of hearing ability is closely related to the performance of the training, and it contributes to improvement of the training effect. In this paper, we propose a sound system that is necessary for constructing such a virtual training system as a test system that can use a sound source using a head related transfer function (HRTF). Functional and auditory tests were performed to evaluate system performance.

A Study on DTW Reference Pattern Creation Using Genetic Algorithm (유전자 알고리듬을 이용한 DTW 참조패턴 생성에 관한 연구)

  • 서광석
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.06e
    • /
    • pp.385-388
    • /
    • 1998
  • DTW를 이용한 음성인식에서는 참조패턴이 인식률에 절대적인 영향을 미치므로 가장 적합한 참조패턴의 생성이 중요한 요인으로 작용한다. 그러므로 인식률 향상을 위해 여러개의 참조패턴을 사용하는 방법이 있다. 그러나 이러한 방법은 게산량의 과다 및 사용 메모리의 증가 등이 단점으로 지적되고 있다. 따라서 본 논문에서는 참조패턴의 수를 줄이면서 높은 인식률을 얻기 위해 유전자 알고리듬을 이용하여 보다 우수한 참조패턴을 생성하여 음성인식에 적용하였다. 본 논문에서는 참조패턴 생성을 위하여 훈련에 참가한 자료를 서로 비교하여 DTW 거리값의 누적값이 최소가 되는 데이터를 선정하는 방법, 유전자 알고리듬을 이용한 방법으로 선정하는 방법으로 나누어 실험을 했고, 그 결과 누적값의 최소값을 이용하였을 경우 98.33%의 인식률을 얻을 수 있었던 반면에 유전자 알고리듬을 사용하였을 경우 100%의 화자종속 인식률을 얻을 수 있었다.

  • PDF

A Sound Interpolation Method Based on Deep Neural Networks for Virtual Reality Sound (가상현실 음향을 위한 심층신경망 기반 사운드 보간 기법)

  • Choi, Jaegyu;Choi, Seung Ho
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.11a
    • /
    • pp.194-196
    • /
    • 2018
  • 본 논문은 가상현실 음향 구현을 위한 심층신경망 기반 사운드 보간 방법에 관한 것으로서, 이를 통해 두 지점에서 취득한 음향 신호들을 사용하여 두 지점 사이의 음향을 생성한다. 산술평균이나 기하평균 같은 통계적 방법으로 사운드 보간을 수행할 수 있지만 이는 실제 비선형 음향 특성을 반영하기에 미흡하다. 이러한 문제를 해결하기 위해서 본 연구에서는 두 지점들과 목표 지점의 음향신호를 기반으로 심층신경망을 훈련하여 사운드 보간을 시도하였으며, 실험결과 통계적 방법에 비해 심층신경망 기반 사운드 보간 방법의 성능이 우수함을 보였다.

  • PDF

Break Strength Prediction Using Maximum a Posterior Probability (MAP 확률을 이용한 끊어 읽기 강도 예측)

  • Kim Sanghun;Park Jun;Lee Youngjik
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • spring
    • /
    • pp.75-78
    • /
    • 2000
  • 본 논문은 자연스러운 합성음 생성을 위한 끊어 읽기 강도 예측에 관한 것으로, 문장에 대한 품사열이 주어졌을 때 Posteriori 확률을 최대화하는 끊어 읽기 강도를 비터비 디코딩으로 예측한다. 훈련용 데이터는 여성화자 1인이 발성한 2,100 문장이며, 음성 데이터로부터 휴지길이(pause)에 따라 끊어 읽기 강도를 2단계로 할당하고, 텍스트에서는 30개의 품사 태그 심볼을 이용하여 형태소분석 및 태깅을 수행하였다. 관측확률은 3개 연속하는 품사열이 발생할 확률로 하고 끊어 읽기 강도 천이확률은 bigram으로 했을 때, cross validation 방법으로 성능 평가를 수행하였다 평가결과, 훈련데이타에 대해서는 $89.7\%$, 테스트 데이터에 대해서는 $84.9\%$의 예측정확률을 보였다.

  • PDF

Mask Estimation Based on Band-Independent Bayesian Classifler for Missing-Feature Reconstruction (Missing-Feature 복구를 위한 대역 독립 방식의 베이시안 분류기 기반 마스크 예측 기법)

  • Kim Wooil;Stern Richard M.;Ko Hanseok
    • The Journal of the Acoustical Society of Korea
    • /
    • v.25 no.2
    • /
    • pp.78-87
    • /
    • 2006
  • In this paper. we propose an effective mask estimation scheme for missing-feature reconstruction in order to achieve robust speech recognition under unknown noise environments. In the previous work. colored noise is used for training the mask classifer, which is generated from the entire frequency Partitioned signals. However it gives a limited performance under the restricted number of training database. To reflect the spectral events of more various background noise and improve the performance simultaneously. a new Bayesian classifier for mask estimation is proposed, which works independent of other frequency bands. In the proposed method, we employ the colored noise which is obtained by combining colored noises generated from each frequency band in order to reflect more various noise environments and mitigate the 'sparse' database problem. Combined with the cluster-based missing-feature reconstruction. the performance of the proposed method is evaluated on a task of noisy speech recognition. The results show that the proposed method has improved performance compared to the Previous method under white noise. car noise and background music conditions.

A Sound Interpolation Method Using Deep Neural Network for Virtual Reality Sound (가상현실 음향을 위한 심층신경망 기반 사운드 보간 기법)

  • Choi, Jaegyu;Choi, Seung Ho
    • Journal of Broadcast Engineering
    • /
    • v.24 no.2
    • /
    • pp.227-233
    • /
    • 2019
  • In this paper, we propose a deep neural network-based sound interpolation method for realizing virtual reality sound. Through this method, sound between two points is generated by using acoustic signals obtained from two points. Sound interpolation can be performed by statistical methods such as arithmetic mean or geometric mean, but this is insufficient to reflect actual nonlinear acoustic characteristics. In order to solve this problem, in this study, the sound interpolation is performed by training the deep neural network based on the acoustic signals of the two points and the target point, and the experimental results show that the deep neural network-based sound interpolation method is superior to the statistical methods.

Visual analysis of attention-based end-to-end speech recognition (어텐션 기반 엔드투엔드 음성인식 시각화 분석)

  • Lim, Seongmin;Goo, Jahyun;Kim, Hoirin
    • Phonetics and Speech Sciences
    • /
    • v.11 no.1
    • /
    • pp.41-49
    • /
    • 2019
  • An end-to-end speech recognition model consisting of a single integrated neural network model was recently proposed. The end-to-end model does not need several training steps, and its structure is easy to understand. However, it is difficult to understand how the model recognizes speech internally. In this paper, we visualized and analyzed the attention-based end-to-end model to elucidate its internal mechanisms. We compared the acoustic model of the BLSTM-HMM hybrid model with the encoder of the end-to-end model, and visualized them using t-SNE to examine the difference between neural network layers. As a result, we were able to delineate the difference between the acoustic model and the end-to-end model encoder. Additionally, we analyzed the decoder of the end-to-end model from a language model perspective. Finally, we found that improving end-to-end model decoder is necessary to yield higher performance.

Overlapping Sound Event Detection Using NMF with K-SVD Based Dictionary Learning (K-SVD 기반 사전 훈련과 비음수 행렬 분해 기법을 이용한 중첩음향이벤트 검출)

  • Choi, Hyeonsik;Keum, Minseok;Ko, Hanseok
    • The Journal of the Acoustical Society of Korea
    • /
    • v.34 no.3
    • /
    • pp.234-239
    • /
    • 2015
  • Non-Negative Matrix Factorization (NMF) is a method for updating dictionary and gain in alternating manner. Due to ease of implementation and intuitive interpretation, NMF is widely used to detect and separate overlapping sound events. However, NMF that utilizes non-negativity constraints generates parts-based representation and this distinct property leads to a dictionary containing fragmented acoustic events. As a result, the presence of shared basis results in performance degradation in both separation and detection tasks of overlapping sound events. In this paper, we propose a new method that utilizes K-Singular Value Decomposition (K-SVD) based dictionary to address and mitigate the part-based representation issue during the dictionary learning step. Subsequently, we calculate the gain using NMF in sound event detection step. We evaluate and confirm that overlapping sound event detection performance of the proposed method is better than the conventional method that utilizes NMF based dictionary.