• Title/Summary/Keyword: 음소 추출

Search Result 86, Processing Time 0.026 seconds

Recognition of Korean Connected Digits in a Natural Spoken Dialog (대화체 음성에서의 한국어 연결 숫자음 인식)

  • 김중철;고종철;이정현
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.377-379
    • /
    • 2000
  • 대화체 음성의 인식을 위해서는 음성 파형에 관한 음향학적인 연구뿐만 아니라 인식하려는 언어자체에 대한 언어학적인 연구를 필요로 한다. 본 논문에서는 숫자음의 언어학적인 요소를 고려하고, 포만트 주파수를 숫자음 검출과 숫자음 인식에 적용하는 방식을 제안한다. 시스템의 입력은 특정 질의에 대한 응답으로 대화체 문장이며, 끝점 추출 기술을 이용하여 고립단어로 분류한 후, 숫자음만을 검출해 내고, 검출된 숫자음을 인식하기 위해 포만트 주파수를 이용한다. 한국어 연결 숫자음 인식은 한국어 숫자음이 단음절로 구성된다는 점과 발음상의 조음효과 등으로 한계를 가지고 있다. 본 논문에서는 숫자음과 발성에 필요한 음소들을 추출하고, 숫자들을 모음에 따라 6개의 그룹으로 분류하여 인식의 범위를 좁히고, 포만트 주파수 정보와 음소 HMM 모델에 의한 두 단계에 걸친 인식을 수행함으로써 연결 숫자음 인식에 대한 성능을 향상시킨다.

  • PDF

Voice Recognition using a Phoneme based Similarity Algorithm in Home Networks (음소 기반의 유사율 알고리즘을 이용한 Home Network 환경에서의 음성 인식)

  • Lee, Chang-Sub;Yu, Jae-Bong;Park, Joon-Seok;Yang, Soo-Ho;Kim, Yu-Seop;Park, Chan-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.767-770
    • /
    • 2005
  • 네트워크상에서 전달되는 음성데이터는 전달되는 과정에서 잡음 등의 외부 요인으로 인하여 데이터에 손실이 생기는 문제가 발생한다. 이렇게 전달된 음성데이터가 음성 인식기를 통과하면 바로 음성 인식기를 통과했을 때 보다 인식률이 낮아진다. 본 연구에서는 홈 네트워크를 제어하는데 있어서 음성 인식률을 향상시키기 위해서 음성 데이터를 입력받아, 이를 음소단위 기반의 유사율 알고리즘을 적용시켜 이미 구축된 홈 네트워크 용어 관련 사전에 등록된 단어와의 유사성을 검토하여 추출된 결과로 홈 네트워크를 제어하는 방안을 제안한다. 음소단위 기반의 유사율 알고리즘과 다중발화를 이용했을 때 Threshold 값이 85% 일 경우 사전에 구축된 단어와 매칭된 인식률은 100%였으며, 사전에 없는 단어의 오인식률은 2%로 감소되었다.

  • PDF

A Study on the Artificial Neural Networks for the Sentence-level Prosody Generation (문장단위 운율발생용 인공신경망에 관한 연구)

  • 신동엽;민경중;강찬구;임운천
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.53-56
    • /
    • 2000
  • 무제한 어휘 음성합성 시스템의 문-음성 합성기는 합성음의 자연감을 높이기 위해 여러 가지 방법을 사용하게되는데 그중 하나가 자연음에 내재하는 운을 법칙을 정확히 구현하는 것이다. 합성에 필요한 운율법칙은 언어학적 정보를 이용해 구현하거나, 자연음을 분석해 구한 운을 정보로부터 운율 법칙을 추출하여 합성에 이용하고 있다. 이와 같이 구한 운을 법칙이 자연음에 존재하는 운율 법칙을 전부 반영하지 못했거나, 잘못 구현되는 경우에는 합성음의 자연성이 떨어지게 된다. 이런 점을 고려하여 우리는 자연음의 운율 정보를 이용해 인공 신경망을 훈련시켜, 문장단위 운율을 발생시킬 수 있는 방식을 제안하였다. 운율의 세 가지 요소는 피치, 지속시간, 크기 변화가 있는데, 인공 신경망은 문장이 입력되면, 각 해당 음소의 지속시간에 따른 피치 변화와 크기 변화를 학습할 수 있도록 설계하였다. 신경망을 훈련시키기 위해 고립 단어 군과 음소균형 문장 군을 화자로 하여금 발성하게 하여, 녹음하고, 분석하여 구한 운을 정보를 데이터베이스로 구축하였다. 문장 내의 각 음소에 대해 지속시간과 피치 변화 그리고 크기 변화를 구하고, 곡선적응 방법을 이용하여 각 변화 곡선에 대한 다항식 계수와 초기치를 구해 운을 데이터베이스를 구축한다. 이 운을 데이터베이스의 일부를 인공 신경망을 훈련시키는데 이용하고, 나머지를 이용해 인공 신경망의 성능을 평가한 결과 운을 데이터베이스를 계속 확장하면 좀더 자연스러운 운율을 발생시킬 수 있음을 관찰하였다.

  • PDF

Improvement of Synthetic Speech Quality using a New Spectral Smoothing Technique (새로운 스펙트럼 완만화에 의한 합성 음질 개선)

  • 장효종;최형일
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.11
    • /
    • pp.1037-1043
    • /
    • 2003
  • This paper describes a speech synthesis technique using a diphone as an unit phoneme. Speech synthesis is basically accomplished by concatenating unit phonemes, and it's major problem is discontinuity at the connection part between unit phonemes. To solve this problem, this paper proposes a new spectral smoothing technique which reflects not only formant trajectories but also distribution characteristics of spectrum and human's acoustic characteristics. That is, the proposed technique decides the quantity and extent of smoothing by considering human's acoustic characteristics at the connection part of unit phonemes, and then performs spectral smoothing using weights calculated along a time axis at the border of two diphones. The proposed technique reduces the discontinuity and minimizes the distortion which is caused by spectral smoothing. For the purpose of performance evaluation, we tested on five hundred diphones which are extracted from twenty sentences using ETRI Voice DB samples and individually self-recorded samples.

Development of a lipsync algorithm based on A/V corpus (코퍼스 기반의 립싱크 알고리즘 개발)

  • 하영민;김진영;정수경
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.145-148
    • /
    • 2000
  • 이 논문에서는 2차원 얼굴 좌표데이터를 합성하기 위한 음성과 영상 동기화 알고리즘을 제안한다. 영상변수의 획득을 위해 화자의 얼굴에 부착된 표시를 추적함으로써 영상변수를 획득하였고, 음소정보뿐만 아니라 운율정보들과의 영상과의 상관관계를 분석하였으며 합성단위로 시각소에 기반한 코퍼스를 선택하고, 주변의 음운환경도 함께 고려하여 연음현상을 모델링하였다. 입력된 코퍼스에 해당되는 패턴들을 lookup table에서 선택하여 주변음소에 대해 기준패턴과의 음운거리를 계산하고 음성파일에서 운율정보들을 추출해 운율거리를 계산한 후 가중치를 주어 패턴과의 거리를 얻는다. 이중가장 근접한 다섯개의 패턴들의 연결부분에 대해 Viterbi Search를 수행하여 최적의 경로를 선택하고 주성분분석된 영상정보를 복구하고 시간정보를 조절한다.

  • PDF

A Study on the Input Pattern of Neural Network for Prosody Control in a Korean Sentence (문장 단위 운율 제어를 위한 신경망의 입력 패턴에 관한 연구)

  • 민경중
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.08a
    • /
    • pp.105-109
    • /
    • 1998
  • 법칙 합성 시스템은 합성 단위, 합성기, 합성방식 등 여러 가지 다양한 시스템이 있으나 순수한 법칙 합성 시스템이 아니고 기본 합성 단위를 연결하여 합성음을 발생시키는 연결 합성 시스템은 연결 단위사이 그리고 문장 단위에서의 매끄러운 합성 계수의 변화를 구현하지 못해 자연감이 떨어지는 실정이다. 자연감에 영향을 끼치는 주요 원인중의 하나가 운율 법칙의 부정확한 구현이므로 자연음으로부터 추출한 운율에 관한 법칙을 알고리듬화하는 대신 신경망으로 하여금 이 운율 법칙을 학습하도록 하여 좀더 자연음의 운율에 근접한 운율을 발생시키고자 하였다. 신경망으로 운율을 발생시키기 위해 먼저 운율에 영향을 주는 요소들을 정해 신경망 입력 패턴을 선정해야 한다. 먼저 분절요인에 의한 영햐응ㄹ 고려해주기 위해 전후 3음소를 동시에 입력시키고 문장내에서의 구문론적인 영향을 고려해주기 위해 해당 음소의 문장내에서의 위치, 운율구에 관한 정보등을 신경망의 입력 패턴으로 구성하였다.

  • PDF

Extension of K-L Dynamic Parameter for Connected Digit Recognition (숫자음 인식을 위한 K-L 동적 특징파라미터의 확장)

  • 김주곤
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.08a
    • /
    • pp.257-261
    • /
    • 1998
  • 일반적으로 인식률이 저조한 연속 숫자음의 인식 정도 향상을 위해서 K-L 동적특징의 확장에 대해서 검토한다. 이 검토결과를 4연속 숫자음을 대상으로 하는 인식 실험을 수행하여 숫자음 인식에 있어서 확장된 K-L 동적특징의 유효성을 확인하고자 한다. 이를 위하여 음성자료는 국어공학센터에서 채록한 4연속 숫자음을 사용하며, 확장한 K-L 동적특징의 유효성을 확인하기 위해서는 단일 특징 파라미터로서 멜-켑스트럼과 회귀계수, K-L 동적계수 등과 이들 특징 파라미터를 결합한 경우에 대해서 특징파라미터를 확장하여 K-L 동적 특징을 추출하고, 4연속 숫자음인식 실험을 수행하였다. 이때 인식의 기본 단위로는 48개의 유사음소단위를 음소모델로 사용하였으며, 인식실험에 있어서는 유한 상태 오토마타에 의한 구문제어를 통한 OPDP 법을 이용하였다. 인식 실험 결과, 단일 특징파라미터로서 멜-켑스트럼을 사용한 경우 67.5%, 이를 확장한 K-L 동적계수를 사용한 경우 78.2%를 보였다. 또한 결합한 특징파라미터에 있어서는 멜-켑스트럼과 희귀계수를 사용한 경우 78.4%의 인식률을 보였으며, 이를 K-L 동적계수로 확장한 경우 82.3%의 인식률을 얻어 확장한 K-L 동적특징파라미터의 유효성을 확인하였다.

  • PDF

A study on Auto-Segmentation Improvement for a Large Speech DB (대용량 음성 D/B 구축을 위한 AUTO-SEGMENTATION에 관한 연구)

  • Lee Byong-soon;Chang Sungwook;Yang Sung-il;Kwon Y.
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.209-212
    • /
    • 2000
  • 본 논문은 음성인식에 필요한 대용량 음성 D/B 구축을 위한 auto-segmentation의 향상에 관한 논문이다. 50개의 우리말 음소(잡음, 묵음 포함)를 정하고 음성특징으로 MFCC(Mel Frequency Cepstral Coefficients), $\Delta$MFCC, $\Delta\Delta$MFCC, 39차를 추출한 다음 HMM 훈련과 CCS(Constrained Clustering Segmentation) 알고리즘(1)을 사용하여auto-segmentation을 수행하였다. 이 과정에서 대부분의 음소는 오류범위$(\pm25ms)$ 안에서 분절이 이루어지지만, 짧은 묵음, 모음+유성자음('ㅁ', 'ㄴ', 'ㄹ', 'o') 등에서 자주 오류범위를 넘어 분절이 발생하였다. 이러한 음운환경에 따른 경계의 오류를 구간별로 Wavelet 변환 신호의 MLR(Maximum Likelihood Ratio) 값을 이용, 기존 문제점을 보완하여 오류의 범위를 줄임으로서 auto-segmentation의 성능 향상을 얻을 수 있었다.

  • PDF

Coarticulation Model of Hangul Visual speedh for Lip Animation (입술 애니메이션을 위한 한글 발음의 동시조음 모델)

  • Gong, Gwang-Sik;Kim, Chang-Heon
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.26 no.9
    • /
    • pp.1031-1041
    • /
    • 1999
  • 기존의 한글에 대한 입술 애니메이션 방법은 음소의 입모양을 몇 개의 입모양으로 정의하고 이들을 보간하여 입술을 애니메이션하였다. 하지만 발음하는 동안의 실제 입술 움직임은 선형함수나 단순한 비선형함수가 아니기 때문에 보간방법에 의해 중간 움직임을 생성하는 방법으로는 음소의 입술 움직임을 효과적으로 생성할 수 없다. 또 이 방법은 동시조음도 고려하지 않아 음소들간에 변화하는 입술 움직임도 표현할 수 없었다. 본 논문에서는 동시조음을 고려하여 한글을 자연스럽게 발음하는 입술 애니메이션 방법을 제안한다. 비디오 카메라로 발음하는 동안의 음소의 움직임들을 측정하고 입술 움직임 제어 파라미터들을 추출한다. 각각의 제어 파라미터들은 L fqvist의 스피치 생성 제스처 이론(speech production gesture theory)을 이용하여 실제 음소의 입술 움직임에 근사한 움직임인 지배함수(dominance function)들로 정의되고 입술 움직임을 애니메이션할 때 사용된다. 또, 각 지배함수들은 혼합함수(blending function)와 반음절에 의한 한글 합성 규칙을 사용하여 결합하고 동시조음이 적용된 한글을 발음하게 된다. 따라서 스피치 생성 제스처 이론을 이용하여 입술 움직임 모델을 구현한 방법은 기존의 보간에 의해 중간 움직임을 생성한 방법보다 실제 움직임에 근사한 움직임을 생성하고 동시조음도 고려한 움직임을 보여준다.Abstract The existing lip animation method of Hangul classifies the shape of lips with a few shapes and implements the lip animation with interpolating them. However it doesn't represent natural lip animation because the function of the real motion of lips, during articulation, isn't linear or simple non-linear function. It doesn't also represent the motion of lips varying among phonemes because it doesn't consider coarticulation. In this paper we present a new coarticulation model for the natural lip animation of Hangul. Using two video cameras, we film the speaker's lips and extract the lip control parameters. Each lip control parameter is defined as dominance function by using L fqvist's speech production gesture theory. This dominance function approximates to the real lip animation of a phoneme during articulation of one and is used when lip animation is implemented. Each dominance function combines into blending function by using Hangul composition rule based on demi-syllable. Then the lip animation of our coarticulation model represents natural motion of lips. Therefore our coarticulation model approximates to real lip motion rather than the existing model and represents the natural lip motion considered coarticulation.

A voice conversion based on probabilistic modeling (확률 모델링에 기초한 음성변환 시스템)

  • Lee, Eun;Kong, Eun-Bae
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10b
    • /
    • pp.169-171
    • /
    • 2001
  • 이 논문에서 논해지는 음성변환이라는 것은 어떤 화자의 음성(소스)을 다른 화자의 음성(타겟)으로 바꾸는 것이다. 이 때, 모든 음소들을 녹음해서 데이터베이스화한 음성끼리 매칭시키는 것이 아니라, 몇 번의 학습을 통하여 음색의 특징을 파악한 후 나온 변환함수를 이용하여 원래 화자의 음성을 타겟 음성으로 변환하는 시스템을 제안하고자 한다. 여기서, 음색의 특징들을 추출한 후, 변환함수를 만들기 위한 트레이닝을 위한 방법으로 Gaussian Mixture Modeling을 이용할 것이다.

  • PDF