• Title/Summary/Keyword: 음향음성학

Search Result 748, Processing Time 0.023 seconds

Nasal Place Detection with Acoustic Phonetic Parameters (음향음성학 파라미터를 사용한 비음 위치 검출)

  • Lee, Suk-Myung;Choi, Jeung-Yoon;Kang, Hong-Goo
    • The Journal of the Acoustical Society of Korea
    • /
    • v.31 no.6
    • /
    • pp.353-358
    • /
    • 2012
  • This paper describes acoustic phonetic parameters for detecting nasal place in a knowledge-based speech recognition system. Initial acoustic phonetic parameters are selected by studying nasal production mechanisms which are radiation of the sound through the nasal cavity. Nasals are produced with differing articulatory configuration which can be classified by measuring acoustic phonetic parameters such as band energy ratio, band energy differences, formants and formant differences. These acoustic phonetic parameters were tested in a classification experiment among labial nasal, alveolar nasal and velar nasal. An overall classification rate of 57.5% is obtained using the proposed acoustic phonetic parameters on the TIMIT database.

Classification of Diphthongs using Acoustic Phonetic Parameters (음향음성학 파라메터를 이용한 이중모음의 분류)

  • Lee, Suk-Myung;Choi, Jeung-Yoon
    • The Journal of the Acoustical Society of Korea
    • /
    • v.32 no.2
    • /
    • pp.167-173
    • /
    • 2013
  • This work examines classification of diphthongs, as part of a distinctive feature-based speech recognition system. Acoustic measurements related to the vocal tract and the voice source are examined, and analysis of variance (ANOVA) results show that vowel duration, energy trajectory, and formant variation are significant. A balanced error rate of 17.8% is obtained for 2-way diphthong classification on the TIMIT database, and error rates of 32.9%, 29.9%, and 20.2% are obtained for /aw/, /ay/, and /oy/, for 4-way classification, respectively. Adding the acoustic features to widely used Mel-frequency cepstral coefficients also improves classification.

Korean speech recognition based on grapheme (문자소 기반의 한국어 음성인식)

  • Lee, Mun-hak;Chang, Joon-Hyuk
    • The Journal of the Acoustical Society of Korea
    • /
    • v.38 no.5
    • /
    • pp.601-606
    • /
    • 2019
  • This paper is a study on speech recognition in the Korean using grapheme unit (Cho-sumg [onset], Jung-sung [nucleus], Jong-sung [coda]). Here we make ASR (Automatic speech recognition) system without G2P (Grapheme to Phoneme) process and show that Deep learning based ASR systems can learn Korean pronunciation rules without G2P process. The proposed model is shown to reduce the word error rate in the presence of sufficient training data.

A SPECTROGRAPHICAL STUDY OF KOREAN VOWELS

  • LEE H.B.;Zhi M.J.
    • MALSORI
    • /
    • no.6
    • /
    • pp.4-12
    • /
    • 1983
  • 이 논문은 음향 분석기를 이용하여 한국어의 단순모음 8개를 음향 음성학적으로 분석하고 그 결과를, 이 현복의 1971년 논문 "현대 서울말의 모음 음가"에서 기분 모음을 기준으로 하여 기술한 단순 모음의 소리값과 비교하는 데어 목적이 있다. 특히, 한국어의 모음 1)길고 세게 날 때, 2)짧고 세게 날 때, 그리고 3) 여리게 날 때의 세가지 환경에 따라 변이음의 음가가 달리 나타난다는 이 현복의 이론을 음향 음성학적으로 확인해 보는 것이 연구를 하는 주요 관심사이다. 이 실험에 사용된 자료는 위에 말한 이 현복의 논문과 "한국어 음성학"(김선기, 1937, 1971; 영문)에 제시된 낱말로 이루어져 있으며, 이를 스웨덴에 유학중인 지 민제가 자신의 목소리로 직접 녹음하여 위메오 대한 음성학과의 음향 음성학 실험실에서 음향분석기로 분석한 다음, 각 모음의 제1 및 제2포인트를 측정하여 리를 토대로 음향도를 만들었다. 이 실험 결과는 다음과 같이 요약할 수 있다. : 1)그림 2,3과 포먼트 표에서 보인 바와 같이, 모음 /이, 에, 오, 으/는 각각 이 현복의 주장대로 환경에 따라 세 개의 분명히 다른 음가를 나타내고 있다. 2) 한편 모음 /애, 아, 우, 어/는 모음의 길이에 따라 다만 두 종류의 음가 변동이 나타날 뿐이며 강세의 유무에 따른 음가 차이는 드러나지 않았다. 3) 이 현복의 주장대로 모음 /에/와 /애/mss 음가의 차이가 크지 않으므로 음운 대립이 무디어질 수 있음을 이번 실험 결과로 확인 하였다. 특히 강세가 없는 /에/는 강세가 있는 /애/와 소리값이 거의 같았다. 4) 이 현복은 표준말에서 /어/의 음가가 세대에 따라 다르며, 안정된 세대의 말씨에서는 /어:/가 /어/에 비해 높고 중앙화한 소리값을 지닌다는 주장을 하였다. 그러나 이 실험 연구에서는 녹음한 이가 젊은 세대이어서 인지 그러한 현상이 나타나지 않았고, 다만 /어:/는 /어/보다 높이만이 높은 것으로 나타났다. 5) 이번 실험 연구에서 모음의 소리값이 장단과 강세에 따라 달라진다는 이 현복의 주장이 대체로 증명된 셈이나, 종합적이고 확고한 결론을 내리려면 좀 더 광범한 실험 연구가 필요하다고 본다. 특히 안정된 세대의 말씨를 직접 녹음하여 음향 음성학적으로 분석함이 필요하다.

  • PDF

국내외 음성 인식 기술 동향 및 전망

  • 김순협
    • The Journal of the Acoustical Society of Korea
    • /
    • v.10 no.4
    • /
    • pp.58-63
    • /
    • 1991
  • 앞으로 추진될 자동통역 전화시스템 개발의 수행을 돕기위해 현재까지 개발되어온 국내외 음성인식 기술 및 현황에 대해 기술한다

  • PDF

Performance Evaluation of Acoustic Models According to Differences between Vocabularies in Training and Test Phases of Speech Recognition (음성 인식에서 훈련 및 인식 과정에 사용되는 대상 어휘의 차이에 대한 음향 모델의 성능 평가)

  • 김회린;이항섭;권오욱
    • The Journal of the Acoustical Society of Korea
    • /
    • v.17 no.7
    • /
    • pp.22-27
    • /
    • 1998
  • 본 논문에서는 ETRI에서 개발한 가변 어휘 음성 인식기의 어휘 독립 음향 모델링 방법을 기술하고, 이 모델의 어휘 종속, 어휘 독립 및 어휘적응 성능을 평가하기 위하여 다 양한 고립단어 및 연속음성 DB에 대하여 실험한 결과를 분석하였다. 평가를 위하여 사용한 음성 DB로는 고립단어 음성으로 POW(Phonetically Optimized Words) 3848, PBW(Phonetically Balanced Words) 445, PBW 452, 호텔예약 244 단어, 게임 제어용 단어 등이며, 연속음성으로 일반 문장 음성 및 연속 숫자음을 이용하였다. 성능 분석 결과 40개 음소 모델만으로도 비교적 높은 인식률을 보여 주었지만, 어휘독립의 경우는 어휘종속에 비 하여 성능이 크게 낮았고, 특히 대상 어휘가 숫자음, 알파벳, 연속음 등의 경우에는 POW 데이터나 PBW 데이터만 가지고는 우수한 가변 어휘 음성 인식기를 구현하기에 한계가 있 음을 알 수 있다. 또한, 훈련 데이터의 어휘와 평가데이터의 어휘가 비슷할 경우에는 변이음 모델을 사용하면 음소 모델만을 사용할 경우에 비하여 그 성능이 우수하였지만, 일반적인 어휘독립의 상황에서는 효과가 별로 없음을 알 수 있었다.

  • PDF

On Detecting the Steady State Segments of Phonemes by Using the Magnitude Distribution of Speech Waveforms (음성파형의 진폭분포를 이용한 음소의 정상상태 구간 검출)

  • 정덕조;배명진;안수길
    • The Journal of the Acoustical Society of Korea
    • /
    • v.10 no.6
    • /
    • pp.5-11
    • /
    • 1991
  • 연속음 인식을 위하여 연결된 음향 신호를 음소단위로 분할하는 것이 필요하다. 본 논문에서는 연속 음성에서의 정상상태 구간 검출을 위한 파라미터로서 진폭분포를 이용하는 방법을 제안하였다. 제 안된 진폭분포는 음성신호의 변화특성을 정확히 나타내며 이러한 프레임사이의 진폭분포를 이용하는 방 법을 제안하였다. 제안된 지폭분포는 음성 신호의 변화특성을 정확히 나타내며 이러한 프레임사이의 진 폭 분포 차이값을 비교하여 프레임의 안정구간과 천이구간을 구분할 수 있었다.

  • PDF

Speech/Silence Discrimination of Noisy Speech (잡음이 섞인 음성에서의 음성/무언의 구별)

  • 은종관;김현수
    • The Journal of the Acoustical Society of Korea
    • /
    • v.3 no.1
    • /
    • pp.36-42
    • /
    • 1984
  • 본 논문에서는 음성이 백색 Gaussian 잡음에 섞여 있을 때 음성의 유무를 구별하는 방법에 관해 서 연구되었다 제안된 방법은 음성과 무언이 입력신호의 에너지와 자기상관함수의 합에 의해서 구별된 다. 에너지의 threshold 치는 입력되는 잡음음성의 에너지와 자기상관함수를 비교함으로써 적응되도록 하였다. 이 방법을 시험하기 위해서 잡음이 없는 음성, 0, 10, 및 20 dB의 잡음이 섞인 음성을 사용하여 computer simulation을 하였다. SNR이 20dB일 때 구별의 오차율은 2%로 나왔다.

  • PDF

Speech Activity Decision with Lip Movement Image Signals (입술움직임 영상신호를 고려한 음성존재 검출)

  • Park, Jun;Lee, Young-Jik;Kim, Eung-Kyeu;Lee, Soo-Jong
    • The Journal of the Acoustical Society of Korea
    • /
    • v.26 no.1
    • /
    • pp.25-31
    • /
    • 2007
  • This paper describes an attempt to prevent the external acoustic noise from being misrecognized as the speech recognition target. For this, in the speech activity detection process for the speech recognition, it confirmed besides the acoustic energy to the lip movement image signal of a speaker. First of all, the successive images are obtained through the image camera for PC. The lip movement whether or not is discriminated. And the lip movement image signal data is stored in the shared memory and shares with the recognition process. In the meantime, in the speech activity detection Process which is the preprocess phase of the speech recognition. by conforming data stored in the shared memory the acoustic energy whether or not by the speech of a speaker is verified. The speech recognition processor and the image processor were connected and was experimented successfully. Then, it confirmed to be normal progression to the output of the speech recognition result if faced the image camera and spoke. On the other hand. it confirmed not to output of the speech recognition result if did not face the image camera and spoke. That is, if the lip movement image is not identified although the acoustic energy is inputted. it regards as the acoustic noise.

A Real-time Performance Evaluation System for Speech Waveform Coders (음성파형 부호화기의 실시간 성능측정 시스템)

  • 김용철;은종관
    • The Journal of the Acoustical Society of Korea
    • /
    • v.3 no.1
    • /
    • pp.43-54
    • /
    • 1984
  • 본 논문에서는 음성파형 부호화기의 성능을 실시간 측정하기 위한 시스템의 구현에 관하여 연구 하였다. 본 장비는 "bit slice" 마이크로프로세서로 설계되었다. 개발된 시스템으로 세 개의 codec의 성능 을 측정하였으며 이 결과를 distortion analyzer로 측정한 결과와 비교하였다. 개발된 장비는 음성 부호 화기의 성능시험을 위한 주관적 청취시험 과정을 피할 수 있게 되었다.

  • PDF