• 제목/요약/키워드: vowel recognition

검색결과 138건 처리시간 0.021초

An Analysis of Acoustic Features Caused by Articulatory Changes for Korean Distant-Talking Speech

  • Kim Sunhee;Park Soyoung;Yoo Chang D.
    • The Journal of the Acoustical Society of Korea
    • /
    • 제24권2E호
    • /
    • pp.71-76
    • /
    • 2005
  • Compared to normal speech, distant-talking speech is characterized by the acoustic effect due to interfering sound and echoes as well as articulatory changes resulting from the speaker's effort to be more intelligible. In this paper, the acoustic features for distant-talking speech due to the articulatory changes will be analyzed and compared with those of the Lombard effect. In order to examine the effect of different distances and articulatory changes, speech recognition experiments were conducted for normal speech as well as distant-talking speech at different distances using HTK. The speech data used in this study consist of 4500 distant-talking utterances and 4500 normal utterances of 90 speakers (56 males and 34 females). Acoustic features selected for the analysis were duration, formants (F1 and F2), fundamental frequency, total energy and energy distribution. The results show that the acoustic-phonetic features for distant-talking speech correspond mostly to those of Lombard speech, in that the main resulting acoustic changes between normal and distant-talking speech are the increase in vowel duration, the shift in first and second formant, the increase in fundamental frequency, the increase in total energy and the shift in energy from low frequency band to middle or high bands.

인두피판술 전.후의 공명파라미터의 비교: 예비연구 (A Comparison of Resonance Parameters before and after Pharyngeal Flap Surgery:A Preliminary Report)

  • 강영애;강낙헌;이태용;성철재
    • 말소리와 음성과학
    • /
    • 제1권3호
    • /
    • pp.133-144
    • /
    • 2009
  • Pharyngeal flap surgery changes the space and shape of the oral cavity and vocal tract, and these changing conditions bring resonance change. The purpose of this study was to determine the most reliable and valuable parameters for evaluating hypernasality to distinguish two patients before and after pharyngeal flap surgery. Each patient was asked to clearly speak the vowels /a/, /i/, /u/, /e/, /o/ for voice recording. There were nine parameters: Formant (F1, F2, F3), Bandwidth (BW1, BW2, BW3), LPC energy slope ($\Delta$ |A2-A1/F2-F1|), and Band Energy (0-500 Hz, 500-1000 Hz) by each vowel. From the results of discrimination analyses on acoustic parameters, the vowels /a/, /e/ appeared to be insignificant but vowels /i/, /u/, /o/ appeared to be efficient in the separation. A 95%, 100%, and 100% recognition score could be reached when vowels /i/, /u/, and /o/ were analyzed. The results showed that F2, BW3, and LPC slope are more important parameters than the others. Finally, there is a relation between perceptual evaluation score and LPC energy slope of acoustic parameters by least square slope.

  • PDF

맹인용인공시각보조장치에 관한 연구 (Study for an Artificial Visual Machine for the Blind)

  • 홍승홍;이균하
    • 대한전자공학회논문지
    • /
    • 제15권5호
    • /
    • pp.19-24
    • /
    • 1978
  • 기계적 진동 주파수와 파형, 2점식별 thresho1d 치, 접촉자의 크기에 대한 피체 진동촉각의 기능적 성질을 심리물리실험에 의해 연구했다. 이의 실험 결과를 기초로 하여 압전 진동소자를 이용한 진동촉각 자극장치를 제작하여 한글을 인식하기 위한 맹인용 시각보조 장치로써 제안했다. 촉각출력상은 200 Hz의 구형파에 의해 진동하는 8열×l행의 소형 진동자열에 의해 집게 손가락에 표시했다. NOVA미니컴퓨터의 제어에 의해 한글 자모 24자중 하나를 택하여 진동자열의 8점에 왼쪽에서 오른쪽으로 제시하도록 했다. 한글 식별률실험은 설계한 실험시스템에 의해 학습효과없이 행했으며 측정된 평균식별률은 90%였다.

  • PDF

Development of Parameters for Diagnosing Laryngeal Diseases

  • Kim, Yong-Ju;Wang, Soo-Geun;Kim, Gi-Ryun;Kwon, Soon-Bok;Jeon, Kye-Rok;Back, Moo-Jin;Yang, Byung-Gon;Jo, Cheol-Woo;Kim, Hyung-Soon
    • 음성과학
    • /
    • 제10권1호
    • /
    • pp.117-129
    • /
    • 2003
  • Many people suffer from various laryngeal diseases. Since we can notice voice change easily, acoustic analysis can be helpful to diagnose the diseases. Several attempts have been made to clarify the relation between the parameters and the state of sick vocal folds but any decisive parameters are not found yet. The purpose of this study was to select and develop those parameters useful for diagnosing and differentiating laryngeal diseases. We examined eight MDVP parameters, and two additional MFCC and LPC parameters obtained from the production of an open vowel by 252 subjects with or without laryngeal diseases. Using a statistical procedure through the artificial neural networks, we attempted to differentiate laryngeal disease groups. Results showed that the LPC parameters indicated the highest differentiating rate by the networks followed by the MFCC and the MDVP parameters. In addition, Jita, Shim and NHR among the MDVP parameters came out better parameters in diagnosing laryngeal diseases.

  • PDF

A Relationship of Tone, Consonant, and Speech Perception in Audiological Diagnosis

  • Han, Woo-Jae;Allen, Jont B.
    • 한국음향학회지
    • /
    • 제31권5호
    • /
    • pp.298-308
    • /
    • 2012
  • This study was designed to examine the phoneme recognition errors of hearing-impaired (HI) listeners on a consonant-by-consonant basis, to show (1) how each HI ear perceives individual consonants differently and (2) how standard clinical measurements (i.e., using a tone and word) fail to predict these differences. Sixteen English consonant-vowel (CV) syllables of six signal-to-noise ratios in speech-weighted noise were presented at the most comfortable level for ears with mild-to-moderate sensorineural hearing loss. The findings were as follows: (1) individual HI listeners with a symmetrical pure-tone threshold showed different consonant-loss profiles (CLPs) (i.e., over a set of the 16 English consonants, the likelihood of misperceiving each consonant) in right and left ears. (2) A similar result was found across subjects. Paired ears of different HI individuals with identical pure-tone threshold presented different CLPs in one ear to the other. (3) Paired HI ears having the same averaged consonant score demonstrated completely different CLPs. We conclude that the standard clinical measurements are limited in their ability to predict the extent to which speech perception is degraded in HI ears, and thus they are a necessary, but not a sufficient measurement for HI speech perception. This suggests that the CV measurement would be a useful clinical tool.

한글 언어 교습 시스템 (Korean language teaching system)

  • 정재원;이종원
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2008년도 춘계 종합학술대회 논문집
    • /
    • pp.367-371
    • /
    • 2008
  • 이 시스템은 한국의 언어인 한글을 모르는 외국인뿐만 아니라 국내의 남녀노소 막론하고 불특정 다수를 위한 것이다. 앞서 말한 대상자들이 한글을 조력자 없이 혼자 배우는 것은 사실상 불가능 하다고 할 수 있다. 집안에서 혼자서도 문자를 이해하고 발음을 청취할 수 있는 시스템으로 한글의 자음과 모음이라는 특징을 활용한 AR환경에 입각한 시스템을 보여준다. 나아가 이 시스템을 이용한 단어학습 방법도 제시한다. 또한 현 수준은 데스크톱 기반 시스템이지만 PDA등의 hand-held 기반의 시스템으로의 발전을 기약할 수 있으며 적은 수의 마커를 사용하여 편리함을 도모하면서 인간과 컴퓨터 사이에 쉽게 상호작용하는 시스템을 선보인다.

  • PDF

Adaptive Background Modeling Considering Stationary Object and Object Detection Technique based on Multiple Gaussian Distribution

  • Jeong, Jongmyeon;Choi, Jiyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제23권11호
    • /
    • pp.51-57
    • /
    • 2018
  • In this paper, we studied about the extraction of the parameter and implementation of speechreading system to recognize the Korean 8 vowel. Face features are detected by amplifying, reducing the image value and making a comparison between the image value which is represented for various value in various color space. The eyes position, the nose position, the inner boundary of lip, the outer boundary of upper lip and the outer line of the tooth is found to the feature and using the analysis the area of inner lip, the hight and width of inner lip, the outer line length of the tooth rate about a inner mouth area and the distance between the nose and outer boundary of upper lip are used for the parameter. 2400 data are gathered and analyzed. Based on this analysis, the neural net is constructed and the recognition experiments are performed. In the experiment, 5 normal persons were sampled. The observational error between samples was corrected using normalization method. The experiment show very encouraging result about the usefulness of the parameter.

Watershed 변환을 이용한 효율적인 문자 영상 향상 및 영역 분할 (An Efficient Character Image Enhancement and Region Segmentation Using Watershed Transformation)

  • 최영규;이상범
    • 정보처리학회논문지B
    • /
    • 제9B권4호
    • /
    • pp.481-490
    • /
    • 2002
  • 오프라인 필기체 문자 인식은 동적인 정보를 가지고 있지 않고, 다양한 필기와 자음과 모음의 겹침이 심하며, 획 사이의 잡영을 많이 가지고 있어 불완전한 전처리를 수행하여야 하는 어려움이 있다. 따라서 오프라인 필기체 문자 인식은 다양한 방법의 전처리 즉 이진화 및 세선화에 대한 연구가 필요하다. 본 논문에서는 오프라인 필기체 한글 문자 인식의 전처리로서 워터쉐드 알고리즘의 수행 시간과 결과 영상의 품질을 고려해 그레이 레벨 문자 영상에서의 문자 영역과 배경 영역의 분할을 위한 효과적인 워터쉐드 알고리즘의 적용 방법과 추출된 워터쉐드 영상을 이진화하는 분할 함수를 제안한다. 또한 수행 시간과 골격선의 품질을 고려한 조건 검사 마스크를 통해서 효과적으로 골격선을 추출하는 세선화 방법을 제안하고 기존의 방법과 본 논문 방법을 수행 시간과 품질로써 성능을 평가한다. 실험 결과 기존의 방법은 평균 2.16초, 본 논문 방법은 평균 1.72초의 수행 시간이 걸렸다. 또한 결과 영상의 품질은 본 논문 방법이 문자 획 사이의 잡영을 효과적으로 처리함을 알 수 있었다.

어말 위치 /ㅗ/의 /ㅜ/ 대체 현상에 대한 문법 항목별 출현빈도 연구 (Frequency of grammar items for Korean substitution of /u/ for /o/ in the word-final position)

  • 윤은경
    • 말소리와 음성과학
    • /
    • 제12권1호
    • /
    • pp.33-42
    • /
    • 2020
  • 본 논문은 구어 말뭉치를 기반으로 한국어 /ㅗ/가 /ㅜ/로 고모음화되는 현상(예, '별로' [별루])에 대해 문법 항목별로 차이를 살펴보는 데 연구 목적이 있다. 한국어의 /ㅗ/와 /ㅜ/는 [+원순성] 자질을 공유하지만, 혀 높이 차이로 변별된다. 그러나 최근 /ㅗ/와 /ㅜ/의 두 모음의 음성적 구분이 모호해지는 병합 현상이 진행 중이라고 여러 논문에서 보고되었다. 본 연구에서는 어말 위치의 /ㅗ/가 한국어 자연언어 구어 말뭉치(The Korean Corpus of Spontaneous Speech)에서 음성적으로 [o] 또는 [u]로 실현되는 현상을 연결어미, 조사, 부사, 체언의 문법 항목별로 출현빈도 및 출현비율에 대해 살펴보았다. 실험 결과 연결어미, 조사, 부사에서 /ㅗ/는 약 50%의 비율로 /ㅜ/로 대체되는 것을 확인했고, 체언에서만 상당히 낮은 비율인 5% 미만으로 대체가 되는 것을 알 수 있었다. 고빈도 형태소 중에서 가장 높은 /ㅜ/ 대체율을 보인 형태소는 '-도 [두]' (59.6%)였고, 연결어미에서는 '-고 [구]' (43.5%)로 나타났다. 구어 말뭉치를 통하여 실제 발음형과 표준발음의 차이를 살펴보았다는 데 연구 의의가 있다.

한국인 화자의 외래어 발음 변이 양상과 음절 기반 외래어 자소-음소 변환 (Pronunciation Variation Patterns of Loanwords Produced by Korean and Grapheme-to-Phoneme Conversion Using Syllable-based Segmentation and Phonological Knowledge)

  • 류혁수;나민수;정민화
    • 말소리와 음성과학
    • /
    • 제7권3호
    • /
    • pp.139-149
    • /
    • 2015
  • This paper aims to analyze pronunciation variations of loanwords produced by Korean and improve the performance of pronunciation modeling of loanwords in Korean by using syllable-based segmentation and phonological knowledge. The loanword text corpus used for our experiment consists of 14.5k words extracted from the frequently used words in set-top box, music, and point-of-interest (POI) domains. At first, pronunciations of loanwords in Korean are obtained by manual transcriptions, which are used as target pronunciations. The target pronunciations are compared with the standard pronunciation using confusion matrices for analysis of pronunciation variation patterns of loanwords. Based on the confusion matrices, three salient pronunciation variations of loanwords are identified such as tensification of fricative [s] and derounding of rounded vowel [ɥi] and [$w{\varepsilon}$]. In addition, a syllable-based segmentation method considering phonological knowledge is proposed for loanword pronunciation modeling. Performance of the baseline and the proposed method is measured using phone error rate (PER)/word error rate (WER) and F-score at various context spans. Experimental results show that the proposed method outperforms the baseline. We also observe that performance degrades when training and test sets come from different domains, which implies that loanword pronunciations are influenced by data domains. It is noteworthy that pronunciation modeling for loanwords is enhanced by reflecting phonological knowledge. The loanword pronunciation modeling in Korean proposed in this paper can be used for automatic speech recognition of application interface such as navigation systems and set-top boxes and for computer-assisted pronunciation training for Korean learners of English.