• 제목/요약/키워드: Vowel classification

검색결과 42건 처리시간 0.023초

한국어 단음절에서 자음과 모음 자질의 비선형적 지각 (Nonlinear Interaction between Consonant and Vowel Features in Korean Syllable Perception)

  • 배문정
    • 말소리와 음성과학
    • /
    • 제1권4호
    • /
    • pp.29-38
    • /
    • 2009
  • This study investigated the interaction between consonants and vowels in Korean syllable perception using a speeded classification task (Garner, 1978). Experiment 1 examined whether listeners analytically perceive the component phonemes in CV monosyllables when classification is based on the component phonemes (a consonant or a vowel) and observed a significant redundancy gain and a Garner interference effect. These results imply that the perception of the component phonemes in a CV syllable is not linear. Experiment 2 examined the further relation between consonants and vowels at a subphonemic level comparing classification times based on glottal features (aspiration and lax), on place of articulation features (labial and coronal), and on vowel features (front and back). Across all feature classifications, there were significant but asymmetric interference effects. Glottal feature.based classification showed the least amount of interference effect, while vowel feature.based classification showed moderate interference, and place of articulation feature-based classification showed the most interference. These results show that glottal features are more independent to vowels, but place features are more dependent to vowels in syllable perception. To examine the three-way interaction among glottal, place of articulation, and vowel features, Experiment 3 featured a modified Garner task. The outcome of this experiment indicated that glottal consonant features are independent to both the place of articulation and vowel features, but the place of articulation features are dependent to glottal and vowel features. These results were interpreted to show that speech perception is not abstract and discrete, but nonlinear, and that the perception of features corresponds to the hierarchical organization of articulatory features which is suggested in nonlinear phonology (Clements, 1991; Browman and Goldstein, 1989).

  • PDF

Japanese Vowel Sound Classification Using Fuzzy Inference System

  • Phitakwinai, Suwannee;Sawada, Hideyuki;Auephanwiriyakul, Sansanee;Theera-Umpon, Nipon
    • 한국융합학회논문지
    • /
    • 제5권1호
    • /
    • pp.35-41
    • /
    • 2014
  • An automatic speech recognition system is one of the popular research problems. There are many research groups working in this field for different language including Japanese. Japanese vowel recognition is one of important parts in the Japanese speech recognition system. The vowel classification system with the Mamdani fuzzy inference system was developed in this research. We tested our system on the blind test data set collected from one male native Japanese speaker and four male non-native Japanese speakers. All subjects in the blind test data set were not the same subjects in the training data set. We found out that the classification rate from the training data set is 95.0 %. In the speaker-independent experiments, the classification rate from the native speaker is around 70.0 %, whereas that from the non-native speakers is around 80.5 %.

Deep Belief Network를 이용한 뇌파의 음성 상상 모음 분류 (Vowel Classification of Imagined Speech in an Electroencephalogram using the Deep Belief Network)

  • 이태주;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제21권1호
    • /
    • pp.59-64
    • /
    • 2015
  • In this paper, we found the usefulness of the deep belief network (DBN) in the fields of brain-computer interface (BCI), especially in relation to imagined speech. In recent years, the growth of interest in the BCI field has led to the development of a number of useful applications, such as robot control, game interfaces, exoskeleton limbs, and so on. However, while imagined speech, which could be used for communication or military purpose devices, is one of the most exciting BCI applications, there are some problems in implementing the system. In the previous paper, we already handled some of the issues of imagined speech when using the International Phonetic Alphabet (IPA), although it required complementation for multi class classification problems. In view of this point, this paper could provide a suitable solution for vowel classification for imagined speech. We used the DBN algorithm, which is known as a deep learning algorithm for multi-class vowel classification, and selected four vowel pronunciations:, /a/, /i/, /o/, /u/ from IPA. For the experiment, we obtained the required 32 channel raw electroencephalogram (EEG) data from three male subjects, and electrodes were placed on the scalp of the frontal lobe and both temporal lobes which are related to thinking and verbal function. Eigenvalues of the covariance matrix of the EEG data were used as the feature vector of each vowel. In the analysis, we provided the classification results of the back propagation artificial neural network (BP-ANN) for making a comparison with DBN. As a result, the classification results from the BP-ANN were 52.04%, and the DBN was 87.96%. This means the DBN showed 35.92% better classification results in multi class imagined speech classification. In addition, the DBN spent much less time in whole computation time. In conclusion, the DBN algorithm is efficient in BCI system implementation.

모음 인식과 벡터 양자화를 이용한 화자 인식 (Speaker Identification Based on Vowel Classification and Vector Quantization)

  • 임창헌;이황수;은종관
    • 한국음향학회지
    • /
    • 제8권4호
    • /
    • pp.65-73
    • /
    • 1989
  • 본 연구에서는, VQ(vector quantization)와 모음 인식에 기초한 화자 인식 알고리즘을 제안하고, 기존의 VQ를 사용한 화자 인식 알고리즘과 성능을 비교하였다. 제안된 화자 인식 알고리즘은 모음 분리, 모음 인식 그리고 평균 distortion양을 계산하는 3개의 과정으로 구성되며, 이때 주어진 음성 신호로부터 모음 부분을 분리하기 위해 RMS 에너지, BTR(Back-to-Total cavity volume Ratio) 그리고 SFBR(Signed-Front-to-Back maximum area Ratio)이 라는 3개 의 Parameter를 사용하였다. 입력 음성 신호의 SNR이 20 dB이고 정확한 모음 분리가 수행되었을 때, 제안된 화자 인식 알고리즘의 성능이 기존의VQ를 사용한 화자 인식 알고리즘의 성능보다 대체로 좋았으며, 입력 신호가 전화선을 통과한 신호이고 잡음이 있는 경우에도 유사한 결과를 얻을 수 있었다

  • PDF

VCV 연쇄음성상에 존재하는 한국어 자음의 분류에 관한 연구 (A Study on the Classification of the Korean Consonants in the VCV Speech Chain)

  • 최윤석;김기석;김원준;황희영
    • 대한전기학회논문지
    • /
    • 제39권6호
    • /
    • pp.607-615
    • /
    • 1990
  • In this paper, I propose the experimental models to classify the consonants in the Vowel-Consonant-Vowel (VCV) speech chain into four phonemic groups such as nasals, liquids, plosives and the others. To classify the fuzzy patterns like speech, it is necessary to analyze the distribution of acoustic feature of many training data. The classification rules are maximum 4 th order polynomial functions obtained by regression analysis, contributing collectively the result. The final result shows about 87% success rates with the data spoken by one man.

인쇄체 한글 문자 인식에 관한 연구 (The Recognition of Printed HANGUL Character)

  • 장승석;장동식
    • 대한산업공학회지
    • /
    • 제17권2호
    • /
    • pp.27-37
    • /
    • 1991
  • A recognition algorithm for Hangul is developed by structural analysis to Hangul in this theses. Four major procedures are proposed : preprocessing, type classification, separation of consonant and vowel, recognition. In the preprocessing procedure, the thinning algorithm proposed by CHEN & HSU is applied. In the type classification procedure, thinned Hangul image is classified into one of six formal types. In the separation of consonant and vowel procedure, starting from branch-points which are existed in a vowel, character elements are separated by means of tracing branch-point pixel by pixel and comparison with proposed templates. In the same time, the vowels are recognized. In the recognition procedure, consonants are extracted from the separated Hangul character and recognized by modified Crossing method. Recognized characters are converted into KS-5601-1989 codes. The experiments show that correct recognition rate is about 80%-90% and recognition speed is about 2-3 character persecond in three types of different input data on computer with 80386 microprocessor.

  • PDF

음질, 운율, 발음 특징을 이용한 마비말장애 중증도 자동 분류 (Automatic severity classification of dysarthria using voice quality, prosody, and pronunciation features)

  • 여은정;김선희;정민화
    • 말소리와 음성과학
    • /
    • 제13권2호
    • /
    • pp.57-66
    • /
    • 2021
  • 본 논문은 말 명료도 기준의 마비말장애 중증도 자동 분류 문제에 초점을 둔다. 말 명료도는 호흡, 발성, 공명, 조음, 운율 등 다양한 말 기능 특징의 영향을 받는다. 그러나 대부분의 선행연구는 한 개의 말 기능 특징만을 중증도 자동분류에 사용하였다. 본 논문에서는 음성의 장애 특성을 효과적으로 포착하기 위해 마비말장애 중증도 자동 분류에서 음질, 운율, 발음의 다양한 말 기능 특징을 반영하고자 하였다. 음질은 jitter, shimmer, HNR, voice breaks 개수, voice breaks 정도로 구성된다. 운율은 발화 속도(전체 길이, 말 길이, 말 속도, 조음 속도), 음높이(F0 평균, 표준편차, 최솟값, 최댓값, 중간값, 25 사분위값, 75 사분위값), 그리고 리듬(% V, deltas, Varcos, rPVIs, nPVIs)을 포함한다. 발음에는 음소 정확도(자음 정확도, 모음 정확도, 전체 음소 정확도)와 모음 왜곡도[VSA(vowel space area), FCR (formant centralized ratio), VAI(vowel articulatory index), F2 비율]가 있다. 본 논문에서는 다양한 특징 조합을 사용하여 중증도 자동 분류를 시행하였다. 실험 결과, 음질, 운율, 발음 특징 세 가지 말 기능 특징 모두를 분류에 사용했을 때 F1-score 80.15%로 가장 높은 성능이 나타났다. 이는 마비말장애 중증도 자동 분류에는 음질, 운율, 발음 특징이 모두 함께 고려되어야 함을 시사한다.

유형의 상대적 크기를 고려한 한글문자의 유형 분류 (Tyue Classification of Korean Characters Considering Relative Type Size)

  • 김병기
    • 한국컴퓨터정보학회논문지
    • /
    • 제11권6호
    • /
    • pp.99-106
    • /
    • 2006
  • 한글과 같이 문자집합이 큰 조합 문자의 인식을 위해서는 문제공간을 줄여주는 유형분류가 큰 도움이 된다. 기존 연구들이 한글 구성원리에 치중하여 한글 유형을 정한 결과 복모음 문자에 대한 정확한 분류가 어려웠고 문자집합이 상대적으로 큰 종성 있는 문자들에 대한 세분류가 부족하여 문제공간의 분배에 어려움이 많았다. 본 논문에서는 이러한 문제들을 해결하고자 수평 투영 프로파일을 이용하여 안정적 추출이 가능한 횡모음을 우선 추출하고. 수평 투영 프로파일과 연결요소를 이용하여 종성 있는 문자들에 대하여 종성을 5가지 그룹 중 하나로 세분류 하는 유형분류 방법을 제안하였다. 기존의 유형분류 방법들이 유형간 크기 불균형을 갖는 6개 혹은 15개의 유형을 가진 반면에 제안한 방법은 균형 있고 안정적 분류가 가능한 19개의 유형을 갖는다. 한글 잦기순 1.000자에 대한 7개의 상용 글꼴자료를 사용하여 분류 시스템을 만들고 월간지에서 스캔(Scan)한 30.614자에 대한 유형 분류 실험을 통하여 제안한 방법이 다양한 글꼴과 큰 문자집합을 갖는 한글 문자의 유형분류에 효율적임을 확인하였다.

  • PDF

인쇄체 한글 및 한자의 인식에 관한 연구 (A Study on the Printed Korean and Chinese Character Recognition)

  • 김정우;이세행
    • 한국통신학회논문지
    • /
    • 제17권11호
    • /
    • pp.1175-1184
    • /
    • 1992
  • 본 논문에서는 한자를 포함하는 한글 문서 인식을 위한 인쇄체 한글, 한자의 구분과 인식 방법에 대하여 연구하였다. 제안된 한글, 한자 구분 방법은 한글의 수직모음과 수평모음의 구조적 특징을 이용하였다. 한글은 6가지 형태로 분류하고 분류된 각 형태에 대하여 세선화 과정을 거치지 않고 모음 우선추출에 의한 자모분리를 행하고 분리된 자음에 대하여 변형된 교차거리 특징을 이용하여 인식하였다. 한자에 대해서는 획교차수의 평균치를 이용하여 전체 한자 대상문자에 대해 분류를 하였으며, 문자의 획교차수와 흑점비율 특징을 이용하여 인식하였다. 한글과 한자의 구분에서는 90.5%의 분류율을 얻었다. 한글인식에 있어서는 대상문자 명조체 2512자에 대하여 90.0%의 형태 분류율을 얻었다. 인식 결과 실험 데이타 1278자에 대하여 92.2%의 인식율을 얻었다. 한자인식에 있어서는 대상문자 4585자에 대하여 분류한 결과 최대밀집 구간은 124자로서 약 1/40 정도로 분류되었음을 알 수 있었고, 인식실험 결과 89.2%의 인식율을 얻었다.

  • PDF

형식별 블럭분할에 기초한 다중신경망과 퍼지추론에 의한 한글 형식분류 (Classification of Korean Character Type using Multi Neural Network and Fuzzy Inference based on Block Partition for Each Type)

  • 편석범;박종안
    • 한국음향학회지
    • /
    • 제13권4호
    • /
    • pp.5-11
    • /
    • 1994
  • 본 논문에서는 형식별 블럭분할에 기초한 다중신경망과 퍼지추론에 의한 한글 형식분류에 대해 연구하였다. 효과적인 자모분류를 위해 입력문자에 대해서 한글의 각 형식을 구성하는 자모의 영역으로 분할하는 블럭분할방법을 제한하였으며, 분할된 블럭이 형식에 따라 적응적으로 변화할 수 있도록 하였다. 또한 분류율의 향상을 위해 전체신경망과 부분신경망으로 이루어진 다중신경망을 구성하였으며, 퍼지추론에 의해 한글 형식을 판정하였다. 비교, 실험을 통하여 제안된 방법의 타당성을 검증하였으며, $92.6\%$의 분류율을 나타내므로서 유효성을 확인하였다.

  • PDF