• Title/Summary/Keyword: phonetic system

검색결과 313건 처리시간 0.019초

음성 분석 정보값 비교를 통한 사상체질 태음인의 분류 (Classification of Sasang Constitution Taeumin by Comparative of Speech Signals Analysis)

  • 김봉현;이세환;조동욱
    • 정보처리학회논문지B
    • /
    • 제15B권1호
    • /
    • pp.17-24
    • /
    • 2008
  • 본 논문에서는 사상 체질 분류를 음성 분석 정보값의 비교, 분석을 통해 제안하고자 한다. 이를 위해 본 논문에서는 사상체질의 객관적 지표를 마련하기 위한 전체 시스템 구성 중 1차 단계로써 피부 진단을 통한 소음인의 분류 과정과 연계하여 음성 신호 분석에서 발생하는 정보의 출력값에 의해 태음인을 분류하는 방법을 제안하고자 한다. 우선 각 사상 체질별로 뚜렷한 특징을 보유하고 있는 집단군을 구성하고 이들의 음성 특성을 분류하여 음성학적 요소를 추출하고자 한다. 또한 출력된 결과값을 토대로 체질 집단별 차이점과 유사점을 통하여 태음인을 분류하고자 한다. 끝으로 실험에 의해 제안한 방법의 유용성을 입증하고자 한다.

네트워크 환경에서 서버용 음성 인식을 위한 MFCC 기반 음성 부호화기 설계 (A MFCC-based CELP Speech Coder for Server-based Speech Recognition in Network Environments)

  • 이길호;윤재삼;오유리;김홍국
    • 대한음성학회지:말소리
    • /
    • 제54호
    • /
    • pp.27-43
    • /
    • 2005
  • Existing standard speech coders can provide speech communication of high quality while they degrade the performance of speech recognition systems that use the reconstructed speech by the coders. The main cause of the degradation is that the spectral envelope parameters in speech coding are optimized to speech quality rather than to the performance of speech recognition. For example, mel-frequency cepstral coefficient (MFCC) is generally known to provide better speech recognition performance than linear prediction coefficient (LPC) that is a typical parameter set in speech coding. In this paper, we propose a speech coder using MFCC instead of LPC to improve the performance of a server-based speech recognition system in network environments. However, the main drawback of using MFCC is to develop the efficient MFCC quantization with a low-bit rate. First, we explore the interframe correlation of MFCCs, which results in the predictive quantization of MFCC. Second, a safety-net scheme is proposed to make the MFCC-based speech coder robust to channel error. As a result, we propose a 8.7 kbps MFCC-based CELP coder. It is shown from a PESQ test that the proposed speech coder has a comparable speech quality to 8 kbps G.729 while it is shown that the performance of speech recognition using the proposed speech coder is better than that using G.729.

  • PDF

국어 로마자 표기 자동 변환 시스템 설계 및 구현 (The design and implementation of automatic translation system for hangul's romanization)

  • 김홍섭
    • 한국컴퓨터정보학회지
    • /
    • 제2권1호
    • /
    • pp.45-54
    • /
    • 1995
  • 본 연구는 ASCII 코드중에서 잘 쓰이지 않는 코드를 반달점(ˇ)으로 할당, 글꼴을 제작하여, 사용자가 국어 로마자 표기법 기본원칙을 모르더라도 한글단어, 문장, 문서를 문자열(string)로 입력받아 알고리즘화된 음운법칙을 적용하여 소리글자로 자동 변환 후 현행 정부 표준안인 국어 로마자 표기법 테이블에서 대응 글자를 참조하여 기계화 코드 변환이 가능토록 설계하였으며, 예외어 처리, 화면색상 및 풀다운 팝업 메뉴 방식을 지원, 마우스 활용 방식을 채택, 사용자 편리성을 제공하였으며, 다양한 서체, 글꼴 확대 및 축소, 이단ㆍ혼합 인쇄기능 등을 고려 C언어를 이용하여 구현하였다.

  • PDF

차량용 항법장치에서의 관심지 인식을 위한 다단계 음성 처리 시스템 (Multi-layer Speech Processing System for Point-Of-Interest Recognition in the Car Navigation System)

  • 방기덕;강철호
    • 한국멀티미디어학회논문지
    • /
    • 제12권1호
    • /
    • pp.16-25
    • /
    • 2009
  • 안전성을 최우선시 해야 하는 자동차 환경에서 관심지 (POI, Point-Of-Interest) 도메인을 대상으로 하는 대용량 고려 단어 인식 시스템은 최적의 인간-기계 상호접속(HMI, Human-Machine Interface) 기술을 요구하고 있다. 하지만, 매우 제한된 연산처리 능력과 메모리를 가지는 텔레매틱스 단말기에서 10만 단어 이상을 일반적인 음성인식 방식으로 처리하기는 불가능하다. 따라서 본 논문에서는 텔레매틱스 단말기의 관심지 인식을 위하여 다단계 구조의 대용량 고립단어 인식 시스템을 제안하였다. 이 관심지 인식 시스템의 성능향상을 위해 음소별 가우시안 혼합모델(GMM, Gaussian Mixture Model)을 사용한 음소 인식기와 음소별 거리 행렬(PDM, Phoneme-distance Matric) 레빈쉬타인(Levenshtein) 거리를 제안하였다. 제안한 방법은 낮은 처리속도와 적은 양의 메모리를 가지는 텔레매틱스 단말기에서도 대용량 고립단어에 대하여 우수한 인식 성능을 나타내었다. 본 논문에서 제안한 다단계 인식 시스템을 사용하였을 경우 실내에서 최대 94.8%, 자동차환경에서는 최대 92.4%의 인식 성능을 얻을 수 있었다.

  • PDF

영-한 병렬 코퍼스로부터 외래어 표기 사전의 자동 구축 (Automatic Construction of Foreign Word Transliteration Dictionary from English-Korean Parallel Corpus)

  • 이재성
    • 컴퓨터교육학회논문지
    • /
    • 제6권2호
    • /
    • pp.9-21
    • /
    • 2003
  • 본 논문에서는 한국어 번역문과 영어 원문으로 구성된 병렬 코퍼스로부터 자동으로 외래어 표기 사전을 구축하는 시스템을 제안한다. 구축 시스템은 첫 단계로 한국어 문서에서 명사를 추출하고, 두 번째 단계에서 추출된 명사 중 언어 모델에 근거하여 외래어만을 추출한 후, 마지막 세 번째 단계에서 확률적 정렬 방법을 이용하여 외래어에 대응되는 영어를 추출한다. 특히, 외래어는 한국어 어미나 조사가 붙어서 같이 쓰이기 때문에, 한국어 어절 내에서 정확하게 외래어 부분만을 분리하기 위해, 병렬 코퍼스 내에 존재하는 대응 영어 단어 정보를 활용하였다. 또, 문자체계가 다른 두 단어를 같은 문자로 변환하지 않고 직접 음운 유사도를 비교할 수 있도록 했다. 실험 결과, 성능은 전처리 단계인 한국어 미등록어 및 외래어 추정에 영향을 많이 받았고, 수작업으로 전처리를 한 모델 중 가장 성능이 높은 것은 재현률 85.4%, 정확률 91.0%를 보였고, 전 과정을 자동으로 한 모델중에서는 재현률 68.3%, 정확률 89.2%를 보였다.

  • PDF

한국어 음운 변동 처리 규칙의 설계 및 구현 (Design and Implementation of Vocal Sound Variation Rules for Korean Language)

  • 이계영
    • 한국정보처리학회논문지
    • /
    • 제5권3호
    • /
    • pp.851-861
    • /
    • 1998
  • 한국어는 음운 변동 현상이 매우 발달되어 있다는 특징을 갖고 있다. 따라서, 음성 인식율의 제고와 음성 합성음의 자연스러움을 향상시키기 위해서는 음운 변동 현상을 비롯한 한국어의 모든 특징에 대한 체계적인 연구가 있어야 한다. 본 논문은 한국어의 제 특징 중에서 음운 변동 현상을 효율적으로 처리할 수 있는 규칙을 설계하고 구현함으로써, 한국어 음성 인식과 합성에 효율적으로 이용될 수 있음을 보인다. 음운 변동 규칙의 설계를 위하여 사용된 규정은 한글 맞춤법 통일안의 표준 발음법(7장 30항)이며, 일차적으로 각 규정별로 설계된 규칙을 최종적으로 27개 그룹으로 정리된 종성별 규칙을 제시하였다. 본 연구에서 제안된 음운 변동 처리 시스템은 한번의 규칙 적용으로 음운 변도 dgus상이 신속히 처리되는 잇점이 있으며, 단어 및 용언의 어간에 접속되는 정보에 대한 처리 내용까지도 제안된 규칙내에 수용하였기 때문에 문장 단위의 음성 인식과 합성 시스템의 연구에 도움을 줄 수 있다.

  • PDF

임베디드 환경에서의 실시간 립리딩 시스템 구현 (Real Time Lip Reading System Implementation in Embedded Environment)

  • 김영운;강선경;정성태
    • 정보처리학회논문지B
    • /
    • 제17B권3호
    • /
    • pp.227-232
    • /
    • 2010
  • 본 논문은 임베디드 환경에서의 실시간 립리딩 방법을 제안한다. 기존 PC 환경에 비하여 임베디드 환경은 사용할 수 있는 자원이 제한적이므로, 기존 PC 환경의 립리딩 시스템을 임베디드 환경에서 실시간으로 구동하기는 어렵다. 이러한 문제를 해결하기 위해 본 논문은 임베디드 환경에 적합한 입술영역 검출 방법과 입술 특징추출 방법, 그리고 발성 단어 인식 방법을 제안한다. 먼저 정확한 입술영역을 찾기 위해 얼굴 색상정보를 이용해 얼굴영역을 검출하고 검출된 얼굴 영역에서 양쪽 두 눈의 위치를 찾아 기하학적 관계를 이용해 정확한 입술영역을 검출한다. 검출된 입술영역에서 주위 환경 변화에 따른 조명 변화에 강인한 특징을 추출하기위해 히스토그램 매칭과 입술 폴딩, RASTA 필터를 적용하고 주성분 분석(PCA)을 이용한 특징계수를 추출해 인식에 사용하였다. 실험결과 CPU 806Mhz, RAM 128MB 사양의 임베디드 환경에서 발성 단어에 따라 1.15초에서 2.35초까지의 처리 속도를 보였으며, 180개의 단어 중 139개의 단어를 인식해 77%의 인식률을 얻을 수 있었다.

한국인이 발음한 한국어 /에, 애/와 영어 $/{\varepsilon},\;{\ae}/$모음 (An Acoustic Comparative Study of Korean /에, 애/ and English $/{\varepsilon},\;{\ae}/$ Pronounced by Korean Young Male Speakers)

  • 황혜정;문승재
    • 대한음성학회지:말소리
    • /
    • 제56호
    • /
    • pp.29-47
    • /
    • 2005
  • Investigating and comparing English vowels $/{\varepsilon}/\;and\;/{\ae}/$, and their-supposedly- corresponding vowels in Korean /ㅔ/ and /ㅐ/, this study addresses the following questions: Do Koreans pronounce/ㅔ/ and /ㅐ/ differently? Do they pronounce English $/{\varepsilon}/\;and\;/{\ae}/$ differently? And what is the relationship between the Korean vowels and the English vowels? Is the conventional correspondence (/ㅔ:${\varepsilon}/$, and /ㅐ/:${\ae)/$ appropriate? The results showed that 24 Korean male college students distinguish neither Korean /ㅔ/ and /ㅐ/ nor English $/{\varepsilon}/\;and\;/{\ae}/$, thus suggesting that their inability to distinguish the two vowels in their native tongue has an effect on their production of the English vowels. While not distinguishable within a language, Korean /ㅔ/ and /ㅐ/ still form a separate group from English $/{\varepsilon}/\;and\;/{\ae}/$. But Korean-Produced $/{\varepsilon}/\;and\;/{\ae}/$ are significantly different from American-produced $/{\varepsilon}/\;and\;/{\ae}/:$ Korean-produced $/{\varepsilon}/\;and\;/{\ae}/$ have much lower F1 and F2 than American-produced counterparts. Accordingly it is advised that, in learning English pronunciation, Korean students should be instructed to take the English vowel system as a separate system from Korean one, and thus, not to substitute Korean vowels for English vowels. And students should be provided with specific instructions on the articulatory differences between English vowels and Korean vowels. For example, Cey should be instructed to lower their jaws more for English $/{\varepsilon}/\;and\;/{\ae}/$ than for Korean /ㅔ/ and /ㅐ/.

  • PDF

Deep Belief Network를 이용한 뇌파의 음성 상상 모음 분류 (Vowel Classification of Imagined Speech in an Electroencephalogram using the Deep Belief Network)

  • 이태주;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제21권1호
    • /
    • pp.59-64
    • /
    • 2015
  • In this paper, we found the usefulness of the deep belief network (DBN) in the fields of brain-computer interface (BCI), especially in relation to imagined speech. In recent years, the growth of interest in the BCI field has led to the development of a number of useful applications, such as robot control, game interfaces, exoskeleton limbs, and so on. However, while imagined speech, which could be used for communication or military purpose devices, is one of the most exciting BCI applications, there are some problems in implementing the system. In the previous paper, we already handled some of the issues of imagined speech when using the International Phonetic Alphabet (IPA), although it required complementation for multi class classification problems. In view of this point, this paper could provide a suitable solution for vowel classification for imagined speech. We used the DBN algorithm, which is known as a deep learning algorithm for multi-class vowel classification, and selected four vowel pronunciations:, /a/, /i/, /o/, /u/ from IPA. For the experiment, we obtained the required 32 channel raw electroencephalogram (EEG) data from three male subjects, and electrodes were placed on the scalp of the frontal lobe and both temporal lobes which are related to thinking and verbal function. Eigenvalues of the covariance matrix of the EEG data were used as the feature vector of each vowel. In the analysis, we provided the classification results of the back propagation artificial neural network (BP-ANN) for making a comparison with DBN. As a result, the classification results from the BP-ANN were 52.04%, and the DBN was 87.96%. This means the DBN showed 35.92% better classification results in multi class imagined speech classification. In addition, the DBN spent much less time in whole computation time. In conclusion, the DBN algorithm is efficient in BCI system implementation.

영건의궤(營建儀軌)에 실린 목부재용어(木部材用語)의 용례(用例)와 변천(變遷)에 관(關)한 연구(硏究) (A study on the examples and changes of wooden member terms in Yeonggeon-euigwe)

  • 김재웅;이봉수
    • 건축역사연구
    • /
    • 제17권5호
    • /
    • pp.71-94
    • /
    • 2008
  • This study examines the examples and changes of wooden member terms in Yeonggeon-euigwe(營建儀軌) in the era of Joseon Dynasty. As a result of examining examples, about 240 wood member terms were found on the basis of phonetic value and examples different from today's term use were also confirmed. Wood member terms were derived in variety and synonym and different style, that is, coexistence or transition of several notations as the term indicating the same member was found. Derivation of detail terms has the characteristic increasing on the basis of morpheme and formation of different notation followed Chinese notation or was caused by complex coinage features like a coined word of Korea by the meaning of a word and borrowed character notation borrowing sound and it is also related to the specificity of that time which had dual language system. The typical examples without different style for long were pillar, rafter, door and window. Examples with active generation and selection of different styles included beam, capital and bracket-system terms. Different styles were caused by the combination of several notations including borrowed character in the process of Chinese character notation borrowing sound, Korean unique character emphasizing and limiting combination of 木 (wood) with side of character and Chinese. Period showing remarkable change of example notation was the compilation of ${\ll}$the Hwa-Sung-Sung-Euk-Eui-Gue${\gg}$ 華城城役儀軌. ${\ll}$the Hwa-Sung-Sung-Euk-Eui-Gue${\gg}$ is the representative type uigwe made by printed type not by handicraft. Printing by type accompanies unification of the shape of a character necessarily and it was considered that it resulted in the unification of character of different style, the number of strokes and minute difference of strokes, and it was interpreted that common use of intentional notation with the unification of the shape of a character was achieved.

  • PDF