• 제목/요약/키워드: Phoneme set

검색결과 38건 처리시간 0.024초

청각장애 아동의 음운인식 능력과 단어확인 능력의 상관연구 (A Study of Correlation Between Phonological Awareness and Word Identification Ability of Hearing Impaired Children)

  • 김유경;김문정;안종복;석동일
    • 음성과학
    • /
    • 제13권3호
    • /
    • pp.155-167
    • /
    • 2006
  • Hearing impairment children possess poor underlying perceptual knowledge of the sound system and show delayed development of segmental organization of that system. The purpose of this study was to investigate the relationship between phonological awareness ability and word identification ability in hearing impaired children. 14 children with moderately severe hearing loss participated in this study. All tasks were individually administered. Phonological awareness tests consisted of syllable blending, syllable segmentation, syllable deletion, body-coda discrimination, phoneme blending, phoneme segmentation and phoneme deletion. Close-set Monosyllabic Words(12 items) and lists 1 and 2 of open-set Monosyllabic Words in EARS-K were examined for word identification. Results of this study were as follows: First, from the phonological awareness task, the close-set word identification showed a high positive correlation with the coda discrimination, phoneme blending and phoneme deletion. The open-set word identification showed a high positive correlation with phoneme blending, phoneme deletion and phoneme segmentation. Second, from the level of phonological awareness, the close-set word identification showed a high positive correlation with the level of body-coda awareness and phoneme awareness while the open-set word identification showed a high positive correlation only with the level of phoneme awareness.

  • PDF

A Study on Grapheme and Grapheme Recognition Using Connected Components Grapheme for Machine-Printed Korean Character Recognition

  • Lee, Kyong-Ho
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권9호
    • /
    • pp.27-36
    • /
    • 2016
  • Recognition of grapheme is a very important process in the recognition within 'Hangul(Korean written language)' letters using phoneme recognition. It is because the success or failure in the recognition of phoneme greatly affects the recognition of letters. For this reason, it is reported that separation of phonemes is the biggest difficulty in the phoneme recognition study. The current study separates and suggests the new phonemes that used the connective elements that are helpful for dividing phonemes, recommends the features for recognition of such suggested phonemes, databases this, and carried out a set of experiments of recognizing phonemes using the suggested features. The current study used 350 letters in the experiment of phoneme separation and recognition. In this particular kind of letters, there were 1,125 phonemes suggested. In the phoneme separation experiment, the phonemes were divided in the rate of 100%, and the phoneme recognition experiment showed the recognition rate of 98% in recognizing only 14 phonemes into different ones.

기보음소 설정을 위한 음소인식률 이용 방안 연구 (A Study on the method for choosing basic phoneme units based on the phoneme recognition rate)

  • 김호경
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1998년도 제15회 음성통신 및 신호처리 워크샵(KSCSP 98 15권1호)
    • /
    • pp.328-335
    • /
    • 1998
  • 한국통신의 음성인식 시스템에서 사용하는 기본 음소의 효율적인 설정을 위하여 음소인식률을 구하고 유사하게 인식되는 음소들의 집합인 cohort set을 구하여, 인식률을 최대로 하는 기본음소 집합을 찾는 방법이다. 실험 방식은 기본음소 59개로부터 시작하여 음소를1개씩 줄여가면서 최대 음소 인식률이 나오도록 하였다. 실험 결과 최고 성능을 나타내는 기본 음소 set을 구할 수 있었다.

  • PDF

한국의 지하철역명을 위한 음소 기반의 음성인식에 관한 연구 (A Study on Speech Recognition based on Phoneme for Korean Subway Station Names)

  • 김범승;김순협
    • 한국철도학회논문집
    • /
    • 제14권3호
    • /
    • pp.228-233
    • /
    • 2011
  • 본 논문에서는 한국의 지하철역명을 위하여 음운론적 특성을 반영한 음소 기반의 음성인식 구현에 관한 방법을 제시하였다. 한국의 지하철역명의 음소 기반의 음성인식을 위하여 사용되는 최적의 유사음소 단위(PLU: Phoneme-Likely Unit)를 선정하기 위하여 네 가지의 Case 별로 PLU set과 음운 현상을 고려한 발음사전을 구성하여 인식률을 평가하였다. 적용된 유사음소 단위의 경우 초성과 종성 자음의 인식 단위 구분 및 음운 현상을 반영한 경우 트라이폰 모델에서 최적의 인식률(97.74%)을 보임을 알 수 있었다.

PAM 행렬 모델을 이용한 음소 간 유사도 자동 계산 기법 (Automatic Inter-Phoneme Similarity Calculation Method Using PAM Matrix Model)

  • 김성환;조환규
    • 한국콘텐츠학회논문지
    • /
    • 제12권3호
    • /
    • pp.34-43
    • /
    • 2012
  • 두 문자열 간의 유사도를 계산하는 문제는 정보 검색, 오타 교정, 스팸 필터링 등 다양한 분야에 응용될 수 있다. 동적 계획법 기반의 유사도 계산 방법을 통하여 한글 문자열의 유사도 계산을 위해서는 우선 음소간의 유사도에 대한 정의가 필요하다. 그러나 기존의 방법들은 수동적 설정에 의한 유사도 점수를 사용하고 있다는 한계점이 있다. 본 논문에서는 PAM(Point Accepted Mutation) 행렬과 유사한 확률 모델을 이용하여 변형 단어 집합으로부터 음소 간의 유사도를 자동적으로 계산하는 기법을 제안한다. 제안 기법은 주어진 변형 단어의 집합 내 유사한 단어 쌍을 찾아 문자열 정렬(Text Alignment)을 수행함으로써 음소 변형 규칙을 도출하고, 이로부터 각 음소 쌍의 상호 변형 빈도에 따른 유사도 점수를 계산한다. 실험 결과 특이도(Specificity) 77.2~80.4% 수준에서 불일치 여부에 따른 단순 점수 부여 방식에 비해서는 10.4~14.1%, 수동으로 음소 간 유사도를 직접 설정하는 방식에 비해서는 8.1~11.8%의 민감도(Sensitivity) 향상이 있음을 확인하였다.

화자 적응을 이용한 대용량 음성 다이얼링 (Large Scale Voice Dialling using Speaker Adaptation)

  • 김원구
    • 제어로봇시스템학회논문지
    • /
    • 제16권4호
    • /
    • pp.335-338
    • /
    • 2010
  • A new method that improves the performance of large scale voice dialling system is presented using speaker adaptation. Since SI (Speaker Independent) based speech recognition system with phoneme HMM uses only the phoneme string of the input sentence, the storage space could be reduced greatly. However, the performance of the system is worse than that of the speaker dependent system due to the mismatch between the input utterance and the SI models. A new method that estimates the phonetic string and adaptation vectors iteratively is presented to reduce the mismatch between the training utterances and a set of SI models using speaker adaptation techniques. For speaker adaptation the stochastic matching methods are used to estimate the adaptation vectors. The experiments performed over actual telephone line shows that proposed method shows better performance as compared to the conventional method. with the SI phonetic recognizer.

음향 및 음소 정보를 이용한 연속제의 자동 음소 분할에 대한 연구 (A Study on Automatic Phoneme Segmentation of Continuous Speech Using Acoustic and Phonetic Information)

  • 박은영;김상훈;정재호
    • 한국음향학회지
    • /
    • 제19권1호
    • /
    • pp.4-10
    • /
    • 2000
  • 본 논문은 자동 음소 분할기의 음소 경계 오류를 보상하기 위한 후처리(Postprocessing)에 관한 연구이다. 자동 분절 경계의 오류 범위를 줄일 수 있는 후처리기를 제안하고, 자동 분절 결과를 직접 합성 단위로 사용할 수 있는 대량의 합성용 운율데이터 베이스 구축에 유용함을 기술한다. 제안된 후처리기는 수작업으로 보정된 데이터의 특징벡터를 다층 신경회로망(MLP: Multi-layer perceptron)을 통해 학습을 한 후, 자동 분절 결과와 MLP 기반 후처리를 이용하여 새로운 음소 경계를 추출한다. 우선, 특징벡터 set은 음성학적 지식이 최대한 반영되도록 선정되었다. 그리고, 경계를 추출하기 위해서 비선형 패턴분리에 탁월한 성능을 보이는 MLP를 이용한다. MLP는 매우 다양하게 나타나는 음소 경계간 음성학적 특징을 단시간 내에 적용할 수 있기 때문이다. 마지막으로, 음운환경별로 특징 벡터가 적용되는 제안된 후처리 알고리즘을 이용하여 자동 분절의 경계 오류에 대한 보상이 이루어진다. 문장 단위로 발화된 합성용 데이터베이스에서 후처리기로 보정된 분절 결과는 음성 언어 번역 시스템의 분할율보다 약 19.9%의 향상된 성능을 보였으며, 절대오류 (|Hand label position-Auto label position|)는 약 28.6% 감소되었다.

  • PDF

말지각의 기초표상: 음소 또는 변별자질 (The Primitive Representation in Speech Perception: Phoneme or Distinctive Features)

  • 배문정
    • 말소리와 음성과학
    • /
    • 제5권4호
    • /
    • pp.157-169
    • /
    • 2013
  • Using a target detection task, this study compared the processing automaticity of phonemes and features in spoken syllable stimuli to determine the primitive representation in speech perception, phoneme or distinctive feature. For this, we modified the visual search task(Treisman et al., 1992) developed to investigate the processing of visual features(ex. color, shape or their conjunction) for auditory stimuli. In our task, the distinctive features(ex. aspiration or coronal) corresponded to visual primitive features(ex. color and shape), and the phonemes(ex. /$t^h$/) to visual conjunctive features(ex. colored shapes). The automaticity is measured by the set size effect that was the increasing amount of reaction time when the number of distracters increased. Three experiments were conducted. The laryngeal features(experiment 1), the manner features(experiment 2), and the place features(experiment 3) were compared with phonemes. The results showed that the distinctive features are consistently processed faster and automatically than the phonemes. Additionally there were differences in the processing automaticity among the classes of distinctive features. The laryngeal features are the most automatic, the manner features are moderately automatic and the place features are the least automatic. These results are consistent with the previous studies(Bae et al., 2002; Bae, 2010) that showed the perceptual hierarchy of distinctive features.

다국어 음성 인식을 위한 자동 어휘모델의 생성에 대한 연구 (A Study on the Automatic Lexical Acquisition for Multi-lingustic Speech Recognition)

  • 지원우;윤춘덕;김우성;김석동
    • 한국음향학회지
    • /
    • 제22권6호
    • /
    • pp.434-442
    • /
    • 2003
  • 특정한 언어 (영어)로 구현된 소프트웨어를 다른 언어 (한국어, 중국어 등)에서 처리할 수 있도록 하는 과정인 소프트웨어의 국제화는 음성기술 분야에 적응할 때 매우 복잡해진다. 그 이유는 음성 자체가 언어와 많은 연관 관계를 갖기 때문이다. 그러나 어떠한 언어라 해도 그 나라의 언어표현은ASCII코드나 혹은 그 나라 고유의 코드 기반으로 소프트웨어를 처리한다. 영어의 경우는 ASCII코드의 코드체계로 이루어지지만 다른 나라 언어인 경우 다른 형태의 언어코드를 사용하는 것이 일반적이다. 음성 처리에서 언어의 본질적 특성은 어휘모델에 나타난다. 어휘모델은 문자집합, 음소집합, 발음규칙으로 구성된다. 본 논문에서는 다국어 음성인식처리를 위한 어휘모델을 자동으로 생성하기 위하여, 4단계로 나누어 처리하는 어휘모델 구축 방법을 제안한다. 우선 전처리 과정으로 특정한 언어로 표현한 단어를 유니코드로 변환한다. (1단계) 유니코드로부터 중간 형태 코드로의 변환 (2단계) 발음 형태를 기본으로 하는 표준화된 규칙 적용 (3단계) 음소 규칙들에 의한 문자소 구현 (4단계) 음운론을 적용하는 순서로 구성된다.

신경회로망 이용한 한국어 음소 인식 (Korean Phoneme Recognition Using Neural Networks)

  • 김동국;정차균;정홍
    • 대한전기학회논문지
    • /
    • 제40권4호
    • /
    • pp.360-373
    • /
    • 1991
  • Since 70's, efficient speech recognition methods such as HMM or DTW have been introduced primarily for speaker dependent isolated words. These methods however have confronted with difficulties in recognizing continuous speech. Since early 80's, there has been a growing awareness that neural networks might be more appropriate for English and Japanese phoneme recognition using neural networks. Dealing with only a part of vowel or consonant set, Korean phoneme recognition still remains on the elementary level. In this light, we develop a system based on neural networks which can recognize major Korean phonemes. Through experiments using two neural networks, SOFM and TDNN, we obtained remarkable results. Especially in the case of using TDNN, the recognition rate was estimated about 93.78% for training data and 89.83% for test data.