• 제목/요약/키워드: Utterance

검색결과 382건 처리시간 0.025초

후두 내시경(Fiber-Optic Nasolaryngoscope)을 이용한 말더듬인의 후두양상에 관한 연구 (A Study on Laryngeal Behavior of Persons Who Stutter with Fiber-Optic Nasolaryngoscope)

  • 정훈;안종복;최병흔;권도하
    • 음성과학
    • /
    • 제15권3호
    • /
    • pp.159-173
    • /
    • 2008
  • The purpose of this study was to use fiber-optic nasolaryngoscope to find out differences in laryngeal behavior between persons who stutter(PS) and those who do not stutter(NS) upon their utterance. To meet the goal above, this study took 5 NS and 5 PS respectively as a part of sampling, so that they were all asked to join an experiment hereof. As a result, this study came to the following findings: First, there was not any significant difference in laryngeal behavior of uttering spoken languages between stuttering group and control. Second, there were some differences in laryngeal behavior of repetition and prolongation, which were a sort of disfluency revealed in the utterance of nonfluent spoken languages between stuttering group and control. Third, as reported by prior studies, it was found that there were differences in laryngeal abehavior of stutterer group's nonfluent spoken languages depending upon stuttering types. In this study, a variety of laryngeal behavior unreported in prior studies could be found. In addition, it was notable that stutterers showed different laryngeal behavior depending on their personal stuttering types. On block condition, Subject 1 showed laryngeal behavior of fAB, INT and fAD; Subject 2 showed laryngeal behavior of fAB, fAD and rAD; Subject 3 showed laryngeal behavior of fAD and rAD; Subject 4 showed only laryngeal behavior of fAD; and Subejct 5 showed laryngeal behavior of fAB, fAD and rAD. Summing up, these findings imply that when stutterers utter nonfluent words, they may reveal a variety of laryngeal behavior depending on their personal stuttering types. Moreover, it is found that there are more or less differences in the utterance of nonfluent spoken languages between NS and stuttering ones. In particular, it is interesting that one common trait of nonfluent spoken languages uttered by PS is evidently excessive laryngeal stress, no matter which type of stuttering they reveal.

  • PDF

kMIT를 이용한 비유창성 실어증 환자 음성 언어의 치료효과 연구 (Effects of Continuous Speech Therapy in Patients with Non-fluent Aphasia Using kMIT)

  • 이주희;고명환;김현기;홍기환
    • 대한후두음성언어의학회지
    • /
    • 제16권2호
    • /
    • pp.158-164
    • /
    • 2005
  • Melody intonation therepy (MIT) is to improve the linguistic aspects of the verbal utterance for aphasic patients utilizing the intact right brain. It is applied to the aphasic patients with good comprehension, poor fluency, and little available speech are thought to be ideal candidates. The purpose of the study was to investigate the effects of Korean Melody intonation therapy (kMIT) in patients with non-fluent aphasia. Five male non-fluent aphasic patients were participated in this study. Average ages were 49.9 years old. Each therapy took 45-50minutes once a week for six months. Aphasic Screen lest (RISS) was used to assess language parameter such as Auditory comprehension, oral expression, reading, writing and calculation ability before and after kMIT. Mean of Length Utterance, verbal intelligibility and articulation disorder were assessed also. Computerized Speech Lab was used to assess the acoustic characteristics of aphasic patients before and after kMIT. The results are as follows : 1) Auditory comprehension, oral expression, reading, writing and calculation ability of the subjects increased after UH'. However, only oral expression showed significant difference (p<0.05). 2) Mean of Length Utterance of five patients generally increased after Un. 3) After kMIT, verbal intelligibility increased and showed significant difference (p<0.05). 4) Misarticulation rate generally decreased after m. 5) Voice Onset Time of the alveolar lenis /t/ and velar lenis /k/ gradually decreased after kMIT. 6) However, intonation pattern were increased gradually in yes'no question after kMIT.

  • PDF

유아의 성별과 놀이상황 유형별 평균발화길이와 어휘다양도 (Analysis on Preschoolers' Mean Length of Utterance and Type-Token Ratio by their Sex and Play Situation Type)

  • 성미영;장문수
    • 한국보육지원학회지
    • /
    • 제10권6호
    • /
    • pp.43-56
    • /
    • 2014
  • 본 연구에서는 자발적인 발화를 통해 유아의 구어 발화 특성을 분석하기 위해 놀이상황 유형별 구어 발화 자료를 수집하고, 구어 발화의 특성을 어절, 단어, 형태소 단위 평균발화길이와 어휘다양도로 구분하여 분석하고자 하였다. 이를 위해 본 연구에서는 5세 유아 32명을 대상으로 또래와의 친숙한 놀이상황 및 낯선 놀이상황에서의 대화를 수집하였다. 수집된 언어자료는 CSB(2014) 프로그램에 의해 전사 및 분석되었다. 본 연구의 결과는 다음과 같다. 첫째, 친숙한 놀이상황에서 여아의 어절, 단어, 형태소 단위 평균발화길이는 남아보다 더 긴 것으로 나타났다. 둘째, 유아의 단어 단위 평균발화길이는 친숙한 놀이상황보다 낯선 놀이상황에서 더 긴 것으로 나타났으며, 어휘다양도도 친숙한 놀이상황보다 낯선 놀이상황에서 더 높은 것으로 나타났다. 이와 같은 연구결과에 기초하여 유아의 자발적 발화 수집, 전사 및 분석프로그램의 중요성에 대해 논의한 후 향후 과제와 제언을 제시하였다.

반음소 모델링을 이용한 거절기능에 대한 연구 (A Study on the Rejection Capability Based on Anti-phone Modeling)

  • 김우성;구명완
    • 한국음향학회지
    • /
    • 제18권3호
    • /
    • pp.3-9
    • /
    • 1999
  • 본 논문에서는 독립단어 음성인식 시스템을 위하여 반음소(anti-phone) 모델링을 이용한 인식 거절(rejection)기능에 대해 기술한다. 음성인식 거절 기능은 음성인식기를 제작할 ? 정해놓은 인식대상 단어 이외의 단어가 입력되었을 때 그 단어가 인식할 수 없는 단어임을 알려주는 기능이다. 음성인식 거절기능을 구하는 방식은 핵심어 검출(keyword spotting)방식과 발화검증(utterance verification)방식으로 구분된다. 핵심어 검출 방식은 인식 대상 단어 외의 단어를 별도로 모델링하여 하나의 인식대상 단어처럼 사용하는 방식이고, 발화검증 방식은 각 음소마다 그와 유사한 anti-model을 작성한 후 정상적인 음소 모델과 anti-model과의 유사도를 비교하여 결정하는 방식이다. 본 연구에서는 독립단어 음성인식 시스템에 적용될 수 있는 발화 검증 방식에 의해 음성인식 거절 기능을 구현하였다. 특히 유사도를 결정함에 있어서 산술평균, 기하평균, 조화평균을 사용하고 각각을 비교하여, 기하평균을 사용하는 방식이 우수한 성능을 보임을 알 수 있었다. 음성의 신뢰도(confidence score)를 정규화하기 위해서 Sigmoid 함수를 사용하는데 이 함수의 가중치(weight) 상수의 변화에 대해 인식률을 비교함으로써 가장 적절한 가중치 상수값을 결정하였다. 그리고 유사음소집합(cohort set)에 대한 실험에서는 유사음소집합의 크기가 클수록 더 좋은 성능을 보이는 결과를 얻었다. 음성인식 테스트 결과에서는 신뢰도 임계치 값을 구하고 이 값을 사용하여 인식률을 계산하였으며, 거절의 오류까지 포함된 음성인식률은 약 76%였다. 이 연구결과는 현재 한국통신에서 시험 서비스 중인 음성인식 증권정보 안내 시스템에 적용될 예정이다.

  • PDF

가변어휘 단어 인식에서의 미등록어 거절 알고리즘 성능 비교 (Performance Comparison of Out-Of-Vocabulary Word Rejection Algorithms in Variable Vocabulary Word Recognition)

  • 김기태;문광식;김회린;이영직;정재호
    • 한국음향학회지
    • /
    • 제20권2호
    • /
    • pp.27-34
    • /
    • 2001
  • 발화 검증이란 등록된 단어 목록 이외의 단어가 입력되었을 때, 미등록된 단어는 인식할 수 없는 단어임을 알려주는 기능으로써 사용자에게 친숙한 음성 인식 시스템을 설계하는데 중요한 기술이다. 본 논문에서는 가변어휘 단어 인식기에서 최소 검증 오류를 나타낼 수 있는 발화 검증 시스템의 알고리즘을 제안한다. 우선, 한국전자통신연구원의 PBW(Phonetically Balanced Words) 445DB를 이용하여 가변어휘 단어 인식에서의 미등록어 거절 성능을 향상시키는 효과적인 발화 검증 방법을 제안하였다. 구체적으로 특별한 훈련 과정이 없이도 유사 음소 집합을 많이 포함시킨 반음소 모델을 제안하여 최소 검증 오류를 지니도록 하였다. 또한, 음소 단위의 null hypothesis와 alternate hypothesis의 비를 이용한 음소 단위의 신뢰도는 null hypothesis로 정규화해서 강인한 발화 검증 성능을 보여 주었으며, 음소 단위의 신뢰도를 이용한 단어 단위의 신뢰도는 등록어와 미등록어 사이의 분별력을 잘 표현해 주었다. 이와 같이 새로이 제안된 반음소 모델과 발화 검증 방법을 사용했을 때, CA (Correctly Accept for Keyword: 등록어를 제대로 인정한 경우)는 약 89%, CR (Correctly Reject for OOV (Out-of-Vocabulary): 미등록어에 대해 거절한 경우)은 약 90%로써, 기존 필터 모델을 이용한 방법보다 미등록어 거절 성능이 ERR (Error Reduction Rate) 측면에서 약 15-21% 향상됨을 알 수 있었다.

  • PDF

Using Utterance and Semantic Level Confidence for Interactive Spoken Dialog Clarification

  • Jung, Sang-Keun;Lee, Cheong-Jae;Lee, Gary Geunbae
    • Journal of Computing Science and Engineering
    • /
    • 제2권1호
    • /
    • pp.1-25
    • /
    • 2008
  • Spoken dialog tasks incur many errors including speech recognition errors, understanding errors, and even dialog management errors. These errors create a big gap between the user's intention and the system's understanding, which eventually results in a misinterpretation. To fill in the gap, people in human-to-human dialogs try to clarify the major causes of the misunderstanding to selectively correct them. This paper presents a method of clarification techniques to human-to-machine spoken dialog systems. We viewed the clarification dialog as a two-step problem-Belief confirmation and Clarification strategy establishment. To confirm the belief, we organized the clarification process into three systematic phases. In the belief confirmation phase, we consider the overall dialog system's processes including speech recognition, language understanding and semantic slot and value pairs for clarification dialog management. A clarification expert is developed for establishing clarification dialog strategy. In addition, we proposed a new design of plugging clarification dialog module in a given expert based dialog system. The experiment results demonstrate that the error verifiers effectively catch the word and utterance-level semantic errors and the clarification experts actually increase the dialog success rate and the dialog efficiency.

공동이용을 위한 음성DB의 설계 및 구축에 관한 연구 (A Study on the Design and the Construction of a Korean Speech DB for Common Use)

  • 김봉완;김종진;김선태;이용주
    • 한국음향학회지
    • /
    • 제16권4호
    • /
    • pp.35-41
    • /
    • 1997
  • 공동이용 가능한 각종 대량의 음성 데이터를 수록, 보관, 공개하는 것은 연구 개발 과정에서의 이용 및 음성 정보 처리 시스템의 성능평가 양면에서 필요하다. 이러한 공동 음성 데이타 베이스의 구축을 위해서는 발생 가능한 모든 음운환경을 포함하며, 특정 테스크에 집중되지 않는 발성 대상 단어나 문장의 설계가 필요하다. 본 논문에서는 이와같은 목적으로 신문, 소설, 기타 구어자료로부터 수집된 120만여 어절의 텍스트 코퍼스에서 PBW(Phonetically Balanced Word)를 추출하고 이를 발성목록으로 음성DB를 구축한 결과와 구축된 음성DB의 특성을 제시한다.

  • PDF

음의 유사도 비율 누적 방법을 이용한 발화검증 연구 (A Study on Utterance Verification Using Accumulation of Negative Log-likelihood Ratio)

  • 한명희;이호준;김순협
    • 한국음향학회지
    • /
    • 제22권3호
    • /
    • pp.194-201
    • /
    • 2003
  • 음성인식에서 신뢰도 측정이란 인식된 결과에 대한 신뢰 여부를 결정하는 것이다. 신뢰도는 프레임을 음소 및 단어 수준으로 통합하여 측정된다. 단어 인식의 경우, 신뢰도를 이용하여 인식 결과와 미등록 어휘를 검증한다. 따라서 이러한 후처리를 통해 이를 인식 결과로 승인하지 않음으로써 성능을 높일 수 있다. 본 논문에서는 기존의 신뢰도 측정 방법인 로그 유사도 비를 수정하여 신뢰도를 측정하였다. 제안된 방법은 프레임 수준에서 음소 수준으로 신뢰도를 통합할 때 로그 유사도 비가 음수인 것만을 누적하는 것이다. 단어 인식기의 인식 결과에 대한 검증 성능을 기존의 방법과 비교한 결과, CAR (Correct Acceptance Ratio)이 90%인 지점에서 FAR (False Acceptance Ratio)을 미등록 어휘에 대해서는 약 3.49%, 오인식에 대해서는 15.25% 감소시킬 수 있었다

A study on the foreign accent of Koreans

  • Park, Hee-Suk
    • 음성과학
    • /
    • 제7권1호
    • /
    • pp.187-201
    • /
    • 2000
  • This study was done to investigate the English vowels in relation to the foreign accent. In this study, I also tried to find out the foreign accent of the English diphthong /o/ and front low vowel /${\ae}$/ when Koreans speak English. The reason why I chose these vowels is that these vowels, /o/ and /${\ae}$/, are difficult for Koreans to discern and pronounce. Koreans show a foreign accent in their pronunciation. In order to find out the reason for a Korean foreign accent, experiments were carried out with the help of acoustic instruments. According to the results of the experiment, Koreans showed a foreign accent in their English pronunciation of vowels in relation to their utterance positions. Americans showed a final lengthening effect but Koreans showed a final shortening effect. This means that Koreans showed a foreign accent in the final stressed syllable of a sentence. In addition to this, the duration of two English vowels, /o/ and /${\ae}$/, showed considerably different features between Koreans and Americans. In fact, in the pronunciation of the diphthong /o/, the tongue moves from one position to another. The two articulations of a diphthong can be described as the nucleus plus a glide. However, most Koreans have no idea of this phenomenon and pronounce the diphthongs like two separate monophthongs. This causes a great difference in the lengths of English diphthong /o/ between Koreans and Americans.

  • PDF

The effects of pause in English speaking evaluation

  • Kim, Mi-Sun;Jang, Tae-Yeoub
    • 말소리와 음성과학
    • /
    • 제9권1호
    • /
    • pp.19-26
    • /
    • 2017
  • The main objective of this study is to investigate the influence of utterance internal pause in English speaking evaluation. To avoid possible confusion with other errors caused by segmental and prosodic inaccuracy, stem utterances with two different length obtained from a native speaker were manipulated to make a set of stimuli tokens through insertion of pauses whose length and position vary. After a total of 90 participants classified into three proficiency groups rated the stimuli, the scored data set was statistically analyzed in terms of the mixed effects model. It was confirmed that predictors such as pause length, pause position and utterance length significantly influence raters' evaluation scores. Especially, a dominating effect was found in such a way that raters gradually deducted scores in accordance with the increase of pause duration. In another experiment, a tree-based statistical learning technique was utilized to check which of the significant predictors played a more influential role than others. The findings in this paper are expected to be practically informative for both the test takers who are preparing for an English speaking test and the raters who desire to develop more objective rubric of speaking evaluation.