• 제목/요약/키워드: Speech level

검색결과 677건 처리시간 0.027초

The Role of Pitch Range Reset in Korean Sentence Processing

  • Kong, Eun-Jong
    • 말소리와 음성과학
    • /
    • 제2권1호
    • /
    • pp.33-39
    • /
    • 2010
  • This study investigates the effect of pitch range reset in Korean listeners' processing of syntactically ambiguous participle structures. Unlike Japanese and English,in Korean, the downtrend or the reset of pitch range does not consistently differentiate Accentual Phrases (AP), a lower level of phrasing, from Intonational Phrases (IP), a higher level of phrasing. Therefore, we explore Korean listeners' comprehension patterns for syntactically ambiguous speech strings varying in 1) the relative height of F0 peaks across prosodic units, and 2) the types of prosodic phrasing, to see whether pitch range reset informs the recovery of syntactic structure even though it is not reflected in the intonational hierarchy in Korean. The results show that the hierarchical level of prosodic phrasing affects the parsing pattern of syntactic ambiguity. The pitch range reset also cued the location of syntactic boundaries, but this effect was confined to phrases across AP.

  • PDF

억양의 의사소통적 기능에 대한 연구: 일어문 시기의 아동을 대상으로 (A Study on the Communicative Functions of Prosodic Contours: in Children with Single Word Sentences)

  • 안미리;김태경
    • 음성과학
    • /
    • 제11권2호
    • /
    • pp.151-164
    • /
    • 2004
  • This study examined the use of intonation in children with single word sentences and investigated the communicative functions of pitch range and pitch direction. Two children aged 13months were observed in interaction with their mothers for 10 months. The vocalizations were coded separately for communicative function and for prosodic feature. Results show that level tones are used most frequently, and pitch range is higher for request than declaration or answer and lower for answer than request or declaration. And trends in prosodic contours were observed in request, declaration, and answer respectively. For one child, rising tones were frequently associated with request whereas rising-falling tone with declaration. For the other child, rising-level tones were more frequently associated with request whereas falling-level appeared more often in conjunction with declaration. These trends appeared more distinct in proportion as they grow in months. This result indicate that the way to express communicative functions transfer gradually from differentiating pitch range to diversify pitch direction.

  • PDF

가청범위압축방식 보청기의 청각학적 이득에 관한 연구 (Audiological Benefits in Dynamic Range Compression Hearing Aids)

  • 허승덕;김리석;정동근;고도흥;박병건
    • 음성과학
    • /
    • 제11권2호
    • /
    • pp.19-25
    • /
    • 2004
  • Hearing aids play an very important role in aural rehabilitation for hearing impaired person who could not be medically treated. Especially, hearing aids with dynamic range compression (level dependent frequency response: LDFR) method concentrated dynamic output range of receiver into the narrowing dynamic range of sensorineural hearing impaired person. Thus, if aided hearing threshold level is improved and uncomfortable loudness level rises, then the users of hearing aids are favored with extended dynamic range. This study aims to evaluate audiological benefits in dynamic range compression hearing aids. To achieve this, pure tone and speech audiometry were examined to 15 children and 3 adults with narrow dynamic range moderate-to-severe binaural sensorineural hearing loss.

  • PDF

Sound-Field Speech Evoked Auditory Brainstem Response in Cochlear-Implant Recipients

  • Jarollahi, Farnoush;Valadbeigi, Ayub;Jalaei, Bahram;Maarefvand, Mohammad;Zarandy, Masoud Motasaddi;Haghani, Hamid;Shirzhiyan, Zahra
    • 대한청각학회지
    • /
    • 제24권2호
    • /
    • pp.71-78
    • /
    • 2020
  • Background and Objectives: Currently limited information is available on speech stimuli processing at the subcortical level in the recipients of cochlear implant (CI). Speech processing in the brainstem level is measured using speech-auditory brainstem response (S-ABR). The purpose of the present study was to measure the S-ABR components in the sound-field presentation in CI recipients, and compare with normal hearing (NH) children. Subjects and Methods: In this descriptive-analytical study, participants were divided in two groups: patients with CIs; and NH group. The CI group consisted of 20 prelingual hearing impairment children (mean age=8.90±0.79 years), with ipsilateral CIs (right side). The control group consisted of 20 healthy NH children, with comparable age and sex distribution. The S-ABR was evoked by the 40-ms synthesized /da/ syllable stimulus that was indicated in the sound-field presentation. Results: Sound-field S-ABR measured in the CI recipients indicated statistically significant delayed latencies, than in the NH group. In addition, these results demonstrated that the frequency following response peak amplitude was significantly higher in CI recipients, than in the NH counterparts (p<0.05). Finally, the neural phase locking were significantly lower in CI recipients (p<0.05). Conclusions: The findings of sound-field S-ABR demonstrated that CI recipients have neural encoding deficits in temporal and spectral domains at the brainstem level; therefore, the sound-field S-ABR can be considered an efficient clinical procedure to assess the speech process in CI recipients.

Sound-Field Speech Evoked Auditory Brainstem Response in Cochlear-Implant Recipients

  • Jarollahi, Farnoush;Valadbeigi, Ayub;Jalaei, Bahram;Maarefvand, Mohammad;Zarandy, Masoud Motasaddi;Haghani, Hamid;Shirzhiyan, Zahra
    • Journal of Audiology & Otology
    • /
    • 제24권2호
    • /
    • pp.71-78
    • /
    • 2020
  • Background and Objectives: Currently limited information is available on speech stimuli processing at the subcortical level in the recipients of cochlear implant (CI). Speech processing in the brainstem level is measured using speech-auditory brainstem response (S-ABR). The purpose of the present study was to measure the S-ABR components in the sound-field presentation in CI recipients, and compare with normal hearing (NH) children. Subjects and Methods: In this descriptive-analytical study, participants were divided in two groups: patients with CIs; and NH group. The CI group consisted of 20 prelingual hearing impairment children (mean age=8.90±0.79 years), with ipsilateral CIs (right side). The control group consisted of 20 healthy NH children, with comparable age and sex distribution. The S-ABR was evoked by the 40-ms synthesized /da/ syllable stimulus that was indicated in the sound-field presentation. Results: Sound-field S-ABR measured in the CI recipients indicated statistically significant delayed latencies, than in the NH group. In addition, these results demonstrated that the frequency following response peak amplitude was significantly higher in CI recipients, than in the NH counterparts (p<0.05). Finally, the neural phase locking were significantly lower in CI recipients (p<0.05). Conclusions: The findings of sound-field S-ABR demonstrated that CI recipients have neural encoding deficits in temporal and spectral domains at the brainstem level; therefore, the sound-field S-ABR can be considered an efficient clinical procedure to assess the speech process in CI recipients.

청각장애인을 위한 음성인식 기반 메시지 전송 시스템 (Speech Recognition based Message Transmission System for the Hearing Impaired Persons)

  • 김성진;조경우;오창헌
    • 한국정보통신학회논문지
    • /
    • 제22권12호
    • /
    • pp.1604-1610
    • /
    • 2018
  • 음성인식 서비스는 청각장애인에게 화자의 음성을 텍스트로 변환하여 시각화함으로써 의사소통의 보조적인 수단으로 사용되고 있다. 하지만 강의실 및 회의실과 같은 개방된 환경에서는 다수의 청각장애인에게 음성인식 서비스를 제공하기 힘들다. 이를 위해 주변 환경에 따라 음성 인식 서비스를 효율적으로 제공하기 위한 방법이 필요하다. 본 논문에서는 화자의 음성을 인식하여 변환된 텍스트를 다수의 청각장애인에게 메시지로 전달하는 시스템을 제안한다. 제안하는 시스템은 다수의 사용자에게 동시에 메시지를 전달하기 위해 MQTT 프로토콜을 사용한다. MQTT 프로토콜의 QoS level 설정에 따른 제안 시스템의 서비스 지연을 확인하기 위해 종단 간 지연을 측정하였다. 측정 결과 가장 신뢰성이 높은 QoS level 2와 0간의 지연이 111ms로 대화 인식에 큰 영향을 끼치지 않음을 확인하였다.

음성신호를 이용한 기계학습 기반 피로도 분류 모델 (Fatigue Classification Model Based On Machine Learning Using Speech Signals)

  • 이수화;권철홍
    • 문화기술의 융합
    • /
    • 제8권6호
    • /
    • pp.741-747
    • /
    • 2022
  • 피로는 개인의 능력을 저하되게 하여 업무 수행을 어렵게 하며, 피로가 누적되면 집중력이 저하되어 안전사고를 초래할 가능성이 증가하게 된다. 피로에 대한 자각은 주관적이나, 실제 현장에서는 피로의 수준을 정량적으로 측정할 필요가 있다. 기존 연구에서 피로 수준은 다원적 피로 척도와 같은 주관적 평가에, 생체신호 분석 등의 객관적지표를 추가하여 전문가의 판단으로 측정하는 방식이 제안되었으나, 이러한 방법은 일상생활에서 실시간으로 피로도를 평가하기 어렵다. 본 논문은 현장에서 녹음한 음성 데이터를 이용하여 실시간으로 작업자의 피로 수준을 판정하는 피로도 분류 모델에 관한 연구이다. 현장에서 수집한 음성 데이터를 이용하여 로지스틱 분류, 서포트 벡터 머신, 랜덤 포레스트 등의 기계학습 모델을 학습시킨다. 성능을 평가한 결과, 정확도가 0.677 ~ 0.758로 우수한 성능을 보여주었고, 이 중에서 로지스틱 분류가 가장 우수한 성능을 나타냈다. 실험 결과로부터 음성신호를 이용하여 피로도를 분류하는 것이 가능하다는 것을 알 수 있다.

비교문화적 화용론의 관점에서 본 한국인과 태국인의 거절 화행 연구 (A Study on Refusal Speech Act of Korean and Thai Learners from a Cross-Cultural Pragmatic Perspective)

  • 황선영;노아실;사마와디 강해
    • 한국어교육
    • /
    • 제29권4호
    • /
    • pp.225-254
    • /
    • 2018
  • The purpose of this study is to contrast the patterns of realization and understanding of refusal speech acts between Korean and Thai learners. This study intends to answer the following questions: (1) Do Koreans and Thai learners perform refusal speech acts differently? (2) Do Koreans and Thai learners understand refusal speech acts differently? A DCT and a follow-up interview were conducted to collect data of two groups of 30 native Korean speakers and 30 native Thai speakers. For research question 1, we analyzed the refusal strategy and provided reasons given by Koreans and Thai learners depending on the context. For research question 2, we ran a chi-squared test on the elements of the follow-up interviews, such as the weight of burden of refusing, and whether the participant would actually refuse or not. The differences between the refusal strategies of the two groups could be categorized by the preceding inducing speech act. In refusing a request, the difference was prominent in the apologizing strategy, whereas in refusing a suggestion, the difference was mainly in the direct refusal strategy. When refusing an invitation, the most evident difference was the number of refusal strategies employed. When providing an explanation of refusal to people with high social status, Koreans gave more specific reasons for refusals, whereas Thai learners tended to use more vague reasons. Moreover, when refusing an invitation, Koreans primarily mentioned the relationship, and Thai learners showed the spirit of Greng Jai. When asked the weight of burden of refusing, Koreans felt pressured to refuse a request from people with high social status, and a suggestion or invitation from people with high level of intimacy while Thai learners found it highly difficult to make a refusal in all cases. In answering whether they would actually refuse or not, Koreans tried not to make a refusal to people with high level of intimacy, and such a trend was not evident among the Thai. This study can help us better understand the learner's pragmatic failure, and serve as a basis in establishing a curriculum for teaching speech acts.

클리핑 감지기를 이용한 음성 신호 클리핑 제거의 성능 향상 (Performance Enhancement of Speech Declipping using Clipping Detector)

  • 서은미;유정찬;임유진;박호종
    • 방송공학회논문지
    • /
    • 제28권1호
    • /
    • pp.132-140
    • /
    • 2023
  • 본 논문에서는 클리핑 감지기를 이용하여 음성 신호의 클리핑 제거 성능을 향상시키는 방법을 제안한다. 클리핑은 입력 음성 신호의 크기가 마이크의 동적 범위를 넘을 때 발생하며, 음성 품질을 저하시키는 요인이 된다. 최근 머신러닝을 이용한 많은 클리핑 제거 기술이 개발되었고 우수한 성능을 제공하고 있다. 그러나 머신러닝 기반의 클리핑 제거 방법은 신호 복원 과정의 왜곡으로 인해 클리핑이 심하지 않을 때 출력 신호의 품질이 저하되는 문제를 가진다. 이를 해결하기 위해 클리핑 제거기를 클리핑 감지기와 연동시켜 클리핑 수준에 따라 클리핑 제거 동작을 선택적으로 적용하는 방법을 제안하고, 이를 통해 모든 클리핑 수준에서 우수한 품질의 신호를출력하도록 한다. 다양한 평가 지표로 클리핑 제거 성능을 측정하였고, 제안 방법이 기존 방법에 비해 모든 클리핑 수준에 대한 평균성능을 향상시키고, 특히 클리핑 왜곡이 작을 때 성능을 크게 향상시키는 것을 확인하였다.

HMM 기반 감정 음성 합성기 개발을 위한 감정 음성 데이터의 음색 유사도 분석 (Analysis of Voice Color Similarity for the development of HMM Based Emotional Text to Speech Synthesis)

  • 민소연;나덕수
    • 한국산학기술학회논문지
    • /
    • 제15권9호
    • /
    • pp.5763-5768
    • /
    • 2014
  • 하나의 합성기에서 감정이 표현되지 않는 기본 음성과 여러 감정 음성을 함께 합성하는 경우 음색을 유지하는 것이 중요해 진다. 감정이 과도하게 표현된 녹음 음성을 사용하여 합성기를 구현하는 경우 음색이 유지되지 못해 각 합성음이 서로 다른 화자의 음성처럼 들릴 수 있다. 본 논문에서는 감정 레벨을 조절하는 HMM 기반 음성 합성기를 구현하기 위해 구축한 음성데이터의 음색 변화를 분석하였다. 음성 합성기를 구현하기 위해서는 음성을 녹음하여 데이터베이스를 구축하게 되는데, 감정 음성 합성기를 구현하기 위해서는 특히 녹음 과정이 매우 중요하다. 감정을 정의하고 레벨을 유지하는 것은 매우 어렵기 때문에 모니터링이 잘 이루어져야 한다. 음성 데이터베이스는 일반 음성과 기쁨(Happiness), 슬픔(Sadness), 화남(Anger)의 감정 음성으로 구성하였고, 각 감정은 High/Low의 2가지 레벨로 구별하여 녹음하였다. 기본음성과 감정 음성의 음색 유사도 측정을 위해 대표 모음들의 각각의 스펙트럼을 누적하여 평균 스펙트럼을 구하고, 평균 스펙트럼에서 F1(제 1포만트)을 측정하였다. 감정 음성과 일반 음성의 음색 유사도는 Low-level의 감정 데이터가 High-level의 데이터 보다 우수하였고, 제안한 방법이 이러한 감정 음성의 음색 변화를 모니터링 할 수 있는 방법이 될 수 있음을 확인할 수 있었다.