• 제목/요약/키워드: Articulatory

검색결과 153건 처리시간 0.024초

Unveiling and Addressing Pronunciation Challenges in English Consonantal Phonemes for Foreign Language Learners

  • Joo Hyun Chun
    • International Journal of Advanced Culture Technology
    • /
    • 제12권2호
    • /
    • pp.151-160
    • /
    • 2024
  • Through the utilization of a contrastive analysis of English consonantal phonemes and their Russian counterparts, the present study investigates the challenges faced by Russian EFL learners in pronouncing English consonantal phonemes, with a particular focus on phoneme substitution errors as a principal source of erroneous pronunciation. We comprehensively explore the characteristics of both the English and Russian consonant systems, highlighting the differences between them. Based on this examination, the study aims to present the detailed articulatory characteristics and phonetic variations of Russian speakers' common mispronunciations or improper substitutes of English consonants, rather than focusing on shared ones between the two languages. Furthermore, it seeks to provide strategies for error correction and effective pedagogical strategies to address specific phonemic challenges and enhance accuracy. Grounded in a comprehensive understanding of the objectives and advantages of comparative analysis within the context of phonemic awareness, the study emphasizes the significant importance of pronunciation instruction. It points out that this area still appears somewhat overlooked in specific EFL teaching situations within the context of English language education.

Articulatory Attributes in Korean Nonassimilating Contexts

  • Son, Minjung
    • 말소리와 음성과학
    • /
    • 제5권1호
    • /
    • pp.109-121
    • /
    • 2013
  • This study examined several kinematic properties of the primary articulator (the tongue dorsum) and the supplementary articulator (the jaw) in the articulation of the voiceless velar stop (/k/) within nonassimilating contexts. We examined in particular the spatiotemporal properties (constriction duration and constriction maxima) from the constriction onset to the constriction offset by analyzing a velar (/k/) followed by the coronal fricative (/s/), the coronal stop (/t/), and the labial (/p/) in across-word boundary conditions (/k#s/, /k#t/, and /k#p/). Along with these measurements, we investigated intergestural temporal coordination between C1 and C2 and the jaw articulator in relation to its coordination with the articulation of consonant sequences. The articulatory movement data was collected by means of electromagnetic midsagittal articulometry (EMMA). Four native speakers of Seoul Korean participated in the laboratory experiment. The results showed several characteristics. First, a velar (/k/) in C1 was not categorically reduced. Constriction duration and constriction degree of the velar (/k/) were similar within nonassimilating contexts (/k#s/=/k#t/=/k#p/). This might mean that spatiotemporal attributes during constriction duration were stable and consistent across different contexts, which might be subsequently associated with the nontarget status of the velar in place assimilation. Second, the gestural overlap could be represented as the order of /k#s/ (less) < /k#p/ (intermediate) < /k#t/ (more) as we measured the onset-to-onset lag (a longer lag indicated shorter gestural overlap.). This indicates a gestural overlap within nonassimilating contexts may not be constrained by any of the several constraints including the perceptual recoverability constraint (e.g., more overlap in Front-to-Back sequences compared to the reverse order (Back-to-Front) since perceptual cues in C1 can be recovered anytime during C2 articulation), the low-level speech motor constraint (e.g., more overlap in lingual-nonlingual sequences as compared to the lingual-lingual sequences), or phonological contexts effects (e.g., similarity in gestural overlap within nonassimilating contexts). As one possible account for more overlap in /k#t/ sequences as compared to /k#p/, we suspect speakers' knowledge may be receptive to extreme encroachment on C1 by the gestural overlap of the coronal in C2 since it does not obscure the perceptual cue of C1 as much as the labial in C2. Third, actual jaw position during C2 was higher in coronals (/s/, /t/) than in the labial (/p/). However, within the coronals, there was no manner-dependent jaw height difference in C2 (/s/=/t/). Vertical jaw position of C1 and C2 was seen as inter-dependent as higher jaw position in C1 was closely associated with C2. Lastly, a greater gap in jaw height was associated with longer intergestural timing (e.g., less overlap), but was confined to the cluster type (/kp/) with the lingual-nonlingual sequence. This study showed that Korean jaw articulation was independent from coordinating primary articulators in gestural overlap in some cluster types (/k#s/, /k#t/) while not in others (e.g., /k#p/). Overall, the results coherently indicate the velar stop (/k/) in C1 was robust in articulation, which may have subsequently contributed to the nontarget status of the velar (/k/) in place assimilation processes.

학령전기 정상발달 아동의 자모음 교대운동특성 : 예비연구 (Diadochokinetic Skills in Typically developing Children Aged 4-6 Years : Pilot Study)

  • 정한진;이옥분;서경희
    • 한국산학기술학회논문지
    • /
    • 제12권7호
    • /
    • pp.3149-3155
    • /
    • 2011
  • 본 논문의 목적은 학령전기 정상발달 아동을 대상으로 연령대 증가에 따른 조음 교대운동속도 차이의 경향을 알아보는 데 있다. 조사대상은 생활연령이 4세에서 6세 사이에 해당하는 총 12명의 아동이었고 샘플링 기간은 5월 첫 주, 일주일동안 이었다. 조음교대운동 속도 측정에 사용한 검사 음의 구성은 모음 구조에서 /ai/, /ɔi/, /ɑɔi/ 이며, 자모음 구조에서는 /pʰə/, /tʰə/, /kʰə/, /pʰətʰə/, /tʰəkʰə?/, /pʰətʰəkʰə/이다. 속도 측정은 연령대별로 초당 각 검사음을 반복한 횟수를 기준으로 하였고, PC-quirer의 음성파형을 통해 측정하였다. 연구결과는 다음과 같다. 첫째, 연령이 증가할수록 조음교대운동 속도가 빠른 것으로 나타났다. 둘째, 모음과 자모음 구조의 음성 특성에 따라 조음교대운동 속도에는 차이가 없었다. 그러나 연령대 증가에 따른 자음의 구조에서의 조음 교대운동 속도 증가 기울기 변화가 모음구조와 유사하게 나타났다. 셋째, DDK 과업수행에서 나타난 아동들의 반응태도를 분석한 결과 3세 연령에서 DDK 수행시 조음오류 빈도가 가장 높았으며, 4세에서 6세 사이에서 나타난 조음오류빈도수는 다양하였다. 이 연구결과는 자음뿐만 아니라 모음구조의 교대운동과업이 임상적인 평가로써 가치가 있음을 시사하며, 더불어 DDK 속도 평가뿐만 아니라 DDK 수행시 조음오류에 대한 빈도수와 조음유창성이 동시적으로 평가되어야 보다 신뢰롭게 정보를 얻을 수 있음을 제안하고 있다.

정상 노인과 알츠하이머성 치매 환자의 자발화 산출에서의 언어적 특징 (Linguistic Features of Spontaneous Speech Production in Normal Aging, Alzheimer's Disease)

  • 김정완
    • 한국노년학
    • /
    • 제32권3호
    • /
    • pp.747-758
    • /
    • 2012
  • 본 연구는 임상 현장에서 정상 노인과 변별되는 알츠하이머성 치매 환자의 자발화 과제에서의 수행력을 알아보기 위해 실시되었다. 연구방법은 65세 이상의 정상노인 13명과 알츠하이머성 치매 환자 26명(치매 의심(questionable) 9명, 경도(mild) 치매 9명, 중도(moderate) 치매 8명)을 대상으로 대화하기 및 연속그림 설명하기 과제를 실시하였고, 전체 발화 템포, 주저시간(초단위), 조음 음운 오류, 그리고 문법적 오류를 포함한 네 가지 구어적 요소에 대해 분석, 비교하였다. 연구결과, 네 가지 요소 모두에서 집단 간 차이를 보였다. 특히, 전체 발화 템포는 정상노인과 세 치매 환자군 각각에서 유의한 차이를 보였는데, 주저시간은 중도 치매에서만, 그리고 조음 음운 오류는 경도, 중도 치매군에서만 증가되었다. 문법적 오류는 정상노인과 비교하여 치매의심군과 중도 치매군에서 유의하게 증가되었다. 상기 연구 결과를 통해, 다음과 같은 결론을 제시할 수 있다. 첫째, 정상노인과 세 치매 환자군을 가장 변별력있게 구분할 수 있는 구어적 요소는 전체 발화 템포이다. 둘째, 조음 음운능력은 치매의심군에서는 감소하지 않지만, 경도 및 중도치매군에서는 그 수행력이 떨어진다. 셋째, 문법적 오류는 중도 치매환자군에서부터 확연히 증가한다. 향후, 자발화 과제를 통해 의료기관 외의 장소에서도 치매 선별의 용이성을 더할 수 있으며, 담화 차원의 언어능력에 대한 관찰이 가능하므로 다양한 원인질환을 가진 치매 환자들의 정보를 얻을 수 있을 것으로 기대된다.

치료적 노래부르기를 통한 두경부암 환자의 말산출 기능 향상 사례 (Therapeutic Singing on Speech Production Parameters in Head and Neck Cancer Patients: Case Studies)

  • 김주희;김수지
    • 재활복지
    • /
    • 제22권3호
    • /
    • pp.189-208
    • /
    • 2018
  • 본 연구는 세 명의 두경부암 환자들을 대상으로 말산출 관련 기능 개선을 목표로 치료적 노래부르기 중심의 음악중재를 시행하고, 각 사례 별로 변화를 관찰 기술한 사전-사후 개별 사례연구이다. 중재는 개별 세션의 형태로 매 회기 30분, 주 2회씩 총 12회기 동안 진행되었으며, 시행된 프로그램은 호흡근 이완을 위한 신체움직임, 조음기관의 운동범위 확장 및 성대이완을 위한 발성훈련과 치료적 노래부르기의 총 3단계로 구성되었다. 중재에 따른 대상자들의 말산출 관련 기능의 변화를 알아보기 위해 음성의 질, 길항반복운동속도(diadochokinesis, DDK), 모음공간면적(vowel space area, VSA) 변화 등의 음향학적 분석과 <산책>문단 읽기 과제 시의 청지각적 평가를 시행하였고, 프로그램 참여 시의 관찰 및 사전 사후 면담을 통해 대상자의 심리정서적 변화를 추가적으로 살펴보았다. 중재 과정에서 모든 대상자의 재활동기 및 음성 사용에 대한 긍정적 변화 양상이 관찰되었고, 중재 후에는 음성의 질, DDK에 변화가 있었으며, VSA의 확대가 나타났다. 본 연구를 통해 치료적 노래부르기 중심의 음악중재프로그램이 두경부암 환자들의 음성 기능 및 잔존하는 조음기관 운동성을 향상시키는데 긍정적인 영향을 미칠 수 있음을 알 수 있었다.

음질, 운율, 발음 특징을 이용한 마비말장애 중증도 자동 분류 (Automatic severity classification of dysarthria using voice quality, prosody, and pronunciation features)

  • 여은정;김선희;정민화
    • 말소리와 음성과학
    • /
    • 제13권2호
    • /
    • pp.57-66
    • /
    • 2021
  • 본 논문은 말 명료도 기준의 마비말장애 중증도 자동 분류 문제에 초점을 둔다. 말 명료도는 호흡, 발성, 공명, 조음, 운율 등 다양한 말 기능 특징의 영향을 받는다. 그러나 대부분의 선행연구는 한 개의 말 기능 특징만을 중증도 자동분류에 사용하였다. 본 논문에서는 음성의 장애 특성을 효과적으로 포착하기 위해 마비말장애 중증도 자동 분류에서 음질, 운율, 발음의 다양한 말 기능 특징을 반영하고자 하였다. 음질은 jitter, shimmer, HNR, voice breaks 개수, voice breaks 정도로 구성된다. 운율은 발화 속도(전체 길이, 말 길이, 말 속도, 조음 속도), 음높이(F0 평균, 표준편차, 최솟값, 최댓값, 중간값, 25 사분위값, 75 사분위값), 그리고 리듬(% V, deltas, Varcos, rPVIs, nPVIs)을 포함한다. 발음에는 음소 정확도(자음 정확도, 모음 정확도, 전체 음소 정확도)와 모음 왜곡도[VSA(vowel space area), FCR (formant centralized ratio), VAI(vowel articulatory index), F2 비율]가 있다. 본 논문에서는 다양한 특징 조합을 사용하여 중증도 자동 분류를 시행하였다. 실험 결과, 음질, 운율, 발음 특징 세 가지 말 기능 특징 모두를 분류에 사용했을 때 F1-score 80.15%로 가장 높은 성능이 나타났다. 이는 마비말장애 중증도 자동 분류에는 음질, 운율, 발음 특징이 모두 함께 고려되어야 함을 시사한다.

표준어와 경상 지역 방언의 한국어 모음 발음에 따른 영어 모음 발음의 영향에 대한 연구 (Influence of standard Korean and Gyeongsang regional dialect on the pronunciation of English vowels)

  • 장수연
    • 말소리와 음성과학
    • /
    • 제13권4호
    • /
    • pp.1-7
    • /
    • 2021
  • 본 논문의 목적은 한국어 표준어와 경상 지역 방언의 한국어 모음 발음의 영어 모음 발음에 대한 영향을 연구하는데 있다. 데이터 자료는 한국인의 영어 발음 음성 코퍼스(Korean-Spoken English Corpus, K-SEC)를 활용하였다. 이중 일곱 개의 한국어 단모음이 포함된 단어와 열 개의 영어 단모음이 포함된 단어가 선정되어 분석되었다. 선정된 자료는 외국 거주 경험이 없는 성인 남성 표준어 화자와 경상 지역 방언 화자에 의해 발화되었다. 녹음된 코퍼스 자료의 포먼트 주파수는 음성 분석 프로그램인 Praat에서 제공하는 스펙트로그램을 통해 측정되었다. 녹음된 자료들은 포먼트 구역 그래프로 나타내어 분석되었다. 결과에 의하면, 한국어와 영어 모음의 발화에서 경상 지역 방언 화자가 강한 후설성을 보인 반면에 표준어 화자는 비교적 전설성이 강하게 나타났다. 또한, 표준어와 경상 지역 방언의 한국어 모음 발음 차이 (/으/, /어/)는 대치되는 영어 모음 발음(/ə/, /ʊ/)의 조음 방식에 영향을 미쳤다. 지역 방언의 사용과 무관한 한국인의 일반적인 모음 발음 특징은 영어 원어민 화자보다 조음 구역이 좁다는 것이다. 이에 한국인은 전반적으로 긴장 모음과 이완 모음을 구별하는 데 어려움이 있지만, 영어 원어민 화자는 모음 조음에 명확한 구분이 있다.

자발화에 나타난 형태소 유형에 따른 3-4세 아동의 치경마찰음 오류 (Alveolar Fricative Sound Errors by the Type of Morpheme in the Spontaneous Speech of 3- and 4-Year-Old Children)

  • 김수진;김정미;윤미선;장문수;차재은
    • 말소리와 음성과학
    • /
    • 제4권3호
    • /
    • pp.129-136
    • /
    • 2012
  • Korean alveolar fricatives are late-developing speech sounds. Most previous research on phonemes used individual words or pseudo words to produce sounds, but word-level phonological analysis does not always reflect a child's practical articulation ability. Also, there has been limited research on articulation development looking at speech production by grammatical morphemes despite its importance in Korean language. Therefore, this research examines the articulation development and phonological patterns of the /s/ phoneme in terms of morphological types produced in children's spontaneous conversational speech. The subjects were twenty-two typically developing 3- and 4-year-old Koreans. All children showed normal levels in three screening tests: hearing, vocabulary, and articulation. Spontaneous conversational samples were recorded at the children's homes. The results are as follows. The error rates decreased with increasing age in all morphological contexts. Also, error percentages within an age group were significantly lower in lexical morphemes than in grammatical morphemes. The stopping of fricative sounds was the main error pattern in all morphological contexts and reduced as age increased. This research shows that articulation performance can differ significantly by morphological contexts. The present study provides data that can be used to identify the difficult context for articulatory evaluation and therapy of alveolar fricative sounds.

Automatic Vowel Sequence Reproduction for a Talking Robot Based on PARCOR Coefficient Template Matching

  • Vo, Nhu Thanh;Sawada, Hideyuki
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제5권3호
    • /
    • pp.215-221
    • /
    • 2016
  • This paper describes an automatic vowel sequence reproduction system for a talking robot built to reproduce the human voice based on the working behavior of the human articulatory system. A sound analysis system is developed to record a sentence spoken by a human (mainly vowel sequences in the Japanese language) and to then analyze that sentence to give the correct command packet so the talking robot can repeat it. An algorithm based on a short-time energy method is developed to separate and count sound phonemes. A matching template using partial correlation coefficients (PARCOR) is applied to detect a voice in the talking robot's database similar to the spoken voice. Combining the sound separation and counting the result with the detection of vowels in human speech, the talking robot can reproduce a vowel sequence similar to the one spoken by the human. Two tests to verify the working behavior of the robot are performed. The results of the tests indicate that the robot can repeat a sequence of vowels spoken by a human with an average success rate of more than 60%.

비 유창성 실어증 환자 말소리의 음향학적 분석 (An Acoustic Analysis of Speech in Patients with Nonfluent Aphasia)

  • 김현기;강은영;김연희
    • 음성과학
    • /
    • 제9권3호
    • /
    • pp.87-97
    • /
    • 2002
  • The purpose of this study is to analyze the speech duration in Korean-speaking aphasics. Five patients with nonfluent aphasia (2 with traumatic brain injury and 3 with strokes) and five normal adults participated in this experiment. The mean age in patients with nonfluent aphasia was $45.8\pm2.3$ years and $47.4\pm2.3$ years for the normal adults. The Computerized Speech Lab was used to evaluate the acoustic characteristics of the subjects. Voice onset time, vowel duration, total duration, hold and consonant duration were evaluated for the monosyllabic and the polysyllabic words. The patients with nonfluent aphasia did not show the voicing bar on hold area, however, it was seen in the normal persons in the intervocalic position. Explosion duration of glottalized stops in the intervocalic position was significantly prolonged in nonfluent aphasics in comparison with the normal persons. This suggestes that the laryngeal adjustment is disturbed in these patients. Consonant duration, vowel duration, and total duration of the polysyllabic words were significantly longer in the patients with nonfluent aphasia than those of the normal persons. These results demonstrate the disturbances in controlling articulatory muscles during sound production in patients with nonfluent aphasia. The objective and quantitative analysis based on the acoustic characteristics of nonfluent aphasics, will be very useful in therapeutic planning and on the the effects of speech therapy.

  • PDF