• 제목/요약/키워드: vocal feature

검색결과 52건 처리시간 0.021초

Robust Speech Hash Function

  • Chen, Ning;Wan, Wanggen
    • ETRI Journal
    • /
    • 제32권2호
    • /
    • pp.345-347
    • /
    • 2010
  • In this letter, we present a new speech hash function based on the non-negative matrix factorization (NMF) of linear prediction coefficients (LPCs). First, linear prediction analysis is applied to the speech to obtain its LPCs, which represent the frequency shaping attributes of the vocal tract. Then, the NMF is performed on the LPCs to capture the speech's local feature, which is then used for hash vector generation. Experimental results demonstrate the effectiveness of the proposed hash function in terms of discrimination and robustness against various types of content preserving signal processing manipulations.

정상 음성의 목소리 특성의 정성적 분류와 음성 특징과의 상관관계 도출 (Qualitative Classification of Voice Quality of Normal Speech and Derivation of its Correlation with Speech Features)

  • 김정민;권철홍
    • 말소리와 음성과학
    • /
    • 제6권1호
    • /
    • pp.71-76
    • /
    • 2014
  • In this paper voice quality of normal speech is qualitatively classified by five components of breathy, creaky, rough, nasal, and thin/thick voice. To determine whether a correlation exists between a subjective measure of voice and an objective measure of voice, each voice is perceptually evaluated using the 1/2/3 scale by speech processing specialists and acoustically analyzed using speech analysis tools such as the Praat, MDVP, and VoiceSauce. The speech parameters include features related to speech source and vocal tract filter. Statistical analysis uses a two-independent-samples non-parametric test. Experimental results show that statistical analysis identified a significant correlation between the speech feature parameters and the components of voice quality.

화자 인식을 위한 모음의 포만트 연구 (A Study on Formants of Vowels for Speaker Recognition)

  • 안병섭;신지영;강선미
    • 대한음성학회지:말소리
    • /
    • 제51호
    • /
    • pp.1-16
    • /
    • 2004
  • The aim of this paper is to analyze vowels in voice imitation and disguised voice, and to find the invariable phonetic features of the speaker. In this paper we examined the formants of monophthongs /a, u, i, o, {$\omega},{\;}{\varepsilon},{\;}{\Lambda}$/. The results of the present are as follows : $\circled1$ Speakers change their vocal tract features. $\circled2$ Vowels /a, ${\varepsilon}$, i/ appear to be proper for speaker recognition since they show invariable acoustic feature during voice modulation. $\circled3$ F1 does not change easily compared to higher formants. $\circled4$ F3-F2 appears to be constituent for a speaker identification in vowel /a/ and /$\varepsilon$/, and F4-F2 in vowel /i/. $\circled5$ Resulting of F-ratio, differences of each formants were more useful than individual formant of a vowel to speaker recognition.

  • PDF

Acoustic, Intraoral Air Pressure and EMG Studies of Vowel Devoicing in Korean

  • Kim, Hyun-Gi;Niimi, Sei-Ji
    • 음성과학
    • /
    • 제10권1호
    • /
    • pp.3-13
    • /
    • 2003
  • The devoicing vowel is a phonological process whose contrast in sonority is lost or reduces in a particular phonetic environment. Phonetically, the vocal fold vibration originates from the abduction/adduction of the glottis in relation to supraglottal articulatory movements. The purpose of this study is to investigate Korean vowel devoicing by means of experimental instruments. The interrelated laryngeal adjustments and aerodynamic effects for this voicing can clarify the redundant articulatory gestures relevant to the distinctive feature of sonority. Five test words were selected, being composed of the high vowel /i/, between the fricative and strong aspirated or lenis affricated consonants. The subjects uttered the test words successively at a normal or at a faster speed. The EMG, the sensing tube Gaeltec S7b and the High-Speech Analysis system and MSL II were used in these studies. Acoustically, three different types of speech waveforms and spectrograms were classified, based on the voicing variation. The intraoral air pressure curves showed differences, depending on the voicing variations. The activity patterns of the PCA and the CT for devoicing vowels appeared differently from those showing the partially devoicing vowels and the voicing vowels.

  • PDF

인체와 성덕대왕 신종의 진동 특성 비교 연구 (A Study on Comparison between the Vibration Characteristics of the King Songdok Bell and the Human Body)

  • 전종원;진용옥
    • 한국정보처리학회논문지
    • /
    • 제7권10호
    • /
    • pp.3119-3127
    • /
    • 2000
  • 본 논문은 성덕대왕 신종과 인체의 진동 특성의 상관관계를 분석함으로서 진동 특징 추출의 새로운 방안을 도출하기 위한 연구이다. 신종의 종, 움통, 울림통과 기타 비대칭적 요소들을 인체의 몸체, 성도, 횡경막과 인체구조의 비대칭적 요소들에 대비시켜 각각의 음향 특성들을 실험을 통하여 비교 분석하였다. 실험결과, 대비시킨 각 요소들의 음향 특성이 매우 흡사하여, 신종의 소리 특성에 관한 정보가 인체의 진동 전달 특성을 분석하는 데 있어서도 매우 유용하게 적용될 수 있다는 것을 확인하였다.

  • PDF

최적 분류 변환을 이용한 음성 개성 변환 (Voice Personality Transformation Using an Optimum Classification and Transformation)

  • 이기승
    • 한국음향학회지
    • /
    • 제23권5호
    • /
    • pp.400-409
    • /
    • 2004
  • 본 논문에서는 임의의 화자가 발성한 음성을 다른 화자가 발성한 음성처럼 들리도록 변환하는 음성 변환 알고리즘을 제안하였다. 개인이 지니고 있는 음성의 특성을 변환하기 위해 성도 전달 함수의 특성을 변환 변수로 사용하였으며, 기존의 기법과 비교하여 목표 화자의 음성과 주관적, 객관적으로 더욱 유사한 변환음을 얻기 위한 새로운 방법을 제안하였다. 성도 전달 함수의 변환은 전체 특징 벡터 공간을 분류 한 뒤, 각 구획에 대한 선형 변환식을 통해 구현된다. 특징 변수로서 LPC 켑스트럼을 사용하였으며, 벡터 공간의 분류와 선형 변환식의 추정을 동시에 최적화시키는 분류-변환 알고리즘이 새로이 제안되었다. 제안된 음성 변환 기법의 성능을 평가하기 위해 3명의 남성 화자와 1명의 여성 화자로부터 수집된 약 150개의 문장을 사용하여 변환 규칙을 생성하였으며, 이를 동일한 화자가 발성한 다른 150개의 문장에 대해 적용하여 객관적인 성능 평가와 주관적 청취 테스트를 수행하였다.

Electromyographic evidence for a gestural-overlap analysis of vowel devoicing in Korean

  • Jun, Sun-A;Beckman, M.;Niimi, Seiji;Tiede, Mark
    • 음성과학
    • /
    • 제1권
    • /
    • pp.153-200
    • /
    • 1997
  • In languages such as Japanese, it is very common to observe that short peripheral vowel are completely voiceless when surrounded by voiceless consonants. This phenomenon has been known as Montreal French, Shanghai Chinese, Greek, and Korean. Traditionally this phenomenon has been described as a phonological rule that either categorically deletes the vowel or changes the [+voice] feature of the vowel to [-voice]. This analysis was supported by Sawashima (1971) and Hirose (1971)'s observation that there are two distinct EMG patterns for voiced and devoiced vowel in Japanese. Close examination of the phonetic evidence based on acoustic data, however, shows that these phonological characterizations are not tenable (Jun & Beckman 1993, 1994). In this paper, we examined the vowel devoicing phenomenon in Korean using data from ENG fiberscopic and acoustic recorders of 100 sentences produced by one Korean speaker. The results show that there is variability in the 'degree of devoicing' in both acoustic and EMG signals, and in the patterns of glottal closing and opening across different devoiced tokens. There seems to be no categorical difference between devoiced and voiced tokens, for either EMG activity events or glottal patterns. All of these observations support the notion that vowel devoicing in Korean can not be described as the result of the application of a phonological rule. Rather, devoicing seems to be a highly variable 'phonetic' process, a more or less subtle variation in the specification of such phonetic metrics as degree and timing of glottal opening, or of associated subglottal pressure or intra-oral airflow associated with concurrent tone and stricture specifications. Some of token-pair comparisons are amenable to an explanation in terms of gestural overlap and undershoot. However, the effect of gestural timing on vocal fold state seems to be a highly nonlinear function of the interaction among specifications for the relative timing of glottal adduction and abduction gestures, of the amplitudes of the overlapped gestures, of aerodynamic conditions created by concurrent oral tonal gestures, and so on. In summary, to understand devoicing, it will be necessary to examine its effect on phonetic representation of events in many parts of the vocal tracts, and at many stages of the speech chain between the motor intent and the acoustic signal that reaches the hearer's ear.

  • PDF

청각 환경이 구강안면 통증환자의 음성 파라미터에 미치는 영향 (The Effect of Auditory Condition on Voice Parameter of Orofacial Pain Patient)

  • 이주영;백광현;홍정표
    • Journal of Oral Medicine and Pain
    • /
    • 제30권4호
    • /
    • pp.427-432
    • /
    • 2005
  • 본 연구는 구강안면통증 환자의 음성적 특징과 청각 환경에 따른 음성적 변화를 살펴보기 위한 것이다. 구강안면통증 환자 29명과 정상인 31명을 대상으로 그들의 일반 음성과 청각 조건(소음, 음악)에서의 음성 파라미터들을 비교 분석하여 다음과 같은 결론을 얻을 수 있었다. 1. 구강안면통증 환자는 정상인의 음성과 비교해 낮은 F0(Hz) 값과 높은 jitter(%), shimmer(%)값을 가져 정상인에 비해 낮고 불안정한 음성 특징(feature)을 나타내었다. 2. 구강안면통증 환자의 음성은 소음 환경과 비교해 음악 환경에서 낮은 F0(Hz)값과 shimmer(%)값을 가져 보다 이완되고 안정된 음성 특징을 나타내었다. 3. 정상인의 음성은 소음 환경에서 높은 F0(Hz)값을 가졌으나 음악, 소음 환경에 따른 특징적인 차이를 나타내지 않았다. 이상의 결과를 통해 구강안면통증 환자는 정상인의 음성과 비교해 특징적인 차이를 보였으며 외부적인 청각 환경에도 다른 반응 양상을 나타내었다. 따라서 구강안면통증 환자들의 기능적 장애를 보다 효율적으로 치료하기 위해서는 음악과 같은 긍정적인 정서 환경이 제공되어야 할 것으로 사료된다.

성대신호 기반의 명령어인식기를 위한 특징벡터 연구 (Effective Feature Vector for Isolated-Word Recognizer using Vocal Cord Signal)

  • 정영규;한문성;이상조
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제34권3호
    • /
    • pp.226-234
    • /
    • 2007
  • 본 논문은 환경 노이즈를 원천적으로 차단하는 성대 마이크를 이용한 명령어 인식기를 개발한다. 성대마이크는 환경 노이즈의 효과를 최소화하는 장점이 있다. 그러나 고주파의 부재와 부분적인 포먼트 정보 손실 때문에, 성대마이크를 이용해서 개발된 ASR시스템은 표준마이크를 이용한 시스템에 비해 낮은 성능을 보인다. 이러한 문제 때문에 ASR시스템 개발에 성대마이크를 이용한 경우는 표준 마이크로 낮은 성능을 보인다. 이러한 문제 때문에 ASR시스템 개발에 성대마이크를 이용한 경우는 표준 마이크로부터 입력되는 정보 보안하는데 주로 사용된다. 본 논문은 한국어의 음운적 특정과 신호 분석을 통해 성대마이크만을 사용한 높은 성능의 ASR 시스템을 개발 할 수 있음을 보인다. 주파수 대역내 에너지 합을 이용하는 MFCC 알고리즘이 갖는 성대신호 분석의 문제점을 제시하고, 성대신호를 대상으로 보다 높은 성능을 갖는 특정추출 알고리즘의 조건을 제시한다. 이러한 조건은 (1) 민감한 band-pass filter와 (2) 유/무성음 분리를 위해 사용하는 특정벡터의 사용이다 실험 결과 제안된 조건을 만족하는 ZCPA 알고리즘을 적용한 경우가 MFCC를 적용한 경우보다 약 16%정도의 높은 성능을 보인다. 그러고 CMS와 RASTA와 같은 channel normalization 알고리즘을 적용한 경우 약 2%의 성능 향상이 있다.

파형 특징 추출과 신경망 학습 기반 모음 'ㅣ' 음성 인식 (Speech Recognition for the Korean Vowel 'ㅣ' based on Waveform-feature Extraction and Neural-network Learning)

  • 노원빈;이종우;이재원
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제22권2호
    • /
    • pp.69-76
    • /
    • 2016
  • 최근 모든 산업에서 사물인터넷에 대한 관심이 집중되면서 집, 회사, 차, 길거리 등 인간이 생활하는 모든 환경에 컴퓨팅 기술이 접목되고 있다. 이 같은 사물인터넷 환경에서 음성인식은 중요한 HCI 수단으로 자리 잡고 있다. 현존하는 서버 기반의 음성인식은 속도가 빠르고 꽤 높은 인식률을 보여주고는 있지만, 데이터베이스 내에 저장되어 있는 단어 단위로 인식하기 때문에 인터넷 연결과 복잡한 컴퓨팅이 필수적이다. 본 논문은 한국어 음소 모음 'ㅏ', 'ㅓ' 인식에 대한 휴리스틱 알고리즘에 이은 연구로 모음 'ㅣ'에 대한 음성 인식을 구현하고자 한다. 모음 'ㅣ' 음성의 여러 파형 패턴들을 관찰한 결과 모음 'ㅏ', 'ㅓ'와는 다른 특정한 파형의 패턴을 가지고 있음을 발견하였고, 그 패턴을 인식하는 알고리즘을 제시한다. 또한, 제시한 알고리즘에 신경망 학습을 적용하여 인식성공률을 높이는 실험 결과도 제시한다. 모음 'ㅣ'에 대한 본 알고리즘은 파형의 특징적인 부분 추출 기반으로 인식하며, 신경망 학습까지 적용한 후 실험한 결과 90% 이상의 정확도로 모음 'ㅣ'를 인식하는 것을 확인하였다.