• Title/Summary/Keyword: 음성 분석

Search Result 3,062, Processing Time 0.027 seconds

Mobile VoIP 서비스가 이동통신 사업자에게 미치는 영향분석

  • Choe, Hong-Sik;Go, Seong-Hyeok;Lee, Sa-Ya
    • 한국경영정보학회:학술대회논문집
    • /
    • 2007.06a
    • /
    • pp.911-915
    • /
    • 2007
  • Mobile VoIP(이하 m-VoIP) 서비스의 도입에 따른 이동통신 사업자에게 미치는 영향을 크게보면 음성통화 서비스의 요금정책의 영향, 상호접속제도의 영향 그리고 음성통화 수익성에 영향으로 나누어 생각해 볼 수 있다. 본 논문에서는 m-VoIP 도입에 따른 이통사의 수입변화를 분석함으로서 그 영향력을 파악 하였다. 분석방법은 이통사의 수입을 접속료 수입과 음성통화 수입으로 나누고, 각각의 손실분 및 이익분을 추산해보는 방법을 사용 하였다.

  • PDF

Blind Classification of Speech Compression Methods using Structural Analysis of Bitstreams (비트스트림의 구조 분석을 이용한 음성 부호화 방식 추정 기법)

  • Yoo, Hoon;Park, Cheol-Sun;Park, Young-Mi;Kim, Jong-Ho
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.16 no.1
    • /
    • pp.59-64
    • /
    • 2012
  • This paper addresses a blind estimation and classification algorithm of the speech compression methods by using analysis on the structure of compressed bitstreams. Various speech compression methods including vocoders are developed in order to transmit or store the speech signals at very low bitrates. As a key feature, the vocoders contain the block structure inevitably. In classification of each compression method, we use the Measure of Inter-Block Correlation (MIBC) to check whether the bitstream includes the block structure or not, and to estimate the block length. Moreover, for the compression methods with the same block length, the proposed algorithm estimates the corresponding compression method correctly by using that each compression method has different correlation characteristics in each bit location. Experimental results indicate that the proposed algorithm classifies the speech compression methods robustly for various types and lengths of speech signals in noisy environment.

An Emotion Recognition Technique using Speech Signals (음성신호를 이용한 감정인식)

  • Jung, Byung-Wook;Cheun, Seung-Pyo;Kim, Youn-Tae;Kim, Sung-Shin
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.18 no.4
    • /
    • pp.494-500
    • /
    • 2008
  • In the field of development of human interface technology, the interactions between human and machine are important. The research on emotion recognition helps these interactions. This paper presents an algorithm for emotion recognition based on personalized speech signals. The proposed approach is trying to extract the characteristic of speech signal for emotion recognition using PLP (perceptual linear prediction) analysis. The PLP analysis technique was originally designed to suppress speaker dependent components in features used for automatic speech recognition, but later experiments demonstrated the efficiency of their use for speaker recognition tasks. So this paper proposed an algorithm that can easily evaluate the personal emotion from speech signals in real time using personalized emotion patterns that are made by PLP analysis. The experimental results show that the maximum recognition rate for the speaker dependant system is above 90%, whereas the average recognition rate is 75%. The proposed system has a simple structure and but efficient to be used in real time.

A Study on the Spectrum Variation of Korean Speech (한국어 음성의 스펙트럼 변화에 관한 연구)

  • Lee Sou-Kil;Song Jeong-Young
    • Journal of Internet Computing and Services
    • /
    • v.6 no.6
    • /
    • pp.179-186
    • /
    • 2005
  • We can extract spectrum of the voices and analyze those, after employing features of frequency that voices have. In the spectrum of the voices monophthongs are thought to be stable, but when a consonant(s) meet a vowel(s) in a syllable or a word, there is a lot of changes. This becomes the biggest obstacle to phoneme speech recognition. In this study, using Mel Cepstrum and Mel Band that count Frequency Band and auditory information, we analyze the spectrums that each and every consonant and vowel has and the changes in the voices reftects auditory features and make it a system. Finally we are going to present the basis that can segment the voices by an unit of phoneme.

  • PDF

Analysis of Eigenvalues of Covariance Matrices of Speech Signals in Frequency Domain (음성 신호의 주파수 영역에서의 공분산행렬의 고유값 분석)

  • Kim, Seonil
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2015.05a
    • /
    • pp.47-50
    • /
    • 2015
  • Speech Signals consist of signals of consonants and vowels, but the lasting time of vowels is much longer than that of consonants. It can be assumed that the correlations between signal blocks in speech signal is very high. Each speech signal is divided into blocks which have 128 speech data. FFT is applied to each block. Low frequency areas of the results of FFT is taken and Covariance matrix between blocks in a speech signal is extracted and finally eigenvalues of those matrix are obtained. It is studied that what the distribution of eigenvalues of various speech files is. The differences between speech signals and noise signals from cars are also studied.

  • PDF

Telephone Speech Recognition Using Laboratory Environment Speech Data (실험실 환경 음성을 이용한 전화음성 인식에 관한 연구)

  • 윤상호
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1994.06c
    • /
    • pp.391-394
    • /
    • 1994
  • 본 연구에서는 전화선을 통한 음성인식을 위해 저잡음의 실험실 환경에서 수집된 음성 자료를 이용하는 접근을 하였다. 전화 음성과 실험실 음성 간의 특성 차이를 보정하기 위해 선형 회귀 분석법을 이용한 SDCN을 제안하였다. 두 자료간의 보정은 동시 녹음된 실험실 환경의 음성과 전화음성의 SNRDP 따른 두 자료간의 차이를 최소화하는 변환행렬을 구해, 이를 학습자료의 변환에 이용한다. 제안된 방법의 타당성을 확인하기 위해 두가지 인식 알고리즘인 DTW와 이산 HMM 에 대해 실험하였다. DTW를 통한 인식에서개선된 SDCN 에 의한 특징벡터의 변환은 기존의 SDCNDP 따른 특징변환보다 8~17%의 인식률이 향상되었다. 이산 HMM으로 인식할 때는 개선된 SDCNDP 의한 전화음성과 실험실 음성과의 유사도를 보다 잘 나타내기 위해 개선된 SDCN을 적용하고, VQ 코드열 상에서이 코드 사상법을 사용하여 인식률의 향상시켰다.

  • PDF

신경회로망을 이용한 연속음성중 키워드(keyword)인식에 관한 연구

  • 최관선;한민홍
    • Proceedings of the Korean Operations and Management Science Society Conference
    • /
    • 1993.04a
    • /
    • pp.275-281
    • /
    • 1993
  • 본 발표에서는 신경회로망을 이용하여 연속음성중에서 키워드를 인식하는 방법을 설명한다. 연속음성에서 파형소편 및 음절을 식별하는 휴리스틱 알고리즘을 개발하였고, 연속음성을 음절단위로 파형소편 스펙트럼분석(선형예측법)으로 특성치를 추출하였다. 음절의 특성치는 코호넨 신경회로망을 통하여 학습을 시켰으며, 연속음성중 키워드인식은 먼저 음절을 인식하여 단어를 찾고, 인식된 단어가 키워드와 일치하는가를 확인한다. 본 연구의 의의는 파형소편 및 음절식별 알고리즘을 통하여, 크기불변성(Scaling invariance), 시간불변성(Time warping 및 Time-shift invariance), 중복성제거의 문제점을 해결하였고, 신경회로망의 학습을 통하여 화자독립적인 연속음성인식시스템 구축의 기반을 확립한데 있다. 본 음성인식모델은 학교구내 전화번호 안내시스템으로 활용단계에 있으며 전화번호뿐만아니라 주소안내시스템으로도 활용될 예정이다. 또한 자동차 운전보조시스템 및 주행안내시스템의 음성명령에 응용될 수 있는데, 예로 음성명령은 "핸들 좌로 20도", "시청까지 주행", "시청 지도안내"등이 될 수 있다. 현재 자동차 운전보조시스템은 컴퓨터 화면상 모의동작시스템으로 운영되고 있다. 본 음성인식모델은 화자종속시 90%이상, 화자독립시 70%의 인식결과를 보였다.시 90%이상, 화자독립시 70%의 인식결과를 보였다.

  • PDF

Performance Comparison of Speech Recognition Using Body-conducted Signals in Noisy Environment (소음 환경에서 body-conducted 신호를 이용한 음성인식 성능 비교)

  • Choi Dae-Lim;Lee Kwang-Hyun;Lee Yong-Ju;Kim Chong-Kyo
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.57-60
    • /
    • 2004
  • 본 논문에서는 음성정보기술산업지원센터(SiTEC)에서 현재 배포중인 고소음 환경 음성 DB를 이용하여 air-conducted 음성과 body-conducted 음성의 인식 성능을 비교 실험하였다. 소음 환경에서 일반적인 마이크로폰으로부터 수집된 air-conducted 음성은 잡음의 영향을 받기 쉬우며 이는 인식률을 저하시킨다. 반면에 진동 픽업 마이크로폰에서 수집된 body-conducted 음성은 소음에 보다 강인한 특성을 보인다. 이러한 특성에 근거하여 소음 환경에서 일반 다이나믹 마이크로폰 음성에 음질 개선 방법과 채널 보상 방법을 적용한 인식 결과와 3종류의 진동 픽업 마이크로폰에서 수집된 음성과의 인식 성능을 비교 분석하여 body-conducted 음성 인식 시스템의 환용 가능성을 살펴보았다.

  • PDF

연극 배우의 음성 관리 및 음성 사용에 관한 연구

  • 조성미;정옥란
    • Proceedings of the KSLP Conference
    • /
    • 2003.11a
    • /
    • pp.137-137
    • /
    • 2003
  • 본 연구는 직업적 음성 사용자인 연극 배우의 음성 관리, 극중 인물 특징을 표현하기 위한 요소 중 음성이 차지하는 비중과 적합한 발성 및 발화 방법에 대하여 살펴보았다. 본 연구에는 대구광역시 소재 K극예술연구회의 연극 배우 9명이 참여하였다. 연극 배우의 음성 관리 및 극중 인물의 특성을 표현하기 위한 발성 및 발화 방법에 대한 설문지를 작성하여 조사하였다. 여러 가지 인물에 적합한 발성법으로 '산책' 문단을 발화하도록 한 뒤, 대상자들에게 각 인물에 대한 발성 방법을 설문지에 기록하도록 하였다. 대상자들이 발화한 음성 샘플을 음향학적, 지각적 측면에서 평가하여 대상자들이 기술한 발성 및 발화 방범과의 상관을 살펴보았다. 음성 샘플은 Windows용 Praat(4.1.7)으로 수집 및 분석하였다. (중략)

  • PDF