• Title/Summary/Keyword: 음질 인식

Search Result 41, Processing Time 0.025 seconds

Analysis and Evaluation of PEAQ : Objective Method for Perceived Audio Quality Measurement (객관적 음질 평가를 위한 PEAQ의 성능 평가 및 분석)

  • Park Se-Hyoung;Ryu Seung-Wan;Park Jeong-Yeol;Shin Jae-Ho
    • 한국정보통신설비학회:학술대회논문집
    • /
    • 2003.08a
    • /
    • pp.234-239
    • /
    • 2003
  • 디지털방송, DAB 등과 같은 디지털 오디오 방송 서비스를 위한 디지털 시스템을 설계하기 위해서는 오디오 음질을 평가하기 위한 방법이 필수적이다. 기존의 방식은 인간의 귀를 이용한 주관적 방식을 이용함으로서 많은 시간과 비용을 들이게 되며, 음질평가를 하는 사람의 주관적 의견에 많이 좌우하게 된다. 그러나 최근 ITV-R에서는 오디오 음질의 객관적 평가를 위한 BS.1387(PEAQ)를 제안함으로 많은 시간과 비용을 절감하고 신뢰할 수 있는 결과를 얻게 되었다. PEAQ는 인간의 귀에서의 신호의 처리과정과 인식과정을 심리음향모델과 인식모델로 분리하여 구성함으로써 주관적 평가의 SDG(Subjective Difference Grade)에 대응하는 ODG(Objective Difference Grade)를 구하게 된다. 본 논문에서는 이러한 PEAQ의 심리음향 모델과 인식 모델을 원리와 과정을 평가 분석하였다.

  • PDF

A Speech Coder for Server-Based Speech Recognition in Mobile Communication (이동통신 환경 하에서의 서버 기반 음성 인식을 위한 음성 부호화 기법)

  • Lee Gil Ho;Yoon Jae Sam;Oh Yoo Rhee;Kim Hong Kook
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.89-92
    • /
    • 2004
  • 본 논문의 목적은 이동통신 환경 하에서 음성 인식과 음성 부호화를 성능의 저하 없이 동시에 수행하기 위한 기법을 개발하는 것에 있다. 이를 구현하기 위해 통신상에서 전송되는 음성 특징 파라미터는 기존 음성 부호화기의 LPC 대신 음성 인식 파라미터인 MFCC를 사용하였다. 따라서 음성 인식 성능은 향상된다 하지만 음성 재생을 위해 MFCC를 LPC로 변환하는 과정에서 오차가 발생하여 전송되는 bit 수에 비해 만족할만한 음질을 얻을 수 없다. 따라서 이 오차를 보상하여야 하며 이를 위한 변수를 추가하여 음질을 개선시켰다. 그 결과 음질과 음성 인식에서 안정된 성능을 보이는 음성 부호화기를 개발하였다.

  • PDF

Trend of sound quality development in vehicles (자동차 음질 개발 동향)

  • Kang, Koo-Tae
    • Proceedings of the Korean Society for Noise and Vibration Engineering Conference
    • /
    • 2010.05a
    • /
    • pp.327-327
    • /
    • 2010
  • 자동차에서 실내음질은 구매결정 요소들 중의 하나로 그 중요성이 점차 증가하고 있다. 따라서 다양한 운전조건에서 운전자가 기대하는 실내음질의 기대 수준을 충족시켜야 한다. 소비자는 운전경험과 습관에 따라 기대하는 음질에 차이가 있고 소리에 대한 표현방식도 모호하기 때문에 이러한 주관적 특성을 하나의 통일된 표현으로 정의 하기가 어렵다. 그러나 지난 이십여 년 동안의 음질개발과 차량 실내소음 주관평가의 통계처리로 통일된 표현을 할 수 있었다. 나아가 심리음향학 및 신호처리기술의 발달과 꾸준한 음질연구결과로 소리특성을 객관적으로 나타내는 소리의 시각화가 가능하였으며, 운전자가 인식하는 주관평가와의 상관관계를 높여 차량의 대표적인 음질인자로 정량화하여 음질목표를 설정할 수 있었다. 실내소음의 구성은 엔진 투과음, 흡배기 소음, 바람 소음, 도로 기인 소음 등으로 다양하므로 소음원에 따라 음의 균형을 맞추어 조화로운 음질개발을 하는 것이 중요했다. 또한 차량 판매되는 지역에 따라 선호음이 상이하여 지역별 실내음질의 차별화가 필요했다. 궁극적으로는 운전자의 감성품질을 만족할 수 있도록 음을 제어하여 브랜드 사운드를 개발하고 있다. 이러한 실내음질을 달성하기 위한 방법으로 소음원과 전달경로에 대해 기여도를 분석하고, 경로를 구성하는 시스템 별로 세분화하여 시스템 목표를 설정하였다. 시스템 개발에 중요한 인자로 차량의 동강성 및 흡차음 성능을 들 수 있다. 특히 디젤차량의 비중이 큰 유럽업체의 차량의 동강성 및 흡차음 개발 능력은 높게 평가되고 있다. 이에 유럽의 부품전문회사가 가지고 있는 해석과 시험적인 개발 방법을 통하여 전달계 특성을 만족하기 위한 시스템의 동강성 및 흡차음 특성을 개발하고 있다. 차량음질 튜닝의 중요한 기법 중 하나로 흡배기 개발을 추진하고 있다. 친환경자동차인 하이브리드차량, 전기차량 및 연료전지차량의 경우 전기구동부품에서 발생하는 각종 이음 발생을 최소화 했다. 보행자를 보호하고 운전의 즐거움을 향상하기 위한 가상사운드 개발을 진행하고 있다. 회사 수익성 향상을 위한 원가절감 및 구조 경량화에 따른 음질악화와 연비 향상 및 배기가스 규제 강화로 고성능 고출력 엔진탑재에 따른 음질악화 요인을 극복해야 했다. 운전자의 청감은 차량의 운전성에 따라서도 크게 영향을 받게 되므로 엔진제어와 변속기제어를 통해 음질과 운전성이 조화를 이룰 수 있도록 개발하고 있다. 향후, 소음원에 따른 시스템 최적화 개발, 운전성과 음질 연계 개발과 친환경차량의 가상사운드 개발 등이 자동차 음질 개발의 중요한 이슈로 생각한다.

  • PDF

Analyzing the element of emotion recognition from speech (음성으로부터 감성인식 요소 분석)

  • 박창현;심재윤;이동욱;심귀보
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2001.12a
    • /
    • pp.199-202
    • /
    • 2001
  • 일반적으로 음성신호로부터 사람의 감정을 인식할 수 있는 요소는 (1)대화의 내용에 사용한 단어, (2)톤 (Tone), (3)음성신호의 피치(Pitch), (4)포만트 주파수(Formant Frequency), 그리고 (5)말의 빠르기(Speech Speed) (6)음질(Voice Quality) 등이다. 사람의 경우는 주파수 같은 분석요소 보다는 론과 단어, 빠르기, 음질로 감정을 받아들이게 되는 것이 자연스러운 방법이므로 당연히 후자의 요소들이 감정을 분류하는데 중요한 인자로 쓰일 수 있다. 그리고, 종래는 주로 후자의 요소들을 이용하였는데, 기계로써 구현하기 위해서는 조금 더 공학적인 포만트 주파수를 사용할 수 있게 되는 것이 도움이 된다. 그러므로, 본 연구는 음성 신호로부터 피치와 포만트, 그리고 말의 빠르기 등을 이용하여 감성 인식시스템을 구현하는 것을 목표로 연구를 진행하고 있는데, 그 1단계 연구로서 본 논문에서는 화가 나서 내뱉는 알과 기쁠 때 간단하게 사용하는 말들을 기반으로 하여 극단적인 두 가지 감정의 독특한 특성을 찾아낸다.

  • PDF

How to Express Emotion: Role of Prosody and Voice Quality Parameters (감정 표현 방법: 운율과 음질의 역할)

  • Lee, Sang-Min;Lee, Ho-Joon
    • Journal of the Korea Society of Computer and Information
    • /
    • v.19 no.11
    • /
    • pp.159-166
    • /
    • 2014
  • In this paper, we examine the role of emotional acoustic cues including both prosody and voice quality parameters for the modification of a word sense. For the extraction of prosody parameters and voice quality parameters, we used 60 pieces of speech data spoken by six speakers with five different emotional states. We analyzed eight different emotional acoustic cues, and used a discriminant analysis technique in order to find the dominant sequence of acoustic cues. As a result, we found that anger has a close relation with intensity level and 2nd formant bandwidth range; joy has a relative relation with the position of 2nd and 3rd formant values and intensity level; sadness has a strong relation only with prosody cues such as intensity level and pitch level; and fear has a relation with pitch level and 2nd formant value with its bandwidth range. These findings can be used as the guideline for find-tuning an emotional spoken language generation system, because these distinct sequences of acoustic cues reveal the subtle characteristics of each emotional state.

Analyzing the element of emotion recognition from speech (음성으로부터 감성인식 요소분석)

  • 심귀보;박창현
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.11 no.6
    • /
    • pp.510-515
    • /
    • 2001
  • Generally, there are (1)Words for conversation (2)Tone (3)Pitch (4)Formant frequency (5)Speech speed, etc as the element for emotional recognition from speech signal. For human being, it is natural that the tone, vice quality, speed words are easier elements rather than frequency to perceive other s feeling. Therefore, the former things are important elements fro classifying feelings. And, previous methods have mainly used the former thins but using formant is good for implementing as machine. Thus. our final goal of this research is to implement an emotional recognition system based on pitch, formant, speech speed, etc. from speech signal. In this paper, as first stage we foun specific features of feeling angry from his words when a man got angry.

  • PDF

Enhancement of Noisy Speech by Frequency-Domain Block LMS Algorithm (주파수 영역 블록 LMS 알고리즘을 이용한 잡음이 섞인 음성의 음질개선)

  • 조동호;은종관
    • The Journal of the Acoustical Society of Korea
    • /
    • v.4 no.2
    • /
    • pp.13-25
    • /
    • 1985
  • 광대역 혹은 협대역 잡음이 섞인 음성의 음질을 향상시키기 위하여 빠른 수렴속도를 갖고 잇는 UFBLMS 알고리즘을 음성처리에 응용한다. 광대역 잡음이 섞인 음성인 경우에는, 입력음성의 SNR 이 0 dB에서 10 dB 사이일 때, UFBLMS 알고리즘의 성능이 spectral subtraction 방법이나 Wiener filtering 방법보다도 FWSNR\sub SEG\ 척도로 약 3 dB 더 좋음을 알 수 있다. 협대역 잡음이 섞인 음 성인 경우에는 UFBLMS 알고리즘의 spectral subtraction 방법보다 FWSNR\sub SEG\ 척도로 약 2 dB 정도 성능이 더 좋다. 여러 음질 향상 알고리즘의 계산상의 복잡도와 음질 향상도 및 인식도를 고려해 보면 frequency weighting 기능을 갖고 있는 UFBLMS 알고리즘을 사용하는 것이 바람직함을 알 수 있다.

  • PDF

Echo Canceller using Cross-Correlation of Input and Output Singnals (입/출력 신호의 상관계수를 이용한 반향제거기)

  • 강명구
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.06c
    • /
    • pp.189-192
    • /
    • 1998
  • 전화망을 이용한 음성인식 시스팀에서 출력신호의 반향에 의한 입력신호의 음질 열화현상을 막기위해서 적응디지털 필터를 이용한 반향제거기가 필수적이다. 대표적인 적응 필터 알고리즘인 LMS와 NLMS 들을 각각 이용한 적응 반향제거기들과 입/출력신호의 상관계수를 이용한 개선된 적응 필터 알고리즘의 성능을 비교하였다. 개선된 알고리즘의 경우 NLMS 알고리즘의 빠른 수렴특성을 가지면서도 더블톡(double talk)구간에서의 음질왜곡 현상을 LMS보다 개선시켰다.

  • PDF

Comparison and Analysis of Speech Signals for Emotion Recognition (감정 인식을 위한 음성신호 비교 분석)

  • Cho Dong-Uk;Kim Bong-Hyun;Lee Se-Hwan
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.533-536
    • /
    • 2006
  • 본 논문에서는 음성 신호로부터 감정의 특징을 나타내는 요소를 찾아내는 것을 목표로 하고 있다. 일반적으로 감정을 인식할 수 있는 요소는 단어, 톤, 음성신호의 피치, 포만트, 그리고 발음 속도 및 음질 등이 있다. 음성을 기반으로 감정을 익히는 방법 중에서 현재 가장 많이 접근하고 있는 방법은 피치에 의한 방법이 있다. 사람의 경우는 주파수 같은 분석 요소보다는 톤과 단어, 빠르기, 음질로 감정을 받아들이게 되는 것이 자연스러운 방법이므로 이러한 요소들이 감정을 분류하는데 중요한 요소로 쓰일 수 있다. 따라서, 본 논문에서는 감정에 따른 음성의 특징을 추출하기 위해 사람의 감정 중에서 비교적 자주 쓰이는 평상, 기쁨, 화남, 슬픔에 관련된 4가지 감정을 비교 분석하였으며, 인간의 감정에 대한 음성의 특성을 분석한 결과, 강도와 스펙트럼에서 각각의 일관된 결과를 추출할 수 있었고, 이러한 결과에 대한 실험 과정과 최종 결과 및 근거를 제시하였다. 끝으로 실험에 의해 제안한 방법의 유용성을 입증하고자 한다.

  • PDF

Analysis of Semantic Attributes of Korean Words for Sound Quality Evaluation in Music Listening (음악감상에서의 음질 평가를 위한 한국어 어휘의 의미론적 속성 분석)

  • Lee, Eun Young;Yoo, Ga Eul;Lee, Youngmee
    • Journal of Music and Human Behavior
    • /
    • v.21 no.2
    • /
    • pp.107-134
    • /
    • 2024
  • This study aims to classify the semantic words commonly used to evaluate sound quality and to analyze their differences in reflecting the level of musical stimuli. Participants were thirty-one music majors in their 20s and 30s, with an average of 9.4 years of professional training. Each participant listened to nine pieces of music with variations in texture and instrument type and evaluated them using 18 pairs of semantic words describing sound quality. A factor analysis was conducted to group words influenced by the same latent factor, and a multivariate ANOVA determined the differences in ratings based on texture and instrument type. Radar charts were also drawn based on the identified sets of semantic words. The results showed that four factors were identified, and the word pairs 'soft-hard,' 'dull-sharp,' 'muddy-clean' and 'low-high' showed significant differences based on the level of musical stimuli. The radar charts effectively distinguished the sound quality evaluations for each music. These results indicate that developing Korean semantic words for sound quality evaluation requires a structure different from the previous categories used in Western countries and that linguistic and cultural factors are crucial. This study will provide foundational data for developing a verbal sound quality evaluation framework suited to the Korean context, while reflecting acoustic attributes in music listening.