초록
인간의 청각기관은 소리의 방향과 거리인지에 있어서 양 귀에 들어오는 소리세기의 차이, 위상의 차이, 그리고 주파수 스펙트럼의 차이 등의 정보들을 복합적으로 이용한다. 이런 정보를 종합적으로 포함하고 있는 것을 머리전달함수라 하며, 이를 이용하여 실질적으로 존재하지 않는 음원을 근사적으로 생성할 수 있는 입체음향 시스템을 구현할 수 있다. 그러나 비개인화 된 머리전달함수는 음상정위 성능을 떨어뜨리는 주된 원인이 된다. 이에 본 논문에서는 이 머리전달함수를 이용한 3차원 음상정위를 위해 사람의 청각 특성을 이용한 알고리즘을 제안한다. 청자가 정확한 방향을 인지하기 위해 1차로 측정된 머리전달함수의 청각 자극 에너지를, 2차로 전역 마스킹 임계치와 라우드니스를 이용하여 방향감을 강조하였다. 제안된 알고리즘의 성능 평가를 위해 청감 테스트를 수행하였으며 실험결과 기존의 알고리즘에 비해 입체음향의 전체적인 인지도가 50% 이상 증가하였음을 확인할 수 있었다.
The binaural auditory system of human has ability to differentiate the direction and the distance of the sound sources by using the information which are inter-aural intensity difference(IID), inter-aural time difference(ITD) and/or the spectral shape difference(SSD). These information is generated from the acoustical transfer of a sound source to pinna, the outer ears. We can create a virtual sound system using the information which is called Head related transfer function(HRTF). However the performance of 3D sound is not always satisfactory because of non-individual characteristics of the HRTF. In this paper, we propose the algorithm that uses human's auditory characteristics for accurate perception. To achieve this, excitation energy of HRTF, global masking threshold and loudness are applied to the proposed algorithm. Informal listening test shows that the proposed method improves the sound localization characteristics much better than conventional methods.