Abstract
The Head Related Transfer Function (HRTF) means a process related to acoustic transmission from 3d space to the listener's ear. In other words, it contains the information that human can perceive locations of sound sources. So, we make virtual 3d sound using HRTF, despite it doesn't actually exist. But, it can deteriorate some three-dimensional effect by the confusion between front and back directions due to the non-individual HRTF depending on each listener. In this paper, we proposed the new algorithm to reduce the confusion of sound image localization using human's acoustic characteristics. The frequency spectrum and global masking threshold of 3d sounds using HRTF are used to calculate the psychoacoustical differences among each directions. And perceptible cues in each critical band are boosted to create effective 3d sound. As a result, we can make the improved 3d sound, and the performances are much better than conventional methods.
3차원 공간에서 음원으로부터 사람의 귀로 음향적인 전달 과정을 표현하는 머리전달함수는 사람이 음원의 위치를 판단할 수 있는 중요한 정보를 포함하고 있으며, 이를 이용하여 실질적으로는 존재하지 않는 음원을 근사적으로 생성할 수 있다. 그러나 각 청자에 특화되지 않는 머리전달함수를 사용함으로 인해 전후 방향이나 상하 방향의 혼동이 발생하게 되어 음상정위 성능이 저하된다. 이 논문에서는 머리전달함수를 통해 생성된 입체음향을 인간의 청각 특성을 사용하여 개선하는 알고리즘을 제안한다. 머리전달함수가 적용된 사운드 신호의 전역 마스킹 값을 계산한 후, 청자에게 크게 영향을 미치는 주파수 대역만을 추출하여 이를 강조함으로서 각 방향에 해당하는 인지 특성을 부각시키는 방법을 제안하였으며, 제안된 방법의 성능을 청감테스트를 통해 증명하였다.