증강현실 오디오 시스템에서의 객체 오디오 획득 및 렌더링 기술

  • Published : 2016.08.31

Abstract

본 고에서는 증강현실 오디오에 대한 개념을 기술하고, 이를 실현하기 위하여 필요한 요소 기술들을 논한다. 먼저, 실사 오디오의 객체화를 위하여 실사 오디오의 획득 방법 및 이를 객체화하는 방법에 대하여 서술한다. 또한, 실사 오디오와 가상 오디오의 혼합을 위하여 필요한 실사 오디오의 공간 정보 추출 및 가상 오디오의 공간 정보 부여 기술을 설명한다. 그리고 오디오 증강을 위한 객체 오디오의 렌더링 기술에 대해 소개한다. 마지막으로 이러한 요소 기술들을 통합한 증강현실 오디오 시스템의 사례를 기술하는 것으로 본 고를 마무리한다.

Keywords

References

  1. 이건, "증강현실 기술의 현재와 미래," TTA 저널, 제133호, pp. 88-93, 2011년 11월.
  2. R. Azuma, "A survey of augmented reality," Presence: Teleoperators and Virtual Environments, vol. 6, no. 6, pp. 355-385, Aug. 1977.
  3. K. Lyons, M. Gandy, and T. Starner, "Guided by voices: an audio augmented reality system," in Proc. of International Conference on Auditory Display, Atlanta, GA, pp. 57-62, 2000.
  4. D.W.F. van Krevelen and R. Poelman, "A survey of augmented reality technologies, applications and limitations," International Journal of Virtual Reality, vol. 9, no. 2, pp. 1-20, June 2010.
  5. O. Bau and I. Poupyrev, "REVEL: tactile feedback technology for augmented reality," ACM Transactions on Graphics, vol. 31, no. 4, article 89, July 2012.
  6. 강진아, 전찬준, 정석희, 김홍국, "증강현실 오디오를 위한 마이크로폰 어레이 설계 및 오디오 객체 획득 기술," 방송공학회지, vol. 19, no. 1, pp. 56-64, 2014년 1월.
  7. J. K. Kim, C. J. Chun, and H. K. Kim, "Design of a coincident microphone array for 5.1-channel audio recording using the mid-side recording technique," Advanced Science and Technology Letters, vol. 14, pp. 61-64, Aug. 2012.
  8. D. Barry, B. Lawlor, and E. Coyle, "Sound source separation: azimuth discrimination and resyntesis," in Proc. of 17th International Conference on Digital Audio Effects (DAFX-04), Naples, Italy, pp. 240-244, Oct. 2004.
  9. 전찬준, 김홍국, "채널 기반에서 객체 기반의 오디오 콘텐츠로의 변환을 위한 비균등 선형 마이크로폰 어레이 기반의 음원분리 방법," 방송공학회논문지, vol. 21, no. 2, pp. 169-179, 2016년 3월. https://doi.org/10.5909/JBE.2016.21.2.169
  10. H. W. Lollmann, E. Yilmaz, M. Jeub, and P. Vary, "An improved algorithm for blind reverberation time estimation," in Proc. of International Workshop on Acoustic Echo and Noise Control, Tel Aviv, Israel, vol. 1, no. 2, pp. 1-4, Sept. 2010.
  11. J. H. Park and H. K. Kim, "Soft-masking based denoising and dereverberation for binaural speech separation in reverberant environments," ICIC Express Letters, vol. 3, no. 3(A), pp. 681-686, Mar. 2013.
  12. F. Rumsey, Spatial Audio, Focal Press, Oxford and Boston, 2001.
  13. J. Blauert, Spatial Hearing: The Psychophysics of Human Sound Localization, MIT Press, Cambridge, MA, 1997.
  14. 서정일, 이용주, 장인선, 유재현, 강경옥, "청취환경 차이에 따른 3차원 오디오 기술 개발 동향," 한국방송공학회지, vol. 13, no. 1, pp. 82-96, 2008년 3월.
  15. P. Rubak, "Headphone signal processing system for out-of-the-head localization," in Proc. of 90th AES Convention, Paris, France, Preprint 3063, Feb. 1991.
  16. J. B. Allen and D. A. Berkley, "Image method for efficiently simulating small-room acoustics," Journal of the Acoustical Society of America, vol. 65, no. 4, pp. 943-951, Apr. 1979. https://doi.org/10.1121/1.382599
  17. S. G. McGovern, "Fast image method for impulse response calculations of box-shaped rooms," Journal of Applied Acoustics, vol. 70, no. 1, pp. 182-189, Apr. 2008.
  18. D. R. Begault, 3-D Sound for Virtual Reality and Multimedia, Academic Press, Cambridge, MA, 1994.
  19. D. J. Kistler and F. L. Wightman, "A model of head-related transfer functions based on principal components analysis and minimum-phase reconstruction," Journal of the Acoustical Society of America, vol. 91, no. 3, pp. 1637-1647, Mar. 1992. https://doi.org/10.1121/1.402444
  20. C. P. Brown and R. O. Duda, "An efficient HRTF model for 3-D sound," in Proc. of the IEEE Workshop on Applications of Signal Processing to Audio and Acoustics, New Paltz, NY, pp. 298-301, Oct. 1997.