DOI QR코드

DOI QR Code

햅틱스 시스템용 3D 재구성을 위한 LoG 방법과 DoG 방법의 성능 분석

Comparison of LoG and DoG for 3D reconstruction in haptic systems

  • 성미영 (인천대학교 컴퓨터공학부) ;
  • 김기권 (인천대학교 컴퓨터공학부)
  • 투고 : 2012.01.11
  • 심사 : 2012.04.05
  • 발행 : 2012.06.30

초록

본 연구의 목적은 "로봇의 시각"과 "로봇의 촉각"을 대체할 수 있는 스테레오 비전 기반 햅틱스 시스템에서 가장 적합하고 효과적인 3D 재구성(3D reconstruction) 방법을 제안하는 것이다. 삼차원 영상에 대하여 정확하게 촉감을 전달하려면 스테레오 영상에서 사물의 깊이 정보와 사물의 경계면에 대한 정확한 정보가 필요하다. 본 연구에서는 스테레오 영상에서 사물의 깊이 정보를 정확하게 얻기 위하여 전통적인 스테레오 정합과정에 경계면 추출 방법인 LoG(Laplacian of Gaussian) 방법과 DoG(Difference of Gaussian) 방법을 혼합적용하여 3D 영상을 재구성한 결과를 제시한다. 또한 어떤 방법이 햅틱 렌더링을 적용하는데 유용한 지 검증하기 위하여 연산 시간 및 오차 분석 실험을 수행한 결과, 본 연구처럼 비주얼 렌더링에 햅틱 렌더링을 추가하여 사용하는 경우에는 잡음 감소와 경계면 추출 성능이 더 우수한 DoG 방법이 더 효율적인 것으로 판단되었다. 본 논문에서 제안하는 스테레오 비전 기반 햅틱스 시스템을 위한 3D 재구성 방법은 이동형 정찰 로봇의 성능을 높이는 연구 등 여러 산업 분야와 군사 분야에 응용이 가능할 것이다.

The objective of this study is to propose an efficient 3D reconstruction method for developing a stereo-vision-based haptics system which can replace "robotic eyes" and "robotic touch." The haptic rendering for 3D images requires to capture depth information and edge information of stereo images. This paper proposes the 3D reconstruction methods using LoG(Laplacian of Gaussian) algorithm and DoG(Difference of Gaussian) algorithm for edge detection in addition to the basic 3D depth extraction method for better haptic rendering. Also, some experiments are performed for evaluating the CPU time and the error rates of those methods. The experimental results lead us to conclude that the DoG method is more efficient for haptic rendering. This paper may contribute to investigate the effective methods for 3D image reconstruction such as in improving the performance of mobile patrol robots.

키워드

참고문헌

  1. D. Marr and E. Hildreth, "Theory of Edge Detection," Proce. of the Royal Society of London. Series B, Biological Sciences, Vol. 207, No.1167, pp. 187-217, 1980. https://doi.org/10.1098/rspb.1980.0020
  2. Steve R. Gunn, "On the Discrete Representation of the Laplacian of Gaussian," Pattern Recognition, Vol.32, No.8, pp. 1463-1472, 1999. https://doi.org/10.1016/S0031-3203(98)00163-0
  3. Difference of Gaussians, http://en.wikipedia.org/wiki/Difference_of_Gaussians, 2011.
  4. Massimo Bertozzi, "GOLD: A Parallel Real- Time Stereo Vision System for Generic ob- Stacle and Lane Detection," IEEE Transactions on Image Processing, Vol.7, No.1, pp. 62-81, 1998. https://doi.org/10.1109/83.650851
  5. Liang Zhao, "Stereo-and Neural Network- Based Pedestrian Detection," IEEE Transactions on Intelligent Transportation Systems, Vol.1, No.3, pp. 148-154, 2000. https://doi.org/10.1109/6979.892151
  6. Don Murray and James J. Little, "Using Real- Time Stereo Vision for Mobile Robot Navigation," Autonomous Robots, Vol.8, No.2, pp. 161-171, 2000. https://doi.org/10.1023/A:1008987612352
  7. J. Brian, Rogers and Ian P. Howard, Binocular Vision and Stereopsis, Oxford Psychology Series, Oxford University Press, 1995.
  8. M.A. Srinivasan and C. Basdogan, "Haptics in Virtual Environments: Taxonomy, Research Status and Challenges," Computers & Graphics, Vol.21, Issue 4, pp. 393-404, 1997. https://doi.org/10.1016/S0097-8493(97)00030-7
  9. T.H. Massie, Design of a Three Degree of Freedom Force-Reflecting Haptic Interface, BS Thesis, MIT EECS Department, 1993.
  10. William R. Mark, Scott C. Randolph, Mark Finch, James M. Van Verth, and Russell M. Taylor II, "Adding Force Feedback to Graphics Systems: Issues and Solutions," Proc. of The 23rd Annual Conference on Computer Graphics and Interactive Techniques (SIGGRAPH '96) , pp. 447-452, 1996.
  11. K. Salisbury, F. Conti, and F. Barbagli, "Haptic rendering: Introductory Concepts," IEEE Computer Graphics and Applications, Vol.24, No.2, pp. 24-32, 2004. https://doi.org/10.1109/MCG.2004.1274058
  12. 이환문, 김기권, 성미영, "만질 수 있는 비디오를 위한 햅틱 렌더링 기술", 멀티미디어학회논문지, 제13권, 제5호, pp. 691-701, 2010.
  13. A. Yamamoto. et al. "Electrostatic Tactile Display with Thin Film Slider and Its Application to Tactile Telepresentation Systems," Transaction on Visualization and Computer Graphics, Vol.12, No.2, pp. 168-177, 2006. https://doi.org/10.1109/TVCG.2006.28
  14. Gary R. Bradski, and Adrian Kaehler, "Robot- Vision Signal Processing Primitives," IEEE Signal Processing Magazine, Vol.25, Issue 1, pp. 130-133, 2008.
  15. Janne Heikkila and Olli Silven, "A Four-Step Camera Calibration Procedure with Implicit Image Correction," IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR '97) , pp. 1106-1112, 1997.
  16. Gary R. Bradski, Vadim Pisarevsky, and Jean-Yves Bouguet, Open Source Computer Vision Library, Springer, 1st edition, New York/Heidelberg, 2006.
  17. Mohsen Sharifi, Mahmoud Fathy, and Maryam Tayefeh Mahmoudi, "A Classified and Comparative Study of Edge Detection Algorithms," Proc. of the International Conference on Information Technology: Coding and Computing (ITCC '02) , pp. 117-120, 2002.
  18. John Canny, "A Computational Approach to Edge Detection," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.8, No.6, pp. 679-698, 1986. https://doi.org/10.1109/TPAMI.1986.4767851

피인용 문헌

  1. CT영상에서 이미지 분할기법을 적용한 Blooming Artifact Reduction 비교 연구 vol.38, pp.6, 2012, https://doi.org/10.9718/jber.2017.38.6.295