DOI QR코드

DOI QR Code

Multi-view Generation using High Resolution Stereoscopic Cameras and a Low Resolution Time-of-Flight Camera

고해상도 스테레오 카메라와 저해상도 깊이 카메라를 이용한 다시점 영상 생성

  • 이천 (광주과학기술원 정보통신공학과) ;
  • 송혁 (전자부품연구원 멀티미디어IP) ;
  • 최병호 (전자부품연구원 멀티미디어IP) ;
  • 호요성 (광주과학기술원 정보통신공학과)
  • Received : 2012.02.09
  • Accepted : 2012.04.23
  • Published : 2012.04.30

Abstract

Recently, the virtual view generation method using depth data is employed to support the advanced stereoscopic and auto-stereoscopic displays. Although depth data is invisible to user at 3D video rendering, its accuracy is very important since it determines the quality of generated virtual view image. Many works are related to such depth enhancement exploiting a time-of-flight (TOF) camera. In this paper, we propose a fast 3D scene capturing system using one TOF camera at center and two high-resolution cameras at both sides. Since we need two depth data for both color cameras, we obtain two views' depth data from the center using the 3D warping technique. Holes in warped depth maps are filled by referring to the surrounded background depth values. In order to reduce mismatches of object boundaries between the depth and color images, we used the joint bilateral filter on the warped depth data. Finally, using two color images and depth maps, we generated 10 additional intermediate images. To realize fast capturing system, we implemented the proposed system using multi-threading technique. Experimental results show that the proposed capturing system captured two viewpoints' color and depth videos in real-time and generated 10 additional views at 7 fps.

최근 자연스러운 3차원 영상의 재현을 위하여 깊이영상을 이용한 영상합성 방법이 널리 이용되고 있다. 깊이영상은 시청자의 눈에 보이지는 않지만 합성영상의 화질을 결정하는 중요한 정보이므로 정확한 깊이영상을 획득하는 것이 중요하다. 특히 적외선 센서를 이용한 깊이 카메라(time-of-flight camera)는 보다 정확한 깊이영상을 획득하는데 이용되고 있다. 깊이 카메라는 스테레오 정합(stereo matching)에 비해 정확하고 실시간으로 깊이정보를 추출할 수 있지만, 제공되는 해상도가 너무 낮다는 단점이 있다. 본 논문에서는 단시점의 깊이영상을 두 시점의 깊이영상으로 확장하고, 이를 이용하여 여러 시점의 중간영상을 생성하는 시스템을 제안한다. 특히 복잡도를 낮춰 빠른 속도로 다시점 영상을 생성하는 시스템을 제안한다. 고해상도의 컬러 영상을 획득하기 위하여 두 대의 컬러 카메라를 설치하고 중간에 깊이 카메라를 획득한다. 그리고 깊이 카메라에서 획득한 깊이영상을 3차원 워핑을 이용하여 양쪽의 컬러 카메라의 위치로 시점 이동한다. 깊이영상과 컬러영상간의 객체 불일치 문제는 깊이값의 신뢰 도를 기반으로 한 조인트 양방향 필터(joint bilateral filter)를 이용하여 보정한다. 이러한 과정을 통해 얻은 깊이영상은 다시점 영상 합성 방법을 이용하여 다시점 영상을 획득한다. 이와 같은 과정은 다중 스레드를 이용하여 빠르게 처리할 수 있도록 구현했다. 실험을 통해 두 시점의 컬러영상과 두 시점의 깊이영상이 실시간으로 획득했고, 약 7 fps의 프레임율로 10시점의 중간시점을 동시에 생성했다.

Keywords

References

  1. C. Wheatstone, "On Some Remarkable, and Hitherto Unobserved, Phenomena of Binocular Vision," Philos. Trans. R. Soc., vol. 54, pp. 196-199, 1838.
  2. Yo-Sung Ho, "Realistic 3D Content Producing using Multi-view and Depth Cameras," The Magazine of the IEEK, vol. 38, pp. 136-141, 2011.
  3. A. Smolic, K. Muller, K. Dix, P. Merkle, P. Kauff, and T. Wiegand, "Intermediate View Interpolation based on Multiview Video plus Depth for Advanced 3D Video Systems," in IEEE ICIP, pp. 2448-2451, Oct. 2008.
  4. C. Fehn, "Depth-Image-Based Rendering (DIBR), Compression and Transmission for a New Approach on 3D-TV," in Stereoscopic Displays and Virtual Reality Systems XI, pp. 93-104, Jan. 2004.
  5. ISO/IEC JTC1/SC29/WG11, "Study Text of ISO/IEC 14496-10:200x/FPDAM 1 Constrained Baseline Profile and supplementary enhancement information," in MPEG output document N10540, April 2009.
  6. ISO/IEC JTC1/SC29/WG11, "Draft Call for Proposals on 3D Video Coding Technology," in MPEG output document N11679, Oct. 2010.
  7. D. Scharstein and R. Szeliski, "A Taxonomy and Evaluation of Dense Two-frame Stereo Correspondence Algorithms," IJCV, vol. 47, pp. 7-42, April 2002. https://doi.org/10.1023/A:1014573219977
  8. D. Scharstein and R. Szeliski, "High-accuracy Stereo Depth Maps using Structured Light," in IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. I/195-I/202, June 2003.
  9. R. Kaufmann, M. Lehmann, M. Schweizer, M. Richter, P. Metzler, G. Lang, T. Oggier, N. Blanc, P. Seitz, G. Gruener, and U. Zbinden, "A time-of-flight line sensor - Development and application," Proceedings of SPIE - The International Society for Optical Engineering, pp. 192-199, 2004.
  10. M. Lindner, A. Kolb, and K. Hartmann, "Data-fusion of PMD-based distance-information and high-resolution RGB-images," International Symposium on Signals, Circuits and Systems, pp. 121-124, 2007.
  11. B. Huhle, S. Fleck, and A. Schilling, "Integrating 3D Time-of-Flight Camera Data and High Resolution Images for 3DTV Applications," Proceedings of 3DTV-CON, 2007.
  12. Y. M. Kim, D. Chan, C. Theobalt, and S. Thrun, "Design and calibration of a multi-view TOF sensor fusion system," IEEE CVPR, 2008.
  13. U. Hahne and M. Alexa, "Depth Imaging by Combining Time-of-Flight and On-demand Stereo," Lecture Notes in Computer Science, vol. 5742 , ed, pp. 70-83, 2009.
  14. J. Zhu, L. Wang, R. Yang, and J. Davis, "Fusion of time-of-flight depth and stereo for high accuracy depth maps," IEEE CVPR, 2008.
  15. E. K. Lee and Y. S. Ho, "Generation of Multi-view Video using a Fusion Camera System for 3D Displays," IEEE Transactions on Consumer Electronics, vol. 56, pp. 2797-2805, Nov. 2010. https://doi.org/10.1109/TCE.2010.5681171
  16. R. Y. Tsai, "Versatile Camera Calibration Technique for High-accuracy 3D Machine Vision Metrology using Off-The-Shelf TV Cameras and Lenses," IEEE Journal of Robotics and Automation, vol. RA-3, pp. 323-344, Aug. 1987.
  17. Y. S. Kang, C. Lee, and Y. S. Ho, "An Efficient Rectification Algorithm for Multi-view Images in Parallel Camera Array," Proceedings of 3DTV-CON, pp. 61-64, 2008.
  18. A. Telea, "An Image Inpainting Technique based on The Fast Marching Method," Journal Graphics Tools, vol. 9, pp. 25-36, May 2004.

Cited by

  1. 3D Reconstruction Based on Active Method Using Structured Circular Light Patterns vol.25, pp.5, 2017, https://doi.org/10.7467/KSAE.2017.25.5.555