DOI QR코드

DOI QR Code

Convenient View Calibration of Multiple RGB-D Cameras Using a Spherical Object

구형 물체를 이용한 다중 RGB-D 카메라의 간편한 시점보정

  • 박순용 (경북대학교 컴퓨터학부) ;
  • 최성인 (경북대학교 전자전기컴퓨터학부)
  • Received : 2014.04.04
  • Accepted : 2014.06.09
  • Published : 2014.08.31

Abstract

To generate a complete 3D model from depth images of multiple RGB-D cameras, it is necessary to find 3D transformations between RGB-D cameras. This paper proposes a convenient view calibration technique using a spherical object. Conventional view calibration methods use either planar checkerboards or 3D objects with coded-pattern. In these conventional methods, detection and matching of pattern features and codes takes a significant time. In this paper, we propose a convenient view calibration method using both 3D depth and 2D texture images of a spherical object simultaneously. First, while moving the spherical object freely in the modeling space, depth and texture images of the object are acquired from all RGB-D camera simultaneously. Then, the external parameters of each RGB-D camera is calibrated so that the coordinates of the sphere center coincide in the world coordinate system.

물체의 360도 방향에서 다수의 RGB-D(RGB-Depth) 카메라를 이용하여 깊이영상을 획득하고 3차원 모델을 생성하기 위해서는 RGB-D 카메라 간의 3차원 변환관계를 구하여야 한다. 본 논문에서는 구형 물체를 이용하여 4대의 RGB-D 카메라 사이의 변환관계를 간편하게 구할 수 있는 시점보정(view calibration) 방법을 제안한다. 기존의 시점보정 방법들은 평면 형태의 체크보드나 코드화된 패턴을 가진 3차원 물체를 주로 사용함으로써 패턴의 특징이나 코드를 추출하고 정합하는 작업에 상당한 시간이 걸린다. 본 논문에서는 구형 물체의 깊이영상과 사진영상을 동시에 사용하여 간편하게 시점을 보정할 수 있는 방법을 제안한다. 우선 하나의 구를 모델링 공간에서 연속적으로 움직이는 동안 모든 RGB-D 카메라에서 구의 깊이영상과 사진영상을 동시에 획득한다. 다음으로 각 RGB-D 카메라의 좌표계에서 획득한 구의 3차원 중심좌표를 월드좌표계에서 일치되도록 각 카메라의 외부변수를 보정한다.

Keywords

References

  1. B. Kainz, S. Hauswiesner, G. Reitmayr, M. Steinberger, R. Grasset, L. Gruber, E. Veas, D. Kalkofen, H. Seichter, and D. Schmalstieg, "OmniKinect: real-time dense volumetric data acquisition and applications," in Proceedings of the Symposium on Virtual Reality Software and Technology (VRST), 2012.
  2. Z. Zhang, "A flexible new technique for camera calibration," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.22, No.11, pp.1330-1334, 2000. https://doi.org/10.1109/34.888718
  3. J. Mitchelson and A. Hilton, "Wand-based multiple camera studio calibration," Technical Report, VSSP-TR-2/2003, University of Surrey, 2003.
  4. K. Y. Shin and J. H. Mun, "A multi-camera calibration method using a 3-axis frame and wand," International Journal of Precision Engineering and Manufacturing, Vol.13, No.2, pp.283-289, 2012. https://doi.org/10.1007/s12541-012-0035-1
  5. T. Pribanic, P. Sturm, and S. Peharec, "Wand-based calibration of 3D kinematic system," IET Computer Vision, Vol.3, No.3, pp.124-129, 1999.
  6. S. Tomas, M. Daniel and P. Tomas, "A convenient multi-camera self-calibration for virtual environments," Teleoperators and virtual environments, Vol.14, No.4, pp. 407-422, 2005. https://doi.org/10.1162/105474605774785325
  7. Y. M. Kim, D. Chan, C. Theobalt, and S. Thrun, "Design and calibration of a multi-view TOF sensor fusion system," in Proceedings of the IEEE CVPR Workshop on Time-of-flight Computer Vision, pp.1-7, 2008.
  8. Least squares fit a sphere to 3D data [Internet], http://imaginaryz.blogspot.com/2011-/04/least-squares-fitsphere-to-3d-data.html.