Abstract
To utilize omni-directional images acquired by a rotating line camera for indoor spatial information services, we should register precisely the images with respect to an indoor coordinate system. In this study, we thus develop a georeferencing method to estimate the exterior orientation parameters of an omni-directional image - the position and attitude of the camera at the acquisition time. First, we derive the collinearity equations for the omni-directional image by geometrically modeling the rotating line camera. We then estimate the exterior orientation parameters using the collinearity equations with indoor control points. The experimental results from the application to real data indicate that the exterior orientation parameters is estimated with the precision of 1.4 mm and $0.05^{\circ}$ for the position and attitude, respectively. The residuals are within 3 and 10 pixels in horizontal and vertical directions, respectively. Particularly, the residuals in the vertical direction retain systematic errors mainly due to the lens distortion, which should be eliminated through a camera calibration process. Using omni-directional images georeferenced precisely with the proposed method, we can generate high resolution indoor 3D models and sophisticated augmented reality services based on the models.
회전식 라인 카메라로 취득한 전방위 영상을 실내 공간정보 서비스에 활용하려면 취득한 영상을 실내 좌표계를 기준으로 정교하게 참조할 수 있어야 한다. 이에 본 연구는 실내 전방위 영상의 외부표정요소 - 취득한 시점의 카메라의 위치와 자세를 정확하게 추정 할 수 있는 지오레퍼런싱 방법을 제안한다. 이를 위하여 먼저 회전식 라인 카메라를 기하학적으로 모델링하여 전방위 영상에 대한 공선방정식을 유도한다. 실내 기준점을 공선방정식에 적용하여 실내 전방위 영상의 외부표정요소를 추정한다. 실측데이터에 적용한 결과 외부표정요소의 위치는 1.4mm의 정밀도로, 자세는 $0.05^{\circ}$의 정밀도로 추정할 수 있었다. 수평방향으로 약3픽셀, 수직방향으로 약 10픽셀 정도의 잔차가 남아 있었다. 특히 수직방향으로는 렌즈의 왜곡에 의한 시스템적 오차가 포함되어 있는 것으로 분석되었고 이는 카메라 캘리브레이션을 통해 제거되야 할 것으로 판단된다. 제시된 방법을 이용하여 정밀하게 지오레퍼런싱된 전방위 영상으로부터 고해상도 실내 3차원 모델을 생성하고 이에 기반한 정교한 증강현실 서비스가 가능할 것으로 기대된다.