DOI QR코드

DOI QR Code

Development and Comparative Analysis of Mapping Quality Prediction Technology Using Orientation Parameters Processed in UAV Software

무인기 소프트웨어에서 처리된 표정요소를 이용한 도화품질 예측기술 개발 및 비교분석

  • Lim, Pyung-Chae (Department of GeoInfomatic Engineering, Inha University) ;
  • Son, Jonghwan (Department of GeoInfomatic Engineering, Inha University) ;
  • Kim, Taejung (Department of GeoInfomatic Engineering, Inha University)
  • 임평채 (인하대학교 공간정보공학과) ;
  • 손종환 (인하대학교 공간정보공학과) ;
  • 김태정 (인하대학교 공간정보공학과)
  • Received : 2019.10.25
  • Accepted : 2019.11.18
  • Published : 2019.12.31

Abstract

Commercial Unmanned Aerial Vehicle (UAV) image processing software products currently used in the industry provides camera calibration information and block bundle adjustment accuracy. However, they provide mapping accuracy achievable out of input UAV images. In this paper, the quality of mapping is calculated by using orientation parameters from UAV image processing software. We apply the orientation parameters to the digital photogrammetric workstation (DPW) for verifying the reliability of the mapping quality calculated. The quality of mapping accuracy was defined as three types of accuracy: Y-parallax, relative model and absolute model accuracy. The Y-parallax is an accuracy capable of determining stereo viewing between stereo pairs. The Relative model accuracy is the relative bundle adjustment accuracy between stereo pairs on the model coordinates system. The absolute model accuracy is the bundle adjustment accuracy on the absolute coordinate system. For the experimental data, we used 723 images of GSD 5 cm obtained from the rotary wing UAV over an urban area and analyzed the accuracy of mapping quality. The quality of the relative model accuracy predicted by the proposed technique and the maximum error observed from the DPW showed precise results with less than 0.11 m. Similarly, the maximum error of the absolute model accuracy predicted by the proposed technique was less than 0.16 m.

현재 현업에서 사용되고 있는 상용 무인기 영상처리 소프트웨어는 카메라 캘리브레이션 정보나 영상 전체에 대한 블록 번들조정 정확도만 제공할 뿐 스테레오 페어의 실제 도화 가능여부에 대한 정확도는 거의 제공하지 않는다. 본 논문에서는 무인기 영상처리 소프트웨어에서 산출된 표정요소를 사용하여 도화품질을 산출하고 실제 도화기에 적용하여 도화품질의 신뢰성에 대해서 분석하였다. 도화품질은 Y시차 정확도, 상대모델 정확도, 절대모델 정확도의 3가지 정확도로 정의하였다. Y시차 정확도는 스테레오 페어간 입체시 여부를 판단할 수 있는 정확도이다. 상대모델 정확도는 모델 좌표계 상에서 스테레오 페어간 상대적인 번들조정 정확도이다. 절대모델 정확도는 절대 좌표계에서 번들조정 정확도이다. 실험데이터는 도심지를 대상으로 회전익에서 취득된 GSD 5 cm급의 영상 723장을 사용하여 도화품질을 분석하였다. 연구진이 개발한 기술을 사용해 예측한 상대모델 정확도와 실제 도화기에서 관측한 정확도의 최대오차는 0.11 m로 정밀한 결과를 보여 주었다. 절대모델 정확도도 마찬가지로, 도화기에서 관측한 정확도의 최대오차는 0.16 m로 정밀한 결과를 보여주었다.

Keywords

1. 서론

최근에 산업용 및 민간용으로 무인기가 개발되면서 정밀농업, 변화탐지, 지도제작 등 다양한 분야로 확대되고 있다. 영상 정보의 취득 및 제공이 주목적인 무인기는 가시광선, 적외선 센서 등이 탑재된다. 가시광선 센서는 우리가 주위에서 흔히 접하는 디지털 카메라와 같은 종류로 사람이 눈으로 쉽게 판독할 수 있어 일반적으로 널리 사용되고 있다.

무인기는 높은 해상도의 고품질 영상을 얻을 수 있고 쉬운 조작과 비행에 큰 제약이 없어 수시로 영상 취득이 가능하다는 장점이 있다. 최근 매핑 업계에서는 무인기를 활용한 1:1,000 대축척 지도제작 가능성에 대해 큰 관심을 가지고 있다(Lim et al., 2018). 국내에서는 무인기에서 처리된 표정요소를 이용하여 대축척 수치지도 제작 가능성을 분석한 연구(Kim et al., 2019; Lee et al., 2019)가 수행되었다. 또한 공간정보 분야 적용에 있어서 적절한 지도제작 가격결정에 대한 합리적인 제정을 위한 표준품셈연구(Yun et al., 2016; Min, 2018; Lee and Lee, 2018; Lee et al., 2018; Park et al., 2018)가 수행되었다.

현재 매핑 분야에서는 무인기를 사용하여 지도제작 시 상용 소프트웨어에서 처리된 내부표정요소와 외부표정요소를 사용한다. 하지만 가벼운 무게에 따른 불안정한 비행자세를 가지는 무인기 특성에 기인하여 실제로 도화를 위한 스테레오 페어의 입체시에 어려움이 있다. 또한 저고도 비행으로 인해 좁은 영역의 scene을 취득하기 때문에 관심 매핑 영역에 대해 수백장에 이르는 다중 영상이 필요하다. 이렇게 무인기에서 취득된 수백장의 영상을 스테레오 조합으로 도화하는데 있어서 많은 인력과 시간이 소비되고 있는 실정이다. 현재 현업에서 사용되는 무인기 영상처리 소프트웨어는 카메라 캘리 브레이션이나 전체 영상의 블록 번들조정 정확도는 제공하지만 스테레오 페어들의 도화를 위한 정보를 제공하는 소프트웨어는 많지 않다.

스테레오 페어의 Y시차가 크다면 작업자에게 피로감을 줄 수 있으며 입체시가 제대로 형성되지 않아 도화가 불가능하다. 또한 블록단위의 번들조정 정확도가 높더라도 특정 영역에서 스테레오 페어의 번들조정 정확도가 낮다면 실제 도화기에서 낮은 정확도로 매핑이 될 가능성이 높다. 따라서 무인기 영상의 매핑을 위해 선별된 모든 스테레오 페어는 도화품질이 필요하다.

본 논문에서는 무인기 영상처리 소프트웨어인 Pix4D 와 3D-UAV에서 처리된 표정요소를 사용하여 스테레오 페어 조합들의 도화품질을 산출하는 기술을 개발하였다.

표정요소는 내부표정요소와 외부표정요소로 구분된다. 내부표정요소는 카메라 캘리브레이션을 통해 얻을 수 있으며 외부표정요소는 무인기의 GSP/IMU 센서에 기록된 초기 외부표정요소로부터 번들조정 과정을 거쳐 정밀한 외부표정요소를 얻을 수 있다.

도화품질은 Y시차 정확도와 상대모델 정확도, 절대 모델 정확도 3가지 정확도로 측정된다. Y시차 정확도와 상대모델 정확도는 스테레오 페어간 입체시 여부 및 번들조정 정확도를 판단할 수 있는 지표이다. 스테레오 페어간 Y시차는 사진측량 기반의 에피폴라 기하 변환 과정을 통해 계산하였다(Kim and Kim, 2012; Kim and Kim, 2013; Kim and Kim, 2014). 상대모델 정확도는 서로 다른 스테레오 페어 조합에서 동일 지점이 보이는 타이포인트를 선별하고 각 스테레오 페어에서 계산된 공선조건 식을 통해 변환된 3차원 지상점 좌표를 비교함으로써 계산할 수 있다(Lim et al., 2018; Lim et al., 2019a; Lim et al., 2019b). 절대모델 정확도는 실제 좌표계에 적용된 절대 표정 정확도이다.

본 논문에서는 회전익에서 수백장의 영상을 취득하고 소프트웨어별로 표정요소를 산출했다. 이후 산출된 표정요소를 사용하여 스테레오 페어들의 종·횡방향에 따른 도화품질을 비교분석하고 도화가능성을 미리 예측하였다. 그리고 도화품질에서 계산된 정확도와 실제 도화기에 적용하여 관측된 정확도를 비교 분석하여 신뢰성을 검증하였다.

2. 연구 데이터 및 재원

1. 연구지역 및 재원

연구지역은 빌딩과 도로로 구성된 도심지역을 선정하여 0.5 km2의 면적을 촬영하였다. 영상 취득에 사용된 무인기는 회전익이며 DJI사의 Inspire2이다. Inspire2는 짐벌을 장착하여 안정적인 영상 취득이 가능하며 Zenmuse X5S 센서를 탑재했다. 본 연구에서는 GSD 5 cm의 해상도를 가지는 723장의 영상을 취득했다. 또한 GPS-RTK 측량을 통해 6개의 모델점과 5개의 체크점으로 구성된 총 11개의 기준점을 확보하였다.

OGCSBN_2019_v35n6_1_895_f0001.png 이미지

Fig. 1. Study area and Ground Control Points (GCPs) location.

2. 무인기 영상처리 소프트웨어

본 연구에서는 무인기 영상의 내부표정요소와 외부 표정요소를 산출할 수 있는 Pix4D와 자체제작한 SW(이 하 3D-UAV)를 사용하였다. Pix4D는 스위스 Pix4D사에서 개발한 무인기 영상처리 소프트웨어로 전세계적으로 가장 많이 사용되고 있는 프로그램이다. 사용자가 쉽게 사용할 수 있도록 사용자 친화적인 인터페이스로 구성되어 있으며 항공삼각측량, 수치표고모형, 정사영상 제작이 가능하다. 3D-UAV는 자체개발한 사진측량기 반의 SfM(Structure form Motion) 엔진을 구현했고 도화 가능수준의 정밀한 번들조정이 가능하다. 또한 포인트 클라우드, 수치표고모형, 정사영상 제작이 가능하다. Lim and Kim(2018)은 3D-UAV를 사용하여 평탄지를 대상으로 포인트 클라우드 및 수치표고모형을 생성하여 상용 소프트웨어와 비교하여 육안분석 및 높이 정확도 분석 연구를 수행했다. 포인트 클라우드 육안분석 결과, 일부지역에서 3D-UAV가 상용 소프트웨어 보다 정밀하게 표현했다. 높이 정확도 분석 결과, 소프트웨어 중 Pix4D가 제일 정확했으며, 3D-UAV 또한 0.20 m 이내의 높은 정확도를 보여줬다.

Table 1. UAV specification

OGCSBN_2019_v35n6_1_895_t0001.png 이미지

3. 카메라 캘리브레이션 Tool

내부표정요소는 카메라의 초점거리, 주점이동량, 렌즈왜곡계수 등 카메라마다 독자적으로 갖게 되는 고유 특성값으로 이러한 값들을 결정하기 위한 과정이 카메라 캘리브레이션이다(Kim et al., 2010). 매핑을 위한 기존의 측량용 매트릭 카메라는 렌즈왜곡계수가 0에 가까운 정밀한 내부표정요소를 가지는 센서이다(Lim et al., 2019a). 반면에 무인기에 탑재되는 카메라는 비측량용 일반 카메라를 탑재하기 때문에 반드시 자체 캘리브레이션이 필요하다(Won et al., 2012). 본 연구에서는 정밀한 내부표정요소를 산출하기 위해서 카메라 캘리브레이션 분야의 대표적인 오픈 소프트웨어 Camera Calibration Toolbox for Matlab을 사용하여 캘리브레이션을 수행하였다. 해당 소프트웨어는 정밀한 센서 보정 및 다양한 검정용 체스보드 영상 호환이 가능하며 다양한 추가 분석 기능을 가지고 있다.

4. 수치사진측량시스템(DPW: Digital Photogrammetric Workstation)

계산된 도화품질과 실제 도화기에서 관측된 매핑 정확도를 비교하기 위해 국내에서 개발된 수치사진측량 시스템를 사용하였다. 수치사진측량시스템는 스테레오 페어의 3차원 입체시를 판독하고 3차원 정밀지도 제작을 지원하는 도화장비이다. 기존에는 주로 항공사진이나 위성영상을 사용하여 매핑을 수행했지만 본 연구에서는 무인기 영상을 사용하여 매핑을 수행하였다.

OGCSBN_2019_v35n6_1_895_f0002.png 이미지

Fig. 2. The DPW (left) using this study and Stereo pairs displayed in the DPW (right).

3. 무인기 영상처리 과정 및 도화품질 이론

1. 무인기 영상처리를 통한 표정요소 산출

각 소프트웨어에서 6개의 모델점을 사용하여 정밀표 정요소를 산출하였다. 정밀표정요소는 내부표정, 외부 표정 2가지 요소로 구성된다. 내부표정요소는 카메라 캘리브레이션 과정을 거쳐 산출된 카메라 고유의 특성 값이다. 초기 외부표정요소는 무인기에 탑재된 GPS/ IMU 센서에서 산출되며 촬영된 영상의 위치와 자세정보가 포함되어 있다. 하지만 번들조정이 수행되지 않은 초기 외부표정요소는 매우 낮은 매핑 정확도를 보여 준다. 하여 반드시 정밀번들조정 과정을 거쳐 매핑을 위한 정밀 외부표정요소를 산출해야 한다. 무인기 영상처리 과정은 크게 4가지 단계로써 정밀 외부표정요소는 초기 타이포인트 추출, 카메라 캘리브레이션, 보정된 타이포인트로 갱신 그리고 기준점을 이용한 정밀번들조정 과정을 통해 산출된다.

OGCSBN_2019_v35n6_1_895_f0003.png 이미지

Fig. 3. UAV image processing for precision orientation parameters.

첫번째 단계에서는 원본 영상에서 초기 타이포인트를 추출해야 한다. 초기 타이포인트는 영상의 픽셀 밝기값을 이용하여 2장 이상의 영상에서 보이는 동일 지점에 대한 영상좌표를 산출한 것이다. 타이포인트는 Harris corner (Harris and Stephens, 1988), SIFT (Lowe, 2004), FAST (Rosten and Drummond, 2006) 등의 다양한 특징점 추출 및 영상 매칭 기법을 통해 산출할 수 있다.

두번째 단계에서는 카메라 캘리브레이션을 통한 내부표정요소를 산출한다. Pix4D는 컴퓨터비전 방식의 캘리브레이션 모델을 사용하고, 3D-UAV는 사진측량 방식의 캘리브레이션 모델을 사용한다. 두 모델은 서로 다른 좌표계를 사용하며 컴퓨터비전 방식은 선형모델, 사진측량 방식은 비선형 모델로 렌즈왜곡계수를 추정 한다(Hong et al., 2019). 하지만 본 연구에서는 더 정밀한 분석을 위해 캘리브레이션 분야에서 대표적인 소프트 웨어인 Camera Calibration ToolBox for Matlab을 사용하여 캘리브레이션을 수행하였다.

세번째 단계에서는 캘리브레이션을 통해 추정된 내부표정요소를 적용하여 왜곡이 보정된 타이포인트로 갱신한다. 왜곡을 포함한 원본영상의 타이포인트를 사용하면 매핑 정확도에 큰 영향을 미치기 때문에 반드시 캘리브레이션 과정을 거쳐 추정된 내부표정요소로 보정된 타이포인트를 사용해야 한다.

마지막 단계에서는 무인기 GPS/IMU 센서에서 취득된 초기 외부표정요소와 왜곡이 보정된 타이포인트를 영상 관측점으로 사용하여 번들조정을 수행한다. 그리고 실제 필드에서 측량한 지상 기준점을 이용하여 정밀 번들조정을 수행한다. 이렇게 4단계의 처리 과정을 거치면 정밀한 외부표정요소가 산출된다.

2. Y시차 정확도

스테레오 페어의 Y시차가 높으면 입체시가 어려워 매핑이 불가능하거나 작업자에게 피로감을 유발한다 (Lim et al., 2019a). 그러므로 스테레오 페어에서 입체시 가능여부를 판단하기 위해 도화품질 중 하나인 Y시차 정확도를 산출하였다. Kim and Kim(2014)은 웹캠 두 대에서 스테레오 페어를 취득하고, 공선조건식을 이용한 에피폴라 기하 변환을 통해 Y시차를 계산한 선행연구를 수행했다. 본 연구에서는 선행연구의 알고리즘을 무인기 영상에 적용하여 에피폴라 기하 변환을 수행하고 에피폴라 라인을 통해 Y시차를 계산했다. 에피폴라 기하는 두 영상의 투영중심 O, O′와 공간상의 한점 P, 그리고 각 영상에 투영된 p, p′가 공통의 한 평면상에 존재함을 의미한다(Fig. 4). 이때, 두 투영중심을 연결하는 선분이 각 영상평면과 만나는 지점을 에피폴(Epipole)이라 하며, 이론적으로 영상의 모든 에피폴라 라인(Epipolarline)은 에피폴에서 수렴하게 된다. 에피폴라 라인이란, 공간상의 한점 P가 영상 평면에 점 p로 투영되었다고 했을 때, 이들을 연결하는 공간상의 직선이 다른 한쪽영상에 투영되었을 때 나타나게 되는 곡선 I를 의미하며, 중심투영 방식의 카메라에서 곡선은 직선의 형태로 나타난다(Kim and Kim, 2012). 이러한 원리로 소프트웨어 별로 처리된 정밀 표정요소를 이용하여 에피폴라 기하가 수립된 스테레오 페어에서 동일 지점에 대한 에피폴라 라인을 연결시켰을 때의 차이를 계산함으로써 Y시차를 계산할 수 있다.

OGCSBN_2019_v35n6_1_895_f0004.png 이미지

Fig. 4. Epipole and eipolar line (Kim and Kim, 2012)

3. 상대모델과 절대모델 정확도

상대모델 정확도는 서로 다른 스테레오 페어 조합에서 동시에 관측된 타이포인트의 영상좌표를 지상좌표로 투영한 3차원 좌표의 차이를 계산함으로써 산출할 수 있다. 타이포인트의 영상좌표를 이용하면 공선조건 식을 통해 3차원 지상좌표를 계산할 수 있다.

\(\frac{X p-X o}{Z p-Z o}=\frac{r_{11} x_{p}+r_{12} y_{p}-r_{13} f}{r_{31} x_{p}+r_{32} y_{p}-r_{33} f}\)       (1)

\(\frac{Y p-Y o}{Z p-Z o}=\frac{r_{21} x_{p}+r_{22} y_{p}-r_{23} f}{r_{31} x_{p}+r_{32} y_{p}-r_{33} f}\)       (2)

식 (1), (2)에서, (Xp, Yp, Zp)는 공간상의 한 점 p에 대한 3차원 위치좌표, (Xo, Yo, Zo)는 카메라 투영중심에 해당하는 3차원 위치좌표, r11 ~ r33는 카메라 공간상에서 실세계 공간으로 변환하기 위한 회전행렬요소이다. 회전행렬요소는 외부표정요소(ω, φ, Κ)를 통해 구성할 수 있다(xp, yp)는 영상의 타이포인트, f 는 카메라 초점거리를 의미한다. 이를 이용해 다음 식 (3), (4), (5)을 유도할 수 있고 3차원 공간상의 한점 p를 계산할 수 있다.

\(\boldsymbol{X}_{P}=r_{11} x_{p}+r_{12} y_{p}-r_{13} f+\boldsymbol{X}_{o}\)       (3)

\(\boldsymbol{Y}_{\boldsymbol{P}}=r_{21} x_{p}+r_{22} y_{p}-r_{23} f+\boldsymbol{Y}_{o}\)       (4)

\(Z_{P}=r_{31} x_{p}+r_{32} y_{p}-r_{33} f+Z_{o}\)       (5)

이론적으로 번들조정을 통해 영상들의 기하가 완벽하게 수립했다면, 여러 스테레오 페어 조합에서 동시에 관측된 타이포인트의 지상좌표는 모두 같아야 한다. 하여 다음과 같이 상대모델 정확도를 산출하는 방법을 다음과 같이 고안하였다.

먼저, 타이포인트가 동시에 관측된 서로 다른 스테레오 페어 조합에서 페어를 선별하고 관측된 타이포인트의 지상좌표인 상대모델 기준점((X, Y, Z)pair:1-2)을 계산한다(Fig. 5). 이후 다른 스테레오 페어 조합((X, Y, Z)pair:2-3), (X, Y, Z)pair:1-3)에서 계산된 지상좌표와 상대모델 기준점의 차이를 계산함으로써 상대모델 정확도를 산출할 수 있다.

OGCSBN_2019_v35n6_1_895_f0005.png 이미지

Fig. 5. Calculation of relative and absolute model accuracy.

절대모델 정확도는 상대모델 정확도와 같은 방식으로 계산되지만 타이포인트에서 산출된 상대모델 기준점 대신, 실제 필드에서 GPS-RTK로 측량한 체크점을 사용한다. 즉, 상대모델 정확도를 관측함으로써 서로 다른 스테레오 페어 조합들의 상대적인 기하 정밀도를 산출할 수 있고, 절대모델 정확도를 관측함으로써 실제 좌표에 대한 절대표정 정확도를 산출할 수 있다.

4. 연구결과

1) 소프트웨어별 촬영 종·횡방향에 따른 도화품질 비교분석

모델점과 체크점이 보이는 촬영 종·횡방향의 스테레오 페어 영상을 선별하고 종·횡방향에 따른 도화품질을 산출하였다(Table 2). 종방향이 횡방향보다 더 많은 영상이 취득되었고 그에 따라 종방향에서 선별된 스테레오 페어가 2배 이상으로 많았다. Lim et al.(2019a)는 선행 연구로 Y시차에 따른 스테레오 페어의 입체시 여부를 분석하고 2pixel 이하의 경우 안정적인 입체시가 가능하다고 보고하였다. 선행연구에 근거하여 종방향이 횡방향보다 더 정확한 Y시차를 보였지만, 종·횡방향에서 산출된 Y시차는 모두 스테레오 입체시가 가능할 것이라고 판단된다. 상대모델과 절대모델의 정확도 및 표준편차는 모델점과 체크점이 보이는 모든 페어에 대한 평균 정확도 및 표준편차이다. 그리고 정확도 및 표준편차가 0 m에 가까울수록 정밀한 수치를 나타난다. 상대모델 정확도에서 3D-UAV와 Pix4D 모두 종방향이 횡방향보다 더 높은 정확도를 보여주었다. 반면에 절대모델 정확도에서 3D-UAV와 Pix4D의 종방향 수평 정확도는 더 높게 나왔지만 수직 정확도는 횡방향이 더 높은 정확도를 보여주었다. 상대모델 정확도와 절대모델 정확도 결과에 일관성이 없는 가장 큰 원인 중 하나는 기준점을 측량한 관측자가 수치를 잘못 기입해 발생한 오차라고 판단된다.

Table 2. Analysis result of mapping quality according to vertical and horizontal shooting direction by software

OGCSBN_2019_v35n6_1_895_t0002.png 이미지

상대모델 표준편차는 종·횡방향의 수평, 수직 모두 3D-UAV가 Pix4D보다 더 정밀한 정확도를 보였다. 절대 모델 표준편차에서는 종·횡방향의 3D-UAV(종: 0.42 m, 횡: 0.41 m)의 수직 정확도가 Pix4D(종: 0.67 m, 횡: 0.50 m) 보다 더 정밀하게 나왔지만 수평 정확도는 3D-UAV(종: 0.55 m, 횡: 0.64 m)보다 Pix4D(종: 0.26 m, 횡: 0.24 m)가 더 정밀하게 나온 것을 확인하였다. 항공측량법규 작업규정 5장 56조에 근거하여(Table 3) 각 소프트웨어의 절대 모델 표준편차 결과는 3D-UAV와 Pix4D모두 1:5,000 수준의 정확도를 확보하고 국소적으로 1/2,500 수준의 정확도 확보가 가능할 것이라고 판단된다.

Table 3. Mapping tolerance error by scale (Aircraft surveying regulations, Chapter 5, 56)

OGCSBN_2019_v35n6_1_895_t0003.png 이미지

2) 수치사진측량시스템을 이용한 도화품질 신뢰성 비교분석

연구진이 산출한 도화품질의 신뢰성을 검증하기 위해 실제 도화기에서 관측된 정확도와 비교하였다. 먼저 5개의 체크점에 대해서 각 체크점이 보이는 종방향의 상대모델 기준페어와 비교페어를 선별하고 Y시차와 상대모델 정확도를 분석하였다(Table 4).

Table 4. Analysis result of Y-parallax and accuracy for relative model of horizontal direction pairs using Digital Photogrammetry Workstation (DPW)

OGCSBN_2019_v35n6_1_895_t0004.png 이미지

상대모델 기준페어는 각 영상좌표의 체크점에서 지상좌표로 투영된 상대모델 기준점을 계산하기 위한 페어이고, 상대모델 비교페어는 상대모델 정확도를 계산 하기 위한 여러 스테레오 페어 조합 중 하나이다(Fig. 5). 계산된 상대모델 정확도는 무인기 영상처리 소프트웨어에서 산출된 표정요소를 사용하여 계산된 정확도이며 관측된 상대모델 정확도는 도화기에서 실제로 관측된 정확도이다. 정확도 오차범위는 계산된 상대모델 정확도와 관측된 상대모델 정확도의 차이를 계산함으로써 도화품질의 신뢰성을 판단할 수 있는 수치이다. 분석 결과, 3D-UAV와 Pix4D의 표정요소에서 계산된 Y시차는 평균 1pixel 이하이며, 모든 페어가 도화기에서도 입체시가 제대로 형성된 것을 확인하였다. Pix4D의 체크점 1번과 2번에서, 상대모델 비교페어의 Y시차가 1.359로 다른 페어에 비해 비교적 높게 계산되었지만 입체시 형성에는 문제가 없었다. 계산된 상대모델 정확도와 관측된 상대모델 정확도는 비슷한 수치를 보이며 오차범위 또한 큰 차이가 없는 것을 확인하였다. 정확도 오차범위에서, 3D-UAV의 평균 수평, 수직 정확도는 오차범위 0.05 m, 0.03 m 이내의 결과를 보였고, Pix4D의 평균 수평, 수직 정확도는 오차범위 0.11 m, 0.04 m의 결과를 보였다. 도화기에서 관측된 상대모델 정확도는 사람이 직접 눈으로 관측하기 때문에, 계산된 상대모델 정확도와 어느정도 오차가 발생할 수 있고 판단된다. Y시 차가 1pixel 이내에서 입체시가 잘 형성되고, 3D-UAV와 Pix4D의 정확도 오차범위는 작은 오차범위를 보여준다. 그러므로 연구진이 산출한 도화품질이 신뢰성이 높다고 판단된다.

Table 5의 결과는, 상대모델 정확도 분석(Table 4)과 같은 방식으로 절대모델 정확도를 분석하였다. Y시차는 모든 페어에서 0~1pixel에 가까운 값이 산출되었으며 평균은 1pixel 이하이다. 모든 페어가 도화기에서 입체시가 잘 형성된 것을 확인하였다. 상대모델 정확도 분석결과와 유사하게 계산된 절대모델 정확도와 관측된 절대모델 정확도의 오차범위가 큰 차이가 없었다 3DUAV의 수평, 수직 오차범위는 0.03 m, 0.12 m를 보였고, Pix4D의 수평, 수직 오차범위는 0.07 m, 0.16 m의 결과를 보였다. 이는 상대모델 정확도 분석결과와 마찬가지로 정밀한 수치로 판단되며 절대모델 도화품질 역시 신뢰도가 높다고 판단된다.

Table 5. Analysis result of Y-parallax and accuracy for absolute model of horizontal direction pairs using Digital Photogrammetry Workstation (DPW)

OGCSBN_2019_v35n6_1_895_t0005.png 이미지

반면에 횡방향의 스테레오 페어의 경우, 높은 정확도의 도화품질이 산출되었지만(Table 2), 실제로 도화기에서 입체시 형성이 어려운 페어들이 발생했다. 게다가 원하는 위치로 도화기 조작이 어려워 면을 묘사하는 도화가 불가능했다. 이러한 원인은 스테레오 페어간 Kappa의 차이가 기인한 것으로 판단된다. Table 6은 횡방향 스테레오 페어와 정밀표정요소의 자세각을 분석한 결과이다. 영상을 보면 비행방향이 서로 반대이기 때문에 서로 반전인 영상이며 페어간 Kappa의 차이가 매우 크다. 도화기를 사용하여 도화 작업에 있어서 Kappa 차이가 큰 페어는 피해야 된다고 판단된다.

Table 6. Attitude angle analysis result for vertical direction pairs

OGCSBN_2019_v35n6_1_895_t0006.png 이미지

5. 결론

본 연구에서는 무인기에서 촬영된 영상을 각 무인기에서 처리한 정밀표정요소를 사용하여 촬영 종·횡방향에 따른 도화품질을 산출하는 기술을 개발하고 신뢰성을 분석하였다. Inspire2에 장착된 짐벌로 인해 안정적인 영상촬영이 가능해 높은 중복도의 영상을 취득할 수 있는 것으로 판단된다. 각 소프트웨어에서 산출한 정밀 표정요소를 사용하여 계산된 수평, 수직 상대모델 정확도는 3D-UAV가 더 높은 정확도를 보여줬다. 3D-UAV의 상대모델 정확도는 Pix4D 만큼 정밀한 정확도를 보여준다고 판단된다. 절대모델 정확도는 Pix4D의 수평 정확도가 3D-UAV보다 더 정확하지만 수직 정확도는 3D-UAV가 더 정확했다. 이러한 원인은 두 소프트웨어의 번들조정 알고리즘 성능차이에 기인한 것으로 판단되며 본 연구지역 이외에 추가적인 데이터를 확보하여 분석할 예정이다.

종방향 스테레오 페어에서 계산된 도화품질 검증을 위해 실제 도화기를 사용하여 관측한 결과, 3D-UAV, Pix4D 모두 종방향에서 신뢰할 만한 오차범위를 보여주었다. 반면에 횡방향 스테레오 페어는 도화기에서 입체시 형성 및 조작이 매우 어려웠다. 무인기를 이용해 매핑을 수행할 경우, 짐벌을 장착할 수 있는 회전익을 사용하고 종방향 스테레오 페어를 사용한다면 연구진이 개발한 도화품질 예측 기술이 적용이 가능할 것이라고 판단된다.

향후에는 고정익에서 취득된 영상을 사용하여 본 연구와 같은 방식으로 수행하고, 종방향으로 세분화된 중복도에 따른 도화품질 분석을 수행할 계획이다.

사사

본 논문은 농촌진흥청 공동연구사업(과제번호: PJ 013500032019)의 지원을 받았으며, 이에 감사드립니다.

References

  1. Harris, C. and M. Stephens, 1988. A combined corner and edge detector, Proc. of the 4th Alvey Vision Conference, Manchester, Aug. 31-Sep. 2, vol. 15, pp. 147-151.
  2. Hong, S. P., H. S. Choi, and E. M. Kim, 2019. Conversion of Camera Lens Distortions between Photogrammetry and Computer Vision, Journal of the Korean Society of Surveying, 37(4): 267-277.
  3. Kim, J. I. and T. Kim, 2013. Development of Photogrammetric Rectification Method Applying Bayesian Approach for High Quality 3D Contents Production, Journal of Broadcast Engineering, 18(1): 31-42 (in Korean with English abstract). https://doi.org/10.5909/JBE.2013.18.1.31
  4. Kim, J. I. and T. Kim, 2012. Precise rectification of misaligned stereo images for 3D image generation, Journal of Broadcast Engineering, 17(2): 411-421 (in Korean with English abstract). https://doi.org/10.5909/JEB.2012.17.2.411
  5. Kim, J. I. and T. Kim, 2014. Automated Image Alignment and Monitoring Method for Efficient Stereoscopic 3D Contents Production, Journal of Broadcast Engineering, 19(2): 205-214 (in Korean with English abstract). https://doi.org/10.5909/JBE.2014.19.2.205
  6. Kim, T., P. C. Lim, J. Son, and J. Seo, 2018. Feasibility Study of 1:1,000 Scale Map Generation using various UAVs and processing SW, Proc. of 2018 Korean Society for Geospatial Information System, Busan, Korea, May 31-Jun. 1, vol. 1, pp. 15-16.
  7. Lee, J. O. and S. B. Lee, 2018. Quality Evaluation Method for Surveying Results with UAVs, Proc. of 2018 Korean Society for Geospatial Information System, Jeju, Nov. 1-3, vol. 1, pp. 265-266.
  8. Lee, S. B., B. C. Hwang, Y. J. Ahn, and J. K. Roh, 2018. Field Survey of UAV(Drone) Surveying for the Standard Estimate Establishment, Proc. of 2018 Korean Society for Geospatial Information System, Jeju, Korea, Nov. 1-3, vol. 1, pp. 267-268.
  9. Lim, P.C. and T. Kim, 2018. Comparative Analysis of Point Cloud Generation from UAV Images using Various Commercial and Public Software, Proc. of 2018 International Symposium on Remote Sensing, Pyeongchang, Korea, May 9-11, Digitally available on CD.
  10. Lim, P. C., J. Seo, J. Son, and T. Kim, 2019a. Analysis of orientation accuracy of an UAV image according to camera calibration, Proc. of 2019 ISPRSInternational Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Enschede, Netherlands, Jun. 9-14, vol. XLII-2/W13, pp. 437-442.
  11. Lim, P. C., J. Seo, J. Son, and T. Kim, 2019b. Feasibility Study for 1:1000 Scale Map Generation from various UAV images, Proc. of 2019 International Symposium on Remote Sensing, Taipei, Taiwan, Apr. 17-19, Digitally available on CD.
  12. Lowe, D. G., 2004. Distinctive image features from scale-invariant keypoints, International Journal of Computer Vision, 60(2): 91-110. https://doi.org/10.1023/B:VISI.0000029664.99615.94
  13. Min, K. S., 2018. Analysis on the standard of estimate for Unmanned Aerial Vehicles, Proc. of 2018 Korean Society for Geospatial Information System, Jeju, Korea, Nov. 1-3, vol. 1, pp. 263-264.
  14. Park, J. H., H. S. Lee, T. H. Kim, D. S. Kim, and S. B. Lee, 2018. Field Survey of UAV (Drone) Surveying for the Standard Estimate Establishment, Proc. of 2018 Korean Society for Geospatial Information System, Jeju, Korea, Nov. 1-3, vol. 1, pp. 274-275.
  15. Rosten, E. and T. Drummond, 2006. Machine learning for high-speed corner detection, Proc. of the 9th European Conference on Computer Vision, Graz, Austria, May 7-13, vol. I, pp. 430-443.
  16. Won, J. H., J. K. So, and H. C. Yun, 2012. Non-Metric Digital Camera Lens Calibration Using Ground Control Points, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry, and Cartography, 30(2): 173-180. https://doi.org/10.7848/ksgpc.2012.30.2.173
  17. Yun, B. Y., J. O. Lee, and D. S. Lee, 2016. A study on the enactment of UAV standard estimating for applying in spatial information area, Journal of the Korean Cadastre Information Association, 18(1): 123-132.