DOI QR코드

DOI QR Code

Three-Dimensional Positional Accuracy Analysis of UAV Imagery Using Ground Control Points Acquired from Multisource Geospatial Data

다종 공간정보로부터 취득한 지상기준점을 활용한 UAV 영상의 3차원 위치 정확도 비교 분석

  • Park, Soyeon (Combined MS/PhD Student, Department of Civil and Environmental Engineering, Yonsei University) ;
  • Choi, Yoonjo (PhD Candidate, Department of Civil and Environmental Engineering, Yonsei University) ;
  • Bae, Junsu (PhD Candidate, Department of Civil and Environmental Engineering, Yonsei University) ;
  • Hong, Seunghwan (CTO, Stryx, Inc.) ;
  • Sohn, Hong-Gyoo (Professor, Civil and Environmental Engineering, Yonsei University)
  • 박소연 (연세대학교 건설환경공학과 석·박사과정생) ;
  • 최윤조 (연세대학교 건설환경공학과 석·박사수료생) ;
  • 배준수 (연세대학교 건설환경공학과 석·박사수료생) ;
  • 홍승환 ((주)스트리스 기술이사) ;
  • 손홍규 (연세대학교 건설환경공학과 정교수)
  • Received : 2020.09.16
  • Accepted : 2020.10.05
  • Published : 2020.10.31

Abstract

Unmanned Aerial Vehicle (UAV) platform is being widely used in disaster monitoring and smart city, having the advantage of being able to quickly acquire images in small areas at a low cost. Ground Control Points (GCPs) for positioning UAV images are essential to acquire cm-level accuracy when producing UAV-based orthoimages and Digital Surface Model (DSM). However, the on-site acquisition of GCPs takes considerable manpower and time. This research aims to provide an efficient and accurate way to replace the on-site GNSS surveying with three different sources of geospatial data. The three geospatial data used in this study is as follows; 1) 25 cm aerial orthoimages, and Digital Elevation Model (DEM) based on 1:1000 digital topographic map, 2) point cloud data acquired by Mobile Mapping System (MMS), and 3) hybrid point cloud data created by merging MMS data with UAV data. For each dataset a three-dimensional positional accuracy analysis of UAV-based orthoimage and DSM was performed by comparing differences in three-dimensional coordinates of independent check point obtained with those of the RTK-GNSS survey. The result shows the third case, in which MMS data and UAV data combined, to be the most accurate, showing an RMSE accuracy of 8.9 cm in horizontal and 24.5 cm in vertical, respectively. In addition, it has been shown that the distribution of geospatial GCPs has more sensitive on the vertical accuracy than on horizontal accuracy.

UAV (Unmanned Aerial Vehicle) 플랫폼은 소규모 지역의 영상을 저비용으로 신속하게 취득이 가능하다는 장점이 있어 재난모니터링과 스마트시티 분야에 널리 활용되고 있다. UAV 기반 정사영상 및 DSM (Digital Surface Model) 제작 시 cm 급 정확도를 확보하기 위하여 UAV 영상의 위치보정을 위한 지상기준점(Ground Control Points, GCP)이 필수적이다. 하지만, 현장 GCP 취득을 위한 현장방문, 대공표지 설치에는 상당한 인력과 시간이 소요된다. 따라서 본 연구에서는 GCP 현장 취득을 대체하기 위한 방법으로 사전에 구축되어 활용가능한 세 가지 공간정보를 GCP로 이용하는 방법을 제시하였다. 연구에 사용한 세 가지 공간정보는 첫째, 25 cm 급 정사영상과 1:1000 수치지형도 기반 DEM (Digital Elevation Model), 둘째, 모바일매핑시스템(Mobile Mapping System, MMS)으로 취득한 점군 데이터, 셋째, MMS 데이터와 UAV 데이터를 융합하여 만든 하이브리드 점군 데이터이다. 세 가지 공간정보로부터 취득한 GCP를 이용하여 각각에 대하여 UAV 정사영상과 DSM (Digital Surface Model, DSM)을 생성하였다. 생성된 3가지 결과를 현장 RTK-GNSS 측량으로 취득한 검사점과 비교하여 3차원 위치 정확도평가를 진행하였다. 실험결과, 세 번째 경우인 MMS와 UAV를 융합한 하이브리드 점군 데이터를 GCP로 사용하였을 때, UAV 정사영상과 DSM의 최종 정확도가 수평방향의 RMSE는 8.9 cm, 수직방향의 RMSE는 24.5 cm로 가장 높게 나타났다. 또한, 현장 측량을 대체하기 위해 활용한 공간정보로부터 취득한 GCP의 분포는 수평 위치 정확도 보다 수직 위치 정확도에 더 많은 영향을 미치는 것으로 나타났다.

Keywords

요약

UAV (Unmanned Aerial Vehicle) 플랫폼은 소규모 지역의 영상을 저비용으로 신속하게 취득이 가능하다는 장점이 있어 재난모니터링과 스마트시티 분야에 널리 활용되고 있다. UAV 기반 정사영상 및 DSM (Digital Surface Model) 제작 시 cm 급 정확도를 확보하기 위하여 UAV 영상의 위치보정을 위한 지상기준점(Ground Control Points,  GCP)이 필수적이다. 하지만, 현장 GCP 취득을 위한 현장방문, 대공표지 설치에는 상당한 인력과 시간이 소요된다. 따라서 본 연구에서는 GCP 현장 취득을 대체하기 위한 방법으로 사전에 구축되어 활용 가능한 세 가지 공간정보를 GCP로 이용하는 방법을 제시하였다. 연구에 사용한 세 가지 공간정보는 첫째, 25 cm 급 정사영상과 1:1000 수치지형도 기반 DEM (Digital Elevation Model), 둘째, 모바일매핑시스템(Mobile Mapping System, MMS)으로 취득한 점군 데이터, 셋째, MMS 데이터와 UAV 데이터를 융합하여 만든 하이브리드 점군 데이터이다. 세 가지 공간정보로부터 취득한 GCP를 이용하여 각각에 대하여 UAV 정사영상과 DSM (Digital Surface Model, DSM)을 생성하였다. 생성된 3가지 결과를 현장 RTK-GNSS 측량으로 취득한 검사점과 비교하여 3차원 위치 정확도평가를 진행하였다. 실험결과, 세 번째 경우인 MMS와 UAV를 융합한 하이브리드 점군 데이터를 GCP로 사용하였을 때, UAV 정사영상과 DSM의 최종 정확도가 수평방향의 RMSE는 8.9 cm, 수직방향의 RMSE는 24.5 cm로 가장 높게 나타났다. 또한, 현장 측량을 대체하기 위해 활용한 공간정보로부터 취득한 GCP의 분포는 수평 위치 정확도 보다 수직 위치 정확도에 더 많은 영향을 미치는 것으로 나타났다.

1. 서론

UAV (Unmanned Aerial Vehicle) 플랫폼은 저고도 비행으로 고해상도 영상을 취득할 수 있을 뿐만 아니라 저비용으로 소규모 지역의 영상을 신속하게 촬영할 수 있다는 장점이 있다. 이러한 이유로 재난 모니터링, 스마트시티 모델링, 주기적 환경 모니터링 등 다양한 분야에서 UAV의 활용이 증가하고 있다. UAV에 탑재된 GNSS/INS 센서를 이용하여 주기적인 환경모니터링, 재난상황 시에 지형 매핑과 피해 현황 정보 수집 연구, 실시간 건물 피해 현황 파악, 홍수 예측을 위한 DEM(Digital Elevation Model) 생성 및 지형 모델링 등의 연구가 활발히 진행되고 있다(Boccardo et al., 2015; Coveney and Roberts, 2017; Gonçalves and Henriquses, 2015; Nex et al., 2019; Suh and Choi, 2017). 또한 UAV를 이용하여 산사태 발생 지역과 같이 사람이 접근하기 어려운 재난 지역에서도 주기적인 현장 모니터링이 가능함을 확인하였다(Zekkos et al., 2016).

UAV로 취득한 데이터를 이용하여 제작된 UAV 정사영상 및 DSM(Digital Surface Model) 위치 정확도는 UAV에 탑재된 GNSS 센서의 정확도에 좌우된다. 하지만 UAV는 페이로드 제한으로 인해 저가의 센서가 장착되며, 지상으로부터 약 100 m 상공에서 비행하여 데이터를 취득하기 때문에, 기체의 불안정성으로 인한 UAV 위치 센서의 정확도 문제가 논의되고 있다(Ai et al., 2015). Forlani et al.(2018)는 UAV에 장착된 GNSS/INS 센서만을 이용하여 Direct Georeferencing을 수행하면 UAV 지오레퍼런싱 정확도 향상에 한계가 있어 GCP을 반드시 활용할 필요가 있다고 하였다. 하지만 정확한 GCP 좌표를 취득하기 위해서는 대부분 상당한 시간이 소요되는 RTK-GNSS 수신기를 이용한 현장측량을 실시하고 있으며, 사람이 접근하기 어려운 지역일 경우 데이터 취득이 매우 제한적이다. 따라서, 시간과 정확도 측면을 고려하여 효율적 GCP 측량을 위한 최적의 방안이 요구되고 있다.

이를 해결하기 위하여 기존의 연구는 UAV 비행계획 최적화, GCP 네트워크 최적화, 최적의 비행 고도 등의 외부 변수와 UAV 영상으로 취득한 최종 결과물 정확도의 관계를 제시하였다(Agüera-Vega et al., 2017; SanzAblanedo et al., 2018; Tonkin snd Midgley, 2016; Zimmerman et al., 2020). 뿐만 아니라, 현장에서 GCP 취득을 하지 않고 사전에 구축되어 있어 활용 가능한 공간정보를 이용하여 UAV의 기하보정 정확도를 향상하고자 하는 연구가 진행되었으며, Nho(2018)는 재난 모니터링에 활용될 UAV의 신속한 기하보정을 위하여 영상의 해상도가 차이가 있는 항공정사영상과 UAV 영상의 매칭을 수행하여 지상기준점을 취득하였다. 하지만 해당 연구 결과 수직 정확도는 약 1 m로, UAV 영상을 이용하여 cm 급 고정밀 데이터를 구축하는데 있어서 한계가 있었다.

UAV 영상을 활용한 고정밀 데이터 구축에 대한 문제점을 보완하기 위하여 Escobar Villanueva et al.(2019)는 지상 레이저 스캐너(Terrestrial Laser Scanner, TLS)의 점군 데이터를 GCP로 활용하였으며, UAV 영상을 이용하여 생성된 DEM을 참조 (reference) TLS DEM과 정확도 비교 연구를 수행하였다. 하지만, TLS는 한 번에 취득 가능한 데이터의 범위가 제한적이며, 광범위한 지역의 고정밀 3차원 좌표를 얻기 위해서는 사용성이 낮다는 단점이 있다. 이에 따라, TLS 점군 데이터를 활용한 센서 위치 보정 연구는 아직 미흡한 단계에 머물러 있는 현실이다.

기존 연구의 한계인 TLS의 공간적 제약을 해결하기 위해, 모바일 매핑시스템(Mobile Mapping System, MMS)은 이동 중 차량에 탑재된 라이다가 점군 데이터를 취득한다. MMS를 이용하면 신속하고 광범위한 지역에 대한 데이터 취득에 용이하지만 도로 주변으로 점군 데이터가 한정되며 도로 주변이 아닌 지역의 영상을 보정하는 데는 한계가 있다고 할 수 있다. 또한, 지상에서 취득된 MMS 점군 데이터의 경우, 건물, 나무 등으로 인하여 폐색 영역이 발생한다. MMS로 취득한 데이터의 폐색 영역 문제를 해결하기 위해 Gholami Farkoushi(2018)는 MMS를 이용하여 취득한 점군 데이터와 UAV 영상을 기반으로 제작된 점군 데이터를 융합하여 폐색 영역이 최소화된 점군 데이터를 생성하는 방법을 제안하였다. 해당 연구는 각 플랫폼의 장점을 최대화한 3차원 정밀 공간데이터를 융합하여 도시 모델링을 위한 데이터로 활용하고자 하였다. 하지만, 이 연구에서는 UAV의 영상을 보정하기 위하여 연구지역에 직접 RTK-GNSS 측량을 실시하여 3차원 공간모델을 생성하고 이를 MMS로 취득된 점군 자료와 융합하는 연구만을 진행하였다.

이상에서 살펴본 바와 같이, UAV의 활용도는 증가하고 있지만 위치 보정을 위해서는 현장측량과 TLS를 활용하는 수준에 머무르고 있다. MMS의 활용 분야도 급격히 증가하고 있지만 고정밀 자료 취득이 도로 주변에 한정되어 있는 단점이 있다. 하지만, 이와 같은 단점을 보완하기 위해 다양한 공간정보 센서로부터 취득된 정보를 UAV의 위치 보정을 위하여 활용하는 연구는 거의 진행되지 않고 있다. 따라서, 본 연구에서는 UAV 영상의 위치 보정을 위하여 광범위한 지역에 대한 GCP가 필요할 경우, GCP 현장 취득을 대체하기 위한 방법으로 사전에 구축되어 있어 활용 가능한 세 가지 공간정보를 GCP로 이용하는 방법을 연구하였다. 연구에 사용한 공간정보는 항공정사영상 및 수치지형도 기반 DEM 데이터, MMS 점군 데이터, MMS 점군 데이터와 UAV 사진측량 기반 점군 데이터를 융합한 하이브리드 데이터이다. 이상의 3가지 공간정보로부터 취득한 GCP를 활용하여 UAV 정사영상 및 DSM을 제작하고 이에 대한 3차원 위치 정확도를 비교 분석하였다. 또한, GCP 모델링을 위하여 활용한 공간 데이터 특성과 GCP의 개수와 분포에 따라 영상 기반으로 생성된 UAV 정사영상 및 DSM 정확도에 미치는 영향을 확인하였다.

2. 연구방법

본 연구에서 제안한 방법인 UAV 기하보정을 위한 현장 GCP 취득을 대체하는 방법을 연구하기 위하여 Fig. 1과 같은 절차로 진행하였다. 첫째, UAV 플랫폼을 이용하여 데이터를 취득하기 위해서 비행 예상 일의 날씨, 바람, 지형 정보를 수집하여 비행계획(flight planning)을 수립한다. 둘째, 앞서 작성한 계획을 토대로 연구대상지역에서 UAV 플랫폼을 이용하여 취득한 UAV 영상에 대하여 GCP를 활용하지 않고 UAV에 탑재된 GNSS/ INS 센서 정보만을 이용하여 대상지역의 정사영상과 DSM을 생성한다. 즉, direct georeferencing 결과를 취득한다. 셋째, 3가지 공간정보로부터 취득된 GCP를 활용하여 UAV 영상의 EOP(Exterior Orientation Parameter)와 IOP(Interior Orientation Parameter)를 보정한다. 넷째, 3가지 다른 공간정보로부터 취득한 GCP를 활용하여 생성된 정사영상과 DSM을 2번째 단계에서 생성된 direct georeferencing 단계의 결과와 비교한다. 이들 결과를 현장 RTK-GNSS 측량을 통하여 취득한 기준점과 비교하여 각 3가지 경우에서 취득한 GCP 결과와 분석을 진행한다. 이와 같은 연구를 위한 각 단계에 대한 상세한 내용은 다음과 같다.

OGCSBN_2020_v36n5_3_1013_f0001.png 이미지

Fig. 1. Flowchart of this research.

1) UAV 데이터 취득과 정사영상생성

본 연구에서는 비행계획을 자동으로 계획하는 GCS(Ground Control System) 소프트웨어인 FireFLY 6 Planner을 사용하여 UAV 데이터를 취득하였다. UAV 데이터 취득 후, 데이터 처리는 상용 소프트웨어인 Pix4D Mapper를 사용하였으며, Pix4D를 이용한 데이터 처리 연구 흐름도는 Fig. 1의 데이터 처리 단계에 자세히 나타냈다. 먼저, 특징점 기반 매칭을 수행하여 영상에서 특징점을 추출한 후 매칭을 통해 모든 영상의 상호표정을 결정하였다. 이 결과에 따라, 광속조정법(Bundle Adjustment, BA)을 이용하여 모든 영상의 EOP와 IOP 초기값을 설정한 후 기하보정을 실시하였다.

UAV 영상의 기하보정을 위한 위치와 자세 초기값으로, UAV에 탑재된 GNSS/INS 센서로 취득한 EXIF(EXchangeable Image File format)의 메타데이터를 사용 하였다. 또한 저가의 카메라를 사용하였기 때문에 탑재된 카메라에 대한 캘리브레이션을 동시에 수행하여 IOP를 추정하였다. 광속조정법은 공선조건식을 기반으로 하며, 식 (1)과 식 (2)로 표현할 수 있다. 여기서 EOP는 (Xo, Yo, Zo, ω, ø, κ) 중, EOP의 자세를 나타내는 파라미터인(ω, ø, κ)는 회전행렬(r11, r12, …,r33)로 표현하였으며 IOP는 (xp, yp, c, Δx, Δy) 이다.

\(x_{a}=x_{p}-c \frac{r_{11}\left(X_{A}-X_{o}\right)+r_{21}\left(Y_{A}-Y_{o}\right)+r_{31}\left(Z_{A}-Z_{o}\right)}{r_{13}\left(X_{A}-X_{o}\right)+r_{23}\left(Y_{A}-Y_{o}\right)+r_{33}\left(Z_{A}-Z_{o}\right)}+\Delta x\)       (1)

\(y_{a}=y_{p}-c \frac{r_{12}\left(X_{A}-X_{o}\right)+r_{22}\left(Y_{A}-Y_{o}\right)+r_{32}\left(Z_{A}-Z_{o}\right)}{r_{13}\left(X_{A}-X_{o}\right)+r_{23}\left(Y_{A}-Y_{o}\right)+r_{33}\left(Z_{A}-Z_{o}\right)}+\Delta y\)        (2)

xp, yp : principal distance

r11, r12, …, r33 : element of rotation matrix

c : focal length

Xo, Yo, Zo : perspective center of camera

XA, YA, ZA : 3D ground point Coordinates

Δx, Δy : distortion parameters

UAV는 기체 자체가 바람의 영향으로 불안정하고, 위치센서의 정확도에 문제가 있기 때문에 UAV에 탑재된 GNSS/INS을 이용하여 제작한 정사영상 및 DSM은 위치정보의 정확도에 문제가 있다. 따라서, UAV기반 데이터 처리 시 GCP를 사용이 필수적이며, 이를 이용하여 UAV의 지오레퍼런싱 정확도를 향상하였다.

최종적으로, 광속조정법을 통해 UAV의 IOP와 EOP를 추정하였으며 이를 기반으로 항공삼각측량을 수행하여 지상 데이터의 3차원 위치좌표를 산출하였다. 기하보정이 완료된, UAV 영상에서 증가된 매칭점 수를 기반으로 정밀 점군 데이터를 생성하였다. 고정밀 UAV 사진측량 기반 점군 데이터의 3차원 위치정보를 활용하여 TIN (Triangulation Irregular Network) 제작 후 래스터 데이터 보간법을 통해 격자 데이터인 DSM을 생성하였다. 정사영상을 제작하기 위해서는 연속적인 표고값을 나타낸 DEM와 달리 비고가 큰 건물로 인한 기복변위에 대한 정보를 포함하는 DSM을 활용한다. 이를 이용하여 기복변위로 인한 기하학적 왜곡을 제거하여 최종적으로 대상지역의 정사영상을 생성하였다.

2) GCP 좌표 취득을 위한 공간 데이터

본 연구에서는 사전 구축되어 활용 가능한 공간정보에서 3차원 좌표를 취득하여 UAV 영상 처리 시 GCP로 활용하였다. 연구에 활용한 공간정보는 항공정사영상 및 수치지형도 기반 DEM, MMS로 취득한 점군 데이터, MMS와 UAV 데이터를 융합한 점군 데이터로, 다음에 상세히 기술하였다.

(1) CASE 1 : 항공정사영상(X, Y) 및 수치지형도 기반 DEM(Z)

첫 번째, GCP 3차원 좌표를 추출하기 위하여 활용한 공간정보는 항공정사영상과 수치지형도 기반 DEM이다.국토정보지리원에서는 2년 주기로 전국 단위의 항공 정사영상을 제작하고 있어 기준영상으로의 활용성이 높게 평가되고 있다. 본 연구에 사용된 항공정사영상은 국토지리정보원에서 제공받은 것으로 2018년에 촬영되었으며, 정사영상의 공간해상도(GSD)는 25 cm로 이로부터 UAV 영상 기하보정을 위한 수평 X, Y 좌표 취득을 위하여 사용하였다. 항공정사영상은 항공사진측량 작업규정 제56조에 따라, 도화축척 1:1000인 경우 표준편차는 0.20 m, 최대오차는 0.40 m라 명시되어 있다. 국토정보플랫폼에서 제공받은 연구 대상지역의 수치지형도의 표고 및 등고선 데이터를 기반으로 DEM을 생성하였으며, 이를 UAV 영상 기하보정을 위한 수직 Z값 취득에 활용하였다. 3차원국토공간정보구축작업규정 제18조에 따르면, 축척이 1:1000인 수치지도를 이용하여 DEM를 제작할 경우, 격자간격은 1 m로 편집을 수행해야 함을 명시하였다. 이에 따라, 수치지형도의 표고 및 등고선 데이터는 2차원 공간에 분포된 점들의 집합으로, 들로네 삼각법을 이용하여 TIN을 구축한 후, 공간해상도가 1 m인 DEM 데이터를 제작하였다. DEM의 정확도는 항공레이저측량 작업규정 제44조에 따라, 수치지도 축척이 1:1000인 경우, 오차 한계로 평균 제곱근 오차(Root Mean Square Error, RMSE)는 0.5 m 이내, 최대오차는 0.75 m 이내라고 명시되어 있으며, GCP 취득에 활용된 항공정사영상과 1:1000 수치지형도 기반으로 제작한 대상지역의 DEM은 Fig. 2에 나타냈다.

OGCSBN_2020_v36n5_3_1013_f0002.png 이미지

Fig. 2. (a) Aerial Orthoimage and (b) Digital Elevation Model (DEM).

(2) CASE 2 : Pegasus MMS 점군 데이터

스마트시티와 자율주행자동차는 정밀지도(HD map)를 기반으로 운영되며, 이를 위해 고정밀 MMS 점군 데이터의 활용성이 증가하고 있다. 이에 따라, MMS 차량에 장착된 라이다로 점군 데이터를 취득하고, 차량 앞에 설치된 카메라 두 대를 이용하여 스테레오 카메라 기반 RGB-Depth 값을 정합하여 정밀 3차원 점군 데이터를 구축할 수 있다. GNSS는 건물, 나무 등 다중경로로 인해 도심지역에서 정확도가 낮아지는 단점이 있으나, MMS에 탑재된 GNSS/INS 센서와 주변환경을 분석하여 실시간 3차원 스캔을 수행하면, GNSS 다중경로 문제로 인하여 GNSS 신호 정확도가 낮은 지역에서도 정밀 위치 정보 취득이 가능하다는 장점이 있다. 따라서, 본 연구에서 MMS 점군 데이터를 GCP로 활용하였으며, Fig. 3는 연구에 활용된 MMS 점군 데이터로 Leica Pegasus: Two 장비를 사용하여 취득한 데이터이다. Pegasus MMS의 상세한 사양은 Table 1에 표시하였다.

OGCSBN_2020_v36n5_3_1013_f0003.png 이미지

Fig. 3. Point cloud data acquired from Fegasus MMS at Yonsei University and Yeonhui-dong.

Table 1. Leica Pegasus: Two Specifications

OGCSBN_2020_v36n5_3_1013_t0001.png 이미지

(3) CASE 3 : MMS 점군 데이터와 UAV 기반 점군 데이터를 융합한 하이브리드 데이터

GCP로 활용한 세 번째 데이터는 Pegasus MMS 점군 데이터와 UAV 사진측량 기법으로 제작한 3차원 점군 데이터를 융합한 하이브리드 데이터이다. MMS는 차량에 장착된 라이다를 이용하여 취득한 데이터로 지상 물체는 고정밀, 고해상도로 3차원 데이터를 구축할 수 있으나, 사람, 건물, 나무 등으로 인하여 폐색영역이 발생하기도 한다. 이와 다르게, UAV 영상 기반으로 제작된 3차원 점군 데이터는 항공에서 취득된 데이터로 건물 지붕 등 관찰이 가능하나, 건물의 측면에서는 폐색영역이 발생할 수 있다. 이러한 문제를 해결하기 위해 Gholami Farkoushi(2018)는 MMS 점군 데이터와 UAV 사진측량 기반으로 제작된 3차원 점군 데이터를 융합한 하이브리드 점군 데이터 제작을 제안하였으며, 해당 연구 결과 하이브리드 점군 데이터의 RMSE는 0.131 m로 확인되었다(Fig. 4).

OGCSBN_2020_v36n5_3_1013_f0004.png 이미지

Fig. 4. Integrated point cloud data from UAV imagery and MMS point cloud.

4) 검사점을 이용한 정확도 평가

UAV 사진측량 기반으로 제작된 정사영상과 DSM의 위치 정확도를 평가하기 위해서, GNSS를 이용하여 검사점(Check Point, CP)을 취득하였다. 사용한 GNSS 장비는 Fig. 5에 있는 Leica GS18 T 수신기이다. GNSS 측량 방식은 네트워크 실시간 이동 측위(Network-Real Time Kinematic, Network-RTK) 기법으로, 한 측점 마다 10 epoch로 설정하여 위성 신호를 수신하였으며, Table 2에 GNSS 장비의 정확도를 나타냈다. 본 연구에서는 UAV 정사영상과 DSM 정확도 평가를 위한 검사점으로 총 31점의 3차원 좌표를 취득하였으며, 정확도는 정량적인 수치인 최대값, 최소값, 평균 제곱근 오차(Root Mean Square Error), 평균값을 계산하여 비교하였으며, RMSE는 식 (3) ~ 식 (6)에 대입하여 계산하였다. RMSE를 계산하기 위해서 X, Y, Z 축 오차를 계산하였으며, X, Y 평면 좌표값을 비교하여 수평 RMSEH와 Z 좌표값을 비교하여 수직 RMSEZ를 산정하여 비교하였다.

OGCSBN_2020_v36n5_3_1013_f0005.png 이미지

Fig. 5. Leica GS 18 T receiver and controller.

Table 2. Leica GS18 T Specifications

OGCSBN_2020_v36n5_3_1013_t0002.png 이미지

\(R M S E_{X}=\sqrt{\frac{1}{n} \sum_{i=1}^{n}\left(x_{i}-\widehat{x}_{i}\right)^{2}}\)       (3)

\(R M S E_{Y}=\sqrt{\frac{1}{n} \sum_{i=1}^{n}\left(y_{i}-\widehat{y}_{i}\right)^{2}}\)       (4)

\(R M S E_{H}=\sqrt{\frac{1}{n} \sum_{i=1}^{n}\left(x_{i}-\widehat{x}_{i}\right)^{2}+\left(y_{i}-\widehat{y}_{i}\right)^{2}}\)       (5)

\(R M S E_{Z}=\sqrt{\frac{1}{n} \sum_{i=1}^{n}\left(z_{i}-\widehat{z}_{i}\right)^{2}}\)       (6)

3. 실험 및 연구결과

1) 연구 지역 및 연구자료

연구 지역은 서울특별시 서대문구에 위치한 연세대학교 신촌캠퍼스로 선정하였다. 2020년 2월 비행계획을 수립하여 데이터를 취득하였으며, 영상의 중복도가 높으면 영상의 특징점 기반 매칭수가 증가하여 기하보정 정확도가 향상되기 때문에, 종중복도와 횡중복도는 모두 80%로 설정되었다. 데이터 취득 면적은 0.652 km2이며, 비행 시 사용한 UAV 기체와 카메라는 각각 FireFly 6 Pro와 SONY ILCE-6000으로 상세한 사양은 Table 3에나타냈다. UAV에 장착된 GNSS/INS센서를 사용하여 촬영 시 UAV의 위치와 자세는 영상 메타데이터에 기록되었으며, 총 470장의 영상을 취득하였다.

Table 3. Specification of FireFly 6 Pro and camera

OGCSBN_2020_v36n5_3_1013_t0003.png 이미지

본 연구에서 GCP를 취득하기 위한 참조 공간정보로 세가지 종류를 활용하였으며, 참조 데이터를 달리하여 제작된 UAV 정사영상 및 DSM의 정확도를 비교하였다. 사전 구축되어 본 연구에서 활용된 3차원 공간정보는 항공정사영상 및 DEM, MMS 점군 데이터, MMS와 UAV를 융합한 점군 데이터를 활용하였다.

UAV의 기하보정을 위해서는 GCP의 수와 분포를 적절히 선정하는 것이 중요하다. 이에 따라, Agüera-Vega et al.(2017)는 UAV 영상을 기반으로 헥타르(ha) 마다 1.7개의 GCP를 취득하는 것이 가장 최적이라는 연구결과를 발표하였다. 하지만 연구에 활용한 공간정보의 특성으로 GCP의 수와 분포를 동일하게 취득하는 데 어려움이 있었다. 따라서, 본 연구에서는 항공정사영상 및 DSM 데이터에서 81개, MMS 점군 데이터에서 40개, MMS와 UAV를 융합한 점군 데이터에서 101개의 GCP를 취득하였다. MMS 점군 데이터의 GCP와 MMS 데이터 및 UAV 데이터를 융합한 하이브리드 점군 데이터의 특성을 비교하였을 때, MMS의 접근 한계와 지상의 차량, 건물, 나무, 사람 등 폐색요인으로 인해 활용 가능한 MMS 점군 데이터로 취득한 GCP 분포가 도로 주변에 치우치는 경향이 있다. 따라서, MMS 점군 데이터 기반 GCP를 추출하는 것보다, MMS 점군 데이터의 GCP와 MMS 데이터 및 UAV 데이터를 융합한 하이브리드 점군 데이터에서 취득한 GCP의 분포는 3차원 공간에서 균일하였으며, 항공정사영상과 DEM에서도 마찬가지로 균일하게 분포된 GCP를 취득하여 사용하였다. 하지만, 항공정사영상과 DEM을 사용하였을 경우 항공정사영상의 공간해상도는 25 cm로 제작되어 25 cm 내 지상거리에 물체가 있는 경우 점, 선, 면 특징을 구별하기 어려운 단점이 있어, MMS 데이터 및 UAV 데이터를 융합한 하이브리드 점군 데이터에서 취득한 GCP 개수보다 20개 적은 81개의 GCP를 취득하여 사용하였다.

본 연구에서 3가지 공간정보로부터 취득하여 활용한 GCP의 위치 분포는 Fig. 6의 (a), (b), (c)에 항공정사영상 및 DEM, MMS 점군 데이터, MMS와 UAV 점군 데이터를 융합한 점군 데이터 순으로 표시하였다. UAV 영상기하보정결과의 정확도 평가를 위한 검사점도 31개의 지점에서 취득하여 Fig. 6(d)에 위치 분포를 나타냈다.

OGCSBN_2020_v36n5_3_1013_f0006.png 이미지

Fig. 6. Location of ground control point and check point

2) 실험 결과

사전 제작된 다양한 공간정보에서 취득한 GCP 데이터를 활용하여 UAV 사진측량 기반 정사영상 및 DSM을 제작하여 정확도 비교를 진행하고 이를 분석하였다. GCP에 따른 각 공간정보에 대한 데이터 처리 품질을 Table 4에 수록하였다. Table 4에서 알 수 있듯이 GCP 취득에 활용한 참조데이터 따라 UAV 지오레퍼런싱 RMSE는 MMS 데이터와 UAV 데이터를 융합한 점군 데이터, MMS 점군 데이터, 항공정사사진과 DEM 순으로 증가하였으며, 매칭수도 UAV 지오레퍼런싱 RMSE에 따라 증가하는 것을 확인하였다.

Table 4. Comparison of quality check result

OGCSBN_2020_v36n5_3_1013_t0004.png 이미지

Table 5는 GCP를 취득한 참조 데이터 종류에 따라 제작된 UAV 정사영상 및 DSM과 검사점 위치정보를 이용하여 Max, Min, Mean, RMSE을 계산하였으며, 이를 비교한 표이다. MMS와 UAV 융합 점군 데이터의 GCP를 사용한 경우 RMSEH = 8.9 cm, RMSEZ = 24.5 cm이며, MMS의 GCP를 사용한 경우 RMSEH = 11.8 cm, RMSEZ = 62.7 cm로 계산되었다. 항공정사사진과 DEM의 GCP를 사용한 경우 RMSEH = 16.0 cm, RMSEZ = 24.5 cm로 확인되었다. 이에 반해, UAV의 GNSS/INS 센서만을 사용한 경우 RMSE는 m 단위로 계산되었으며, RMSEH =2.331 m, RMSEZ = 4.165 m이다. Fig. 7은 RMSE 정확도가 가장 높은 MMS 와 UAV를 융합한 점군 데이터 GCP를 사용하여 제작한 UAV 정사영상 및 DSM이다.

OGCSBN_2020_v36n5_3_1013_f0007.png 이미지

Fig. 7. UAV-Based Orthoimage (a) and DSM (b) using GCP acquired from point cloud integrated by MMS data and UAV data at Yonsei University.

Table 5. Accuracy comparison of three-dimensional position​​​​​​​

OGCSBN_2020_v36n5_3_1013_t0005.png 이미지

Fig. 8은 검사점의 위치 분포에 따른 UAV 기반 정사 영상과 DSM의 정확도를 비교하기 위해 DSM 값과 검사점의 Z축 값 오차를 막대그래프로 도시하였다. 수직오차의 경우, MMS 데이터를 GCP로 사용하였을 때, 연구지역의 남동측 하단에서 검사점과의 오차범위가 비교적 크게 나타났다. 이에 대해, 정량적 비교를 하기 위하여 MMS 점군 데이터가 구축된 지역과 검사점의 거리의 평균인 약 75 m를 기준으로 13개의 근거리 검사점과 18개의 원거리 검사점을 나누어 오차의 평균을 계산 하였으며, 근거리 검사점에서 수직 오차의 평균은 21.9 cm로 계산되었으나, 원거리 검사점에서 수직 오차의 평균은 87.9 cm로 증가함을 확인하였다(Table 6). 이에따라 MMS와 UAV 융합 점군 데이터의 GCP를 사용한 경우와 MMS 점군 데이터의 정확도를 비교하면, MMS로 취득한 점군 데이터는 cm 급 정확도로 UAV 기하보정이 가능할 것으로 판단되나, GCP의 분포에 따라 수직 오차 범위가 커질 수 있다는 단점이 있다.

OGCSBN_2020_v36n5_3_1013_f0008.png 이미지

Fig. 8. Distribution of error at Check Point location, (a) horizontal error and (b) vertical error​​​​​​​

Table 6. Comparison of the mean value in vertical error at part of check point​​​​​​​

OGCSBN_2020_v36n5_3_1013_t0006.png 이미지

Fig. 9에 묘사된 바와 같이, MMS의 점군 데이터의 GCP 분포가 고르지 못할 경우 검사점 전체의 수직 오차의 평균은 작을 수 있지만, 검사점 위치에 따른 수직오차의 범위는 1.45 m로 가장 큰 차이를 보임을 알 수 있었다. 이에 따라, 연구 대상 지역 전체에서 균일한 수직위치 정확도를 확보하기 위해서는 균일 분포된 GCP 취득이 정밀 데이터 구축에 중요함을 확인하였다.

OGCSBN_2020_v36n5_3_1013_f0009.png 이미지

Fig. 9. Boxplot of range of (a) horizontal error and (b) vertical error.​​​​​​​

참조데이터의 GCP를 활용하여 취득한 영상과 검사점과의 수평오차는 Fig. 10에 방향과 상대적인 오차길이를 함께 표시하였으나, GCP 취득에 활용된 검사점 위치에 따른 수평 오차의 발생 방향에 대한 경향은 미비한 것으로 보인다. 검사점의 수평 RMSE(Root Mean Square Error)는 MMS와 UAV데이터를 융합한 점군 데이터 GCP를 사용한 경우 8.9 cm이며, MMS 점군 데이터 GCP의 수평 RMSE는 11.8 cm로, 항공정사영상과 1:1000 수치지형도 기반 DEM 데이터의 수평 RMSE는 16.0 cm로 계산되었으며, 하이브리드 점군 데이터 GCP를 사용한 경우 수평 정확도가 가장 높은 것으로 확인되었다.

OGCSBN_2020_v36n5_3_1013_f0010.png 이미지

Fig. 10. Horizontal differences of UAV-based orthoimage.​​​​​​​

다음으로 GCP를 사용하지 않고 UAV 플랫폼 RTKGNSS 정보만을 이용하여 제작한 정사영상과 DSM 정확도는 m 단위로 정확도가 현저하게 낮은 것을 확인하였다. GCP를 사용하지 않았을 경우 수직 RMSE는 4.165m, 수평 RMSE는 2.331 m로 계산되었으며 GCP를 사용했을 경우 약 cm 급 RMSE인 경우에 비해 수평 RMSE는 약 15배 ~ 26배 증가함을 보였으며, 수직 RMSE는 약 7 ~17배 증가함을 확인하였다.

마지막으로, MMS 점군 데이터와 UAV 점군 데이터를 융합한 하이브리드 점군 데이터의 GCP와 항공정사 영상과 DEM의 GCP는 비슷한 GCP 개수와 분포로 취득되었으나, 공간정보의 정확도 및 해상도의 차이로 점, 선, 면 특징을 구별하기 어려운 단점이 있어 항공정사 영상과 DEM의 GCP의 개수가 20개 적게 취득되었다. 항공정사영상과 DEM의 공간해상도는 각 25 cm, 1 m로 MMS 데이터와 UAV 데이터를 융합한 하이브리드 데이터의 수평·수직 RMSE를 비교하면, 항공정사영상과 DEM을 사용했을 경우 수직 RMSE는 하이브리드 데이터와 비슷한 정확도를 보였으며, 수평 RMSE는 MMS와 UAV 데이터를 융합한 점군 데이터보다 약 2배 증가하였다.

도심지역의 경우 공간정보의 구축 및 관리 등에 관한 법률 제12조 2항에 따라 1:1000의 수치지형도를 제작하고 있으나, 전국단위로는 1:5000 수치지형도가 제작되고 있다. 이에 따라, 수치지형도 축척을 고려한 1 m, 5 m로 DEM을 제작하여 GCP 취득을 위한 데이터로 활용하여 보았으며, UAV 정사영상 및 DSM를 생성한 후 정확도를 비교하였다. 축척에 따른 정확도는 Table 7에 나타냈으며, 기존 DEM 공간해상도 1 m를 사용한 경우에 비해 DEM 공간해상도 5 m를 사용한 경우 수평 RMSE의 변화는 미비하였으나, 수직 RMSE는 24.5 cm에서 63.6 cm로 증가하였다. 즉, 참조데이터의 DEM 해상도에 따라 GCP로 활용되는 Z축 정확도가 낮으면, UAV 기반 DSM 수직 정확도 또한 낮아지는 것을 확인하였다.

Table 7. Positional accuracy comparison depending on DEM raster size​​​​​​​

OGCSBN_2020_v36n5_3_1013_t0007.png 이미지

4. 결론

UAV영상의 위치 보정을 위하여 GCP 현장측량 시 소요되는 시간과 비용 문제를 대체하고자, 광범위한 지역의 공간데이터를 신속하게 취득이 가능한 항공정사 영상과 수치지형도 기반 DEM, MMS 점군 데이터, MMS 점군 데이터와 UAV 점군 데이터를 융합한 하이브리드 점군 데이터에서 취득한 GCP를 활용하여 UAV 정사영상과 DSM을 제작하고 이에 대해 정확도 비교 수행한 결과 다음과 같은 결과를 얻었다.

첫째, MMS와 UAV 데이터를 융합한 점군 데이터를 이용한 경우 수평·수직 RMSE는 8.9 cm, 24.5 cm로 가장 작은 수치를 보였다. 수평 RMSE는 MMS 점군 데이터, 항공정사영상과 DEM를 GCP로 사용한 순으로 11.8 cm, 16.0 cm로 증가함을 보였으며, 수직 RMSE는 항공 정사영상과 DEM, MMS 점군 데이터를 GCP로 사용한 순으로 24.5 cm, 62.7 cm로 특히, MMS 점군 데이터만을 사용한 경우 2.6배 증가하였다.

둘째, GCP 없이 UAV에 탑재된 GNSS/INS 정보만 사용했을 경우 수평 RMSE는 2.331 m, 수직 RMSE는 4.165 m로 m 급 정확도로 계산되었으며, GCP를 사용했을 경우 약 cm 급 RMSE인 경우에 비해 수평 RMSE는 약 15배 ~ 26배, 수직 RMSE는 약 7배 ~ 17배 증가함을 확인하였다. 즉, 정밀 위치 보정을 하기 위해서 GCP는 반드시 필요하다는 것을 알 수 있었다. 또한 참조 데이터에서 GCP를 취득할 경우 GCP의 수와 분포, 활용한 공간정보의 해상도에 따라 UAV 영상 기반으로 제작된 정사영상과 DSM 정확도에 영향을 미치는 것으로 확인되었다.

따라서, 기 제작된 다양한 공간데이터로 취득한 GCP를 활용하여 UAV 영상 기반 정사영상과 DSM을 제작한다면 신속하고 정확한 위치정보를 요구하는 재난 대응 단계에서 광범위한 지역의 준 실시간 모니터링이 가능해지고 재난 복구 단계에서 보다 정확한 피해면적과 피해 규모 산출, 주기적으로 복구현황 파악이 가능해질 것으로 기대된다. 본 연구에서는 참조 공간데이터의 GCP 취득 시 수동적인 방법을 자동적인 매칭기법으로 보완해야 하는 것은 향후 연구가 필요한 내용이다.

사사

본 연구는 행정안전부 재난안전 산업육성지원 사업의 지원을 받아 수행된 연구이며, 이에 감사드립니다(No.20009742).

References

  1. Aguera-Vega, F., F. Carvajal-Ramirez, and P. Martinez-Carricondo, 2017. Assessment of photogrammetric mapping accuracy based on variation ground control points number using unmanned aerial vehicle, Measurement: Journal of the International Measurement Confederation, 98: 221-227. https://doi.org/10.1016/j.measurement.2016.12.002
  2. Ai, M., Q. Hu, J. Li, M. Wang, H. Yuan, and S. Wang, 2015. A robust photogrammetric processing method of low-altitude UAV images, Remote Sensing, 7(3): 2302-2333. https://doi.org/10.3390/rs70302302
  3. Boccardo, P., F. Chiabrando, F. Dutto, F. G. Tonolo, and A. Lingua, 2015. UAV deployment exercise for mapping purposes: Evaluation of emergency response applications, Sensors, 15(7): 15717-15737. https://doi.org/10.3390/s150715717
  4. Coveney, S. and K. Roberts, 2017. Lightweight UAV digital elevation models and orthoimagery for environmental applications: data accuracy evaluation and potential for river flood risk modelling, International Journal of Remote Sensing, 38(8-10): 3159-3180. https://doi.org/10.1080/01431161.2017.1292074
  5. Escobar Villanueva, J., L. Iglesias Martinez, and J. I. Perez Montiel, 2019. DEM generation from fixedwing UAV imaging and LiDAR-derived ground control points for flood estimations, Sensors, 19(14): 3205. https://doi.org/10.3390/s19143205
  6. Forlani, G., E. Dall'Asta, F. Diotri, U. M. di Cella, R. Roncella, and M. Santise, 2018. Quality assessment of DSMs produced from UAV flights georeferenced with on-board RTK positioning, Remote Sensing, 10(2): 311. https://doi.org/10.3390/rs10020311
  7. Gholami Farkoushi, M., 2018. Data Fusion Technique for Laser Scanning Data and UAV Images to Construct Dense Geospatial Dataset, Master Thesis, Yonsei University, Seoul, Republic of Korea.
  8. Goncalves, J. A. and R. Henriques, 2015. UAV photogrammetry for topographic monitoring of coastal areas, ISPRS Journal of Photogrammetry and Remote Sensing, 104: 101-111. https://doi.org/10.1016/j.isprsjprs.2015.02.009
  9. Nex, F., D. Duarte, A. Steenbeek, and N. Kerle, 2019. Towards real-time building damage mapping with low-cost UAV solutions, Remote Sensing, 11(3): 1-14.
  10. Nho, H., 2018. Fast Geocoding Processing for Low-Cost Unmanned Aerial Vehicle Imagery, Yonsei University, Seoul, Republic of Korea.
  11. Sanz-Ablanedo, E., J. H. Chandler, J. R. Rodriguez-Perez, and C. Ordonez, 2018. Accuracy of Unmanned Aerial Vehicle (UAV) and SfM photogrammetry survey as a function of the number and location of ground control points used, Remote Sensing, 10(10): 1606. https://doi.org/10.3390/rs10101606
  12. Suh, J. and Y. Choi, 2017. Mapping hazardous mininginduced sinkhole subsidence using unmanned aerial vehicle (drone) photogrammetry, Environmental Earth Sciences, 76(4): 1-12. https://doi.org/10.1007/s12665-016-6304-z
  13. Tonkin, T. N. and N. G. Midgley, 2016. Ground-control networks for image based surface reconstruction: An investigation of optimum survey designs using UAV derived imagery and structure-from-motion photogrammetry, Remote Sensing, 8(9): 16-19.
  14. Zekkos, D., J. Manousakis, W. Greenwood, and J. Lynch, 2016. Immediate UAV-enabled infrastructure reconnaissance following recent natural disasters: case histories from Greece, Proc. of 1st International Conference on Natural Hazards & Infrastructure, Chania, Greece, Jun. 28-30.
  15. Zimmerman, T., K. Jansen, and J. Miller, 2020. Analysis of UAS flight altitude and ground control point parameters on DEM accuracy along a complex, developed coastline, Remote Sensing, 12(14): 2305. https://doi.org/10.3390/rs12142305

Cited by

  1. 지상기준점 선점 위치에 따른 DSM 높이 정확도 분석 vol.51, pp.1, 2020, https://doi.org/10.22640/lxsiri.2021.51.1.125