DOI QR코드

DOI QR Code

Applicability Assessment of Disaster Rapid Mapping: Focused on Fusion of Multi-sensing Data Derived from UAVs and Disaster Investigation Vehicle

재난조사 특수차량과 드론의 다중센서 자료융합을 통한 재난 긴급 맵핑의 활용성 평가

  • Kim, Seongsam (Disaster Scientific Investigation Division, National Disaster Management Research Institute) ;
  • Park, Jesung (Disaster Scientific Investigation Division, National Disaster Management Research Institute) ;
  • Shin, Dongyoon (Disaster Scientific Investigation Division, National Disaster Management Research Institute) ;
  • Yoo, Suhong (Civil and Environmental Engineering, Yonsei University) ;
  • Sohn, Hong-Gyoo (Civil and Environmental Engineering, Yonsei University)
  • 김성삼 (국립재난안전연구원 재난원인조사실) ;
  • 박제성 (국립재난안전연구원 재난원인조사실) ;
  • 신동윤 (국립재난안전연구원 재난원인조사실) ;
  • 유수홍 (연세대학교 건설환경공학과) ;
  • 손홍규 (연세대학교 건설환경공학과)
  • Received : 2019.10.09
  • Accepted : 2019.10.19
  • Published : 2019.10.31

Abstract

The purpose of this study is to strengthen the capability of rapid mapping for disaster through improving the positioning accuracy of mapping and fusion of multi-sensing point cloud data derived from Unmanned Aerial Vehicles (UAVs) and disaster investigation vehicle. The positioning accuracy was evaluated for two procedures of drone mapping with Agisoft PhotoScan: 1) general geo-referencing by self-calibration, 2) proposed geo-referencing with optimized camera model by using fixed accurate Interior Orientation Parameters (IOPs) derived from indoor camera calibration test and bundle adjustment. The analysis result of positioning accuracy showed that positioning RMS error was improved 2~3 m to 0.11~0.28 m in horizontal and 2.85 m to 0.45 m in vertical accuracy, respectively. In addition, proposed data fusion approach of multi-sensing point cloud with the constraints of the height showed that the point matching error was greatly reduced under about 0.07 m. Accordingly, our proposed data fusion approach will enable us to generate effectively and timelinessly ortho-imagery and high-resolution three dimensional geographic data for national disaster management in the future.

본 논문은 상업용 소형 드론의 드론 맵핑 기하 정확도 평가와 지상 LiDAR와 드론 점군 자료의 융합을 통하여 재난 긴급 맵핑 적용성에 관한 연구이다. 기존의 드론 맵핑 절차와 카메라 검정과 광속조정법으로 카메라 모델을 최적화한 드론 맵핑 간의 위치 오차를 비교 분석한 결과, 평면 위치오차는 2~3 m에서 약 0.11~0.28 m 수준으로, 수직 위치오차는 2.85 m에서 0.45 m 수준으로 위치결정 정확도가 향상되었다. 아울러, 드론 맵핑과정에서 누락되기 쉬운 점군 자료의 측면정보를 지상 LiDAR 점군자료와 융합을 통해 보완할 수 있도록 두 점군 자료간 정합을 위한 개선된 좌표계 변환 모델을 제시하여 연구 대상지내 이종 점군 자료를 최대 오차 0.07 m 이내로 정합하였다. 본 논문에서의 재난현장에서의 드론 기반의 긴급 맵핑과 재난 현장정보를 보다 정밀하게 구축하기 위한 점군 자료융합에 관한 연구 성과는 향후 국가 재난안전 관리 현업에 일조할 수 있을 것으로 기대된다.

Keywords

1. 서론

최근 항법 센서와 전자통신 기술이 급속도로 발전하면서 고성능 저가의 소형 센서들이 탑재된 드론(UAVs)은 신속하게 정밀한 지형공간 정보를 효과적으로 구축하는 플랫폼으로 인식되고 있다. 특히, 신속하고 쉽게 사용자가 현장에서 운용할 수 있는 소형 상업용 드론은 재난사고 피해조사 등 재난관리 업무를 수행하기에 적합한 관측 플랫폼이다(Kim et al., 2019). 드론에 탑재된 Global Navigation Satellite System(GNSS)/Inertial Navigation System(INS), 자이로 센서, 가속계, 기압계 등 다양한 센싱 자료의 융합은 무인항공사진측량을 통해 신속하게 3차원 지형정보를 생성하는 데 핵심적인 기술로 인식되고 있다. 드론의 카메라 노출시간과 GNSS 시간의 동기화를 통한 정밀한 지오태깅(geo-tagging) 기술은 드론 항공사진의 촬영 당시의 카메라 위치와 자세정보를 활용하여 무인항공사진측량 과정에서 카메라 모델을 추정, 반복적인 조정과정을 통해 드론 맵핑 결과물의 위치정확도를 향상하는 데 일조하고 있다(Rehak et al., 2013). 드론의 다양한 센싱 정보와 direct geo-referencing 기술을 활용하여 무기준점이나 최소 기준점으로 정밀한 3차원 지형정보와 정사영상 지도를 생성함으로써, 무인항공 사진측량에서 지상기준점 측량 작업량을 줄이기 위한 연구도 활발히 진행되고 있다(Mian et al., 2015).Direct georeferencing은 항공기에 탑재된 고가의 GNSS/INS 장비 로부터 관측 센서의 위치와 자세정보를 관측하여 실시간(Real time Kinematic, RTK)이나 후처리(Post-Processed Kinematic, PPK) 방식으로 외부표정요소를 직접 결정하는 기법으로 기존의 사진측량에서 널리 사용되는 방식이다(Turner et al., 2014). 최근 이러한 RTK/PPK 방식이 소형 상업용 드론에도 도입되면서 지상기준점(Ground Control Point, GCP)을 활용하지 않거나 최소의 지상기준점으로도 드론 맵핑을 수행할 수 있게 되었다(Lee and Sung, 2018).

국립재난안전연구원에서는 재난사고 전후 피해조사 지역에 대한 고정밀 3차원 LiDAR 자료를 취득하기 위해 RIEGL사의 VZ-2000을 탑재한 재난조사 특수차량을 2015년 개발하였다. 특수조사 차량에 탑재된 RIEGL VZ-2000은 LiDAR 스캐너와 GNSS/INS 센서를 모듈화한 이동형 맵핑 체계(Mobile Mapping System, MMS)로, 행정안전부의 급경사지 관리 실태점검, 노후도로 노면파임(pothole) 자료 수집, 붕괴현장 보존을 위한 3차원 지형모델 수집 등 재난조사 현업에 활발히 활용되고 있다. 특수차량과 함께 드론은 재난사고 현장조사의 핵심 장비로 재난 현장의 고해상 영상지도 제작과 3차원 지형공간 정보 생성을 통해 재난 원인분석과 재난 현장의 보존을 위한 아카이브 구축에 핵심적인 역할을 하고 있다. 그러나 기존의 드론 맵핑 과정에서 인접 영상간의 관심점과 정합점을 추출하여 생성된 3차원 점군 자료는 지상 LiDAR에 비해 상대적으로 자료 점밀도가 낮고, 특히, 수직 촬영과 정사 투영으로 수행되는 드론 맵핑 기하 조건에서 건물과 같은 대상물의 측면의 점군 자료를 취득하기가 어려우므로 특수차량에 탑재된 지상 LiDAR에서 고점밀 점군 자료를 함께 취득하여 두 자료를 융합함으로써 DSM의 품질을 향상시킬 수 있다.

본 연구에서는 상업용 소형 드론과 재난사고 원인조사 특수차량을 활용하여 재난사고 현장의 정보를 신속하게 취득하기 위하여 다양한 촬영 조건에서 드론 맵핑의 기하 정확도를 평가하였다. 드론은 공간정보를 신속하게 구축할 수 있는 맵핑 플랫폼이나, 드론 맵핑 과정에서 수직 촬영으로 인해 누락된 점군 자료의 측면정보를 지상 LiDAR 점군자료와의 이종센서 통합을 통해 보완함으로써 향후 재난사고 조사현장의 고정밀 3차원 공간정보를 보다 정밀하게 수집·구축하기 위한 효과적인 방안을 제시하고자 한다.

2. 긴급 맵핑을 위한 재난사고 조사 플랫폼

1) 재난사고 원인조사 특수차량

국립재난안전연구원의 재난사고 원인조사 특수차량은 신속하고 체계적으로 재난사고 현장의 다양한 자료를 수집·처리하기 위해 다중 센서를 탑재한 차량기반조사 플랫폼으로 2015년 설계·개발되었다. 특수차량에는 모바일 맵핑이 가능한 지상 LiDAR 시스템, 2M 해상도인 광학 카메라 5대, 광학·적외선(Electro-Optical and Infra-Red) 일체형 카메라 1대, 16M 고해상 광학 카메라 1대, 이동형 기상관측 센서 모듈, 지반 함몰 탐지 센서와 탑재된 다중 센서를 통합적으로 운용할 수 있는 다중센서 통합운용 시스템이 차량 내부에 구축되어 있다 (Table 1). 또한, 주파수 통신 링크를 통해 재난 현장을 항공에서 모니터링하고 드론 맵핑을 수행할 수 있도록 조사용 드론과 조사차량을 연계·운용할 수 있도록 개발하였다. 현장에서 수집된 다양한 자료는 Long Term Evolution(LTE) 무선 통신을 통해 연구원의 재난상황관리시스템인 “Smart Big Board(SBB)”에 전송·표출할 수 있도록 설계하였다.

Table 1. On-board sensors of investigation vehicle of NDMI

OGCSBN_2019_v35n5_2_841_t0001.png 이미지

2) 소형 드론 시스템

드론 맵핑은 재난사고 현장과 같은 조사자가 접근하기가 어렵거나 불가능한 지역에 대한 지형정보를 신속하고 수집하고 기존의 지도를 갱신하여 현행화하는 데 효과적인 방법이다(Kim et al., 2018). 국립재난안전연구원은 고정익·회전익 드론, 고정익과 회전익 드론 특성을 모두 갖춘 하이브리드 드론, 실내조사용 짐볼 드론 등 재난사고 원인조사 현업에 다양한 드론을 운용하고있다. 재난지역 긴급 맵핑을 위해 본 연구에서는 DJI사의 소형 드론인 Inspire 1을 이용하였다. DJI Inspire 1은 4K급 비디오 영상과 고해상 항공사진을 촬영할 수 있는 Zenmuse X5 광학 카메라가 탑재되어 있다. Compulsory Metal Oxide Semiconductor(CMOS) 센서의 셀 크기가 약 3.7 µm인 Zenmuse X5는 비행고도 150 m에서 약 0.04 m급 공간해상도(Ground Sampling Distance, GSD)의 항공사진을 촬영할 수 있다. 즉, 비행고도 150 m에서 지상에 설치된 정방형(0.6 × 0.6 m) 대공표지는 드론 항공사진상에 약 15 × 15 픽셀로 표현된다. DJI사 Inspire 1에 장착된 Zenmuse X5는 16M급(4,608 × 3,456 픽셀) 항공사진을 촬영할 수 있으며, 상세한 카메라 사양은 Table 2와 같다.

Table 2. Specifications of DJI Zenmuse X5

OGCSBN_2019_v35n5_2_841_t0002.png 이미지

3. 자료 취득 및 처리

1) 연구 방법

본 연구에서는 소형 드론의 드론 맵핑 성과 정확도를 향상하기 위하여 카메라 검정을 통한 왜곡 보정과 Agisoft사 PhotoScan의 카메라 모델 최적화 과정에서 카메라 검정 결과를 반영하여 기존 자료처리 기법간의 드론 맵핑 기하정확도를 서로 비교·분석하였다.

이를 위해 항공 촬영전 드론에 탑재된 비측량용 카메라의 검정을 통해 카메라 내부표정요소(Interior Orientation parameters, IOPs)를 산출하였다. 이후, 대상지내 자연 지형지물과 대공표지를 이용한 16개 기준점과 11개 검사점(check points,CPs)에 대해 VirtualReference Station(VRS) GNSS 측량으로 절대 좌표를 취득하였다. 또한, 실험실에서 계산된 카메라 내부표정요소를 카메라 모델 최적화 단계에서 반영할 수 있도록 PhotoScan의 드론 맵핑 스크립트를 수정하였으며, 촬영 고도별로 생성된 정사영상 상의 검사점에 대한 위치 정확도를 비교·분석하였다. 다음 단계로 재난사고 현장에서 지상 LiDAR 자료와 드론 센싱 자료의 통합을 위하여 대상지내 자연 지형지물 정합점을 선정하고, 좌표 변환 모델식을 적용하여 드론 점군 자료의 좌표계를 기준으로 지상LiDAR 자료를 등록하여 이종 점군 자료를 통합하였다. 이 과정에서 본래 좌표계의 형태를 보전하면서 변환이 가능한 통상적인 7-parameter similarity transformation 좌표 변환 모델식을 적용하였다(Cho et al., 2008).

   
\(\begin{bmatrix} X_i \\ Y_i \\ Z_i \end{bmatrix} = t + sR\begin{bmatrix} x_i \\ y_i \\ z_i \end{bmatrix} \)       (1)

 

여기서, t는 평행 이동량, s는 축척, R는 회전행렬임.

7개 변환 계수는 아래 관측 방정식으로 구할 수 있다 (Zeng and Yi, 2012).

\(A = \tau r^T + sBR^T + E\)

\(A=\begin{bmatrix} X_1 & Y_1 & Z_1 \\ & \vdots & \\ X_n & Y_n & Z_n \end{bmatrix}\)\(B=\begin{bmatrix} x_1 & y_1 & z_1 \\ & \vdots & \\ x_n & y_n & z_n \end{bmatrix}\)      (2)

 

여기서, A와 B는 각각 매칭점 좌표임.

변환계수 t, s, R는 아래의 최소제곱법에 의한 관측방 정식으로 계산하였다.

\(||E||^2 = tr(E^TE)=min\)       (3)

\(=> t={1 \over n}(A-sBR^T)^T\tau\)

\(s={tr(\vartriangle A^T\vartriangle BR^T) \over tr(\vartriangle B^T\vartriangle B)}\)

\(R= \delta A\delta B^T(\delta B\delta B^T)^{-1}\)   

7-parameter similarity transformation에 의한 좌표계 변환 과정에서 다소 발생할 수 있는 위치오차가 발생할 수 있으며, 경험적인 변환계수 제약조건을 고려하여 이종 점군 자료간 융합 정확도의 개선 방안을 4장에 구체적으로 기술하였다.

2) 드론 맵핑을 위한 카메라 렌즈 검정

카메라 렌즈 검정(camera calibration)은 카메라의 내부표정 요소를 계산하는 과정으로, 비측량용 카메라를 측량 목적으로 사용하고자 할 때 무인항공사진측량의 산출물의 정확도 개선을 위해 수행되는 사전 자료처리 과정이다. 카메라 내부표정 요소는 사진 좌표계 상의 주점의 위치(x0, y0), 카메라 초점거리(f), 카메라 렌즈의 왜곡량(K1, K2, P1, P2) 등을 계산한다. 본 연구에서는 드론 항공촬영에 앞서 Inspire 1에 zenmuse X5 카메라 전원을 켠 상태에서 검정판(calibration sheet)과 체커보드를 촬영하였다(Fig. 1). 드론 촬영 사진에서 검정색 박스와 하얀색 박스간 경계점들을 추출(Table 3, 좌측 사진)한 후, 카메라 렌즈의 왜곡량을 산출하였다.

OGCSBN_2019_v35n5_2_841_f0001.png 이미지

Fig. 1. Calibration Sheet and Plate photographing for camera calibration.

Table 3. IOPs derived from Camera calibration of Zenmuse X5

OGCSBN_2019_v35n5_2_841_t0003.png 이미지

3) 연구대상지 선정 및 지상기준점 측량

본 연구 대상지는 울산광역시 중구에 위치한 국립재난안전연구원 청사동 부지를 선정하였다. 부지 내 건물, 녹지, 주차장 등 식별이 용이한 다양한 형태의 지형지물이 존재하고 있고, 부지가 남쪽 하단의 도로면과 북쪽의 부지 상단 간 확연한 고저차를 갖는 경사면에 위치하면서도 건물과 주차장 부지에 넓은 평탄지를 갖고있어 지상기준점 설치와 선점이 유리한 지형 구조를 갖는 특징이 있다. 드론 항공촬영 전 기하모델 정확도 평가를 위한 기준점 측량을 위해 27개의 정방형 대공표지를 연구원 전체 부지 내 일정 간격으로 배치하였으며, 지상기준점 측량은 약 1 cm 정밀도를 갖는 RTK GNSS 측량을 수행하여 27개 기준점(16 GCPs, 11 CPs)에 대한 동부원점 Transverse Mercator(TM) 좌표를 취득하였다 (Fig. 2, Table 4).

OGCSBN_2019_v35n5_2_841_f0002.png 이미지

Fig. 2. GCP targets deployment and GNSS surveying in the study area (NDMI site).

Table 4. Coordinates of GCPs and check points measured with RTK GNSS

OGCSBN_2019_v35n5_2_841_t0004.png 이미지

4) 드론 항공사진 촬영

본 연구에서는 드론 맵핑의 기하정확도 평가를 위해 DJI사의 드론 운용 앱과 Pix4D Capture 드론 맵핑 앱을  이용하여 다양한 비행고도에서 항공사진을 취득하도록 비행계획을 수립하였다. Inspire 1으로 촬영된 항공사진의 메타데이터(EXchangeable Image File, EXIF)에는 사진 파일의 크기, 촬영 일시, 조리개, ISO, 카메라 모델명 등 기본 정보와 촬영 당시의 초점 거리(focal length), 드론에 탑재된 GNSS의 위·경도 좌표, 비행고도, 자세각 (roll, pitch, yaw) 정보 등이 기록된다. DJI Inspire1를 이용하여 연구원 부지를 대상으로 종·횡종복도 65%, 비행고도 80 m에서 항공사진 142매, 100 m는 69매, 120 m에서는 53매를 각각 취득하였고, 지상의 총 촬영면적은 40,402 m2였다. Fig. 3은 비행고도 80 m, 100 m, 120 m에서 각각 촬영한 연구원 항공사진으로, 80 m에서는 최소 1점에서 최대 8점의 대공표지가, 100 m에서는 최대 10점, 120 m에서는 최대 12점이 포함된 항공사진을 취득하였다. Fig. 3의 하단 그림은 각 비행고도별로 항공사진상에 촬영된 대공표지의 해상도를 보여주고 있다.

OGCSBN_2019_v35n5_2_841_f0003.png 이미지

Fig. 3. GCP targets on aerial photos (a) at 80 m, (b) at 100 m, and (c) at 120 m flight height captured by Inspire 1.

4) 지상 LiDAR 자료 수집 및 처리

국립재난안전연구원의 특수조사 차량에 탑재된 RIEGL의 지상 LiDAR 시스템은 어안렌즈 카메라, VZ2000 스캐너, GNSS/INS, 스캐너 마운트로 구성되어 있으며, 스캐너로부터 최대 반경 2 km, 수직방향 0 ~ 100°, 수평방향으로 0 ~ 360° 범위에서 5 mm 정밀도로 초당 40만 점군 자료를 취득할 수 있다. 본 연구 대상지 내 17개 스캐너 관측점에서 총 93,813,845점 자료를 취득하였으며, 17개 점군 자료 간 등록오차는 0.03 m였다(Fig. 4).

OGCSBN_2019_v35n5_2_841_f0009.png 이미지

Fig. 4. (a) Matching points locations for point cloud co-registration, (b) and (c) 3D building model obtained from Terrestrial LiDAR in the study site.

4. 결과분석 및 토의

1) 드론 맵핑 기하 정확도 평가

드론 맵핑을 위한 일반적인 PhotoScan 자료처리 절차와 본 논문에서 제안한 드론 맵핑 방식간의 정확도를 서로 비교·분석하였다. 통상적으로 PhotoScan에서는 자동 보정기법(self-calibration)으로 내부표정요소(x0, y0, f, K1, K2, P1, P2)를 추정하여 드론 맵핑을 수행해 왔다 (Turner et al., 2013). 본 논문에서는 드론 맵핑 정확도 개선을 위해 사전 카메라 검정을 통한 내부표정요소의 결정과 광속조정법(bundle adjustment)을 통해 외부표정요소를 반복 조정하여 카메라 모델을 최적화함으로써 드론 맵핑의 위치결정 정확도를 향상하는 방식을 제안하였다(Fig. 5).

OGCSBN_2019_v35n5_2_841_f0004.png 이미지

Fig. 5. Drone mapping procedure using PhotoScan:(a) general procedure,(b) proposed procedure in this study.

기존 드론 맵핑 방식과 논문에서 제안 방식으로 수행된 각 비행고도별 위치 오차는 Table 5와 같다. 기존의 방식에서 약 2~3 m로 발생하던 평면 위치오차는 본 논문에서 제안한 방식에서는 약 0.11~0.28 m로, 수직 위치 오차는 2.85 m에서 0.45 m까지 정확도가 향상되었다. 또한, 비행 고도별로 기존 방식과 본 연구에서 제안한 방식에 의한 결과, 기존 방식에서는 비행고도 80 m는 약 2.9 m, 100 m에서 약 2.5 m, 120 m에서 약 2.4 m가 발생하였다. 본 논문의 맵핑 방식 적용 결과, 80 m 고도에서 0.4 m, 100 m 고도에서 0.3 m, 120 m에서 0.2 m로, 드론 맵핑 정확도가 cm 수준으로 개선되었다. 실험에 사용된 DJI Inspire 1의 경우, 호버링 비행모드에서 탑재된 GNSS 위치 정확도가 평면 2.5 m, 수직 0.5 m인 점을 감안하면 적정 수준에서 모델링이 수행된 것이라 판단된다.

Table 5. Accuracy assessment: geo-referencing by self-calibration and the proposed procedure

OGCSBN_2019_v35n5_2_841_t0005.png 이미지

2) 드론 맵핑을 통한 3차원 수치지형모델 및 정사영상 제작

드론 맵핑의 결과물로서 비행 고도에 따라 연구 대상지 내 3차원 점군 자료가 약 2~3천만 점이 생성되었고(Fig. 6(a)), 항공사진의 RGB 정보를 가진 점군 자료를 활용하여 3차원 수치지형모델을 가시화하였다. 이 점군 자료에서 메쉬 또는 불규칙 삼각망(Triangulated Irregular Network,TIN)형태의3차원수치지형모델(Digital Surface Model, Digital Terrain Model) 제작이 가능하다(Fig. 6(b)). 드론 맵핑의 최종 산출물로서 비행고도에 따라 0.04~ 0.06 m 해상도를 가진 정사영상을 제작하였다(Fig. 6(c)).

OGCSBN_2019_v35n5_2_841_f0005.png 이미지

Fig. 6. Outputs derived from drone mapping: (a) 3D point cloud, (b) DSM, and (c) ortho-image of the study site.

3) 지상 LiDAR와 드론 이종센서 자료통합을 통한 맵핑 정확도 개선

정사영상 제작을 위한 드론 항공촬영 방식은 주로 수직방향에서 노출된 건물 지붕면을 중심으로 점군 자료가 생성되기 때문에 건물과 같은 대상체의 측면 정보는 대부분 누락되는 경우가 흔히 발생한다(Fig. 7(a), Fig. 7(b)). 지상에서 360° 방향으로 5 mm급 정밀도로 스캐닝하여 수집된 LiDAR 점군 자료(Fig. 7(c))를 드론 맵핑 점군 자료와 동일한 좌표계로 서로 등록함으로써 3차원 모델의 가시화를 개선할 수 있다.

OGCSBN_2019_v35n5_2_841_f0006.png 이미지

Fig. 7. Point clouds derived from (a) drone mapping with air view, (b) drone mapping with a side view, and (c) Terrestrial LiDAR.

본 연구에서는 두 점군 자료정합을 위해 대상지내 주차선 모서리건물 모서리(Fig. 8(a))나 건물 모서리(Fig. 8(b)) 등 식별이 용이하고 동일한 지형지물을 정합점으로 우선 선정한 후, 지상 LiDAR 점군 자료와 드론 맵핑에서 생성된 점군 자료로부터 정합점의 좌표를 취득하였다.

\OGCSBN_2019_v35n5_2_841_f0007.png 이미지

Fig. 8. Matching points for registration between Terrestrial LiDAR and drone mapping (a) at road surface (b) at the edge of the building.

지상 LiDAR 자료는 상대 좌표계, 드론맵핑 점군 자료는 동부 원점의 TM 직교좌표계로 취득되었으며, 지도상에서의 가시화를 위해 이종 점군 자료간의 직각좌표계 변환은 드론 맵핑 점군자료를 기준으로 7-parameter similarity transformation과 경험적인 변환계수 제약조건 모델을 통해 지상 LiDAR 좌표계를 변환하여 두 점군 자료를 통합하였다. 7-parameter similarity transformation에 의한 좌표 변환 결과, X축 방향의 위치오차가 최대 1 m로 확인되었으며, 이로 인해 점군 자료 간 부정합이 현저하게 발생하였다(Fig. 9(a)). 이를 해소하고자 두 좌표계간 축적이 동일하고, 수직 성분은 회전이 없다는 조건을 좌표 변환 모델식에 반영하여 두 자료 간 발생 오차를 최소화하였다. 이 때, 수직 방향에서의 이동량(ΔZ)은 평균 고도값으로 부여하였다.

OGCSBN_2019_v35n5_2_841_f0008.png 이미지

Fig. 9. Registration results using the transformation equation of 7-parameter similarity, with height constraints.

\(\begin{bmatrix} X\\ Y \end{bmatrix} = t + R\begin{bmatrix} x\\ y \end{bmatrix} \)       (4)

\(Z=\triangle Z+z\)

평균 고도값 조정을 통한 변환 모델식을 적용한 결과, 기존 7-parameter similarity transformation와 비교했을 때 Fig. 9(b)에서 보는 바와 같이 최대 오차가 약 0.07 m 이내로 두 점군 자료를 정합되었음을 확인할 수 있었다 (Table 6).

Table 6. Registration RMS error occurred according to transformation equations​​​​​​​

OGCSBN_2019_v35n5_2_841_t0006.png 이미지

5. 결론

본 연구는 상업용 소형 드론과 재난사고 원인조사 특수차량을 활용하여 재난사고 현장의 정보를 신속하게 취득하기 위하여 다양한 촬영 조건에서 드론 맵핑의 기하 정확도를 평가하였다. 일반적인 드론 맵핑 기법과 카메라 검정과 광속조정법으로 카메라 모델을 최적화한 드론 맵핑 기법간의 위치 오차를 비교·분석한 결과, 평면오차는 2 ~ 3 m에서 약 0.11 ~ 0.28 m 수준으로, 수직오차는 2.85 m에서 0.45 m 수준으로 위치결정 정확도가 개선되었다. 아울러, 드론 맵핑 과정에서 수직 촬영으로 인해 누락된 측면 정보를 지상 LiDAR 점군 자료간 융합을 통한 보완할 수 있도록 두 점군 자료 정합을 위한 개선된 좌표계 변환 모델을 제안하였고, 최대 오차를 0.07 m 이내로 정합할 수 있었다. 이로써, 특수차량의 지상 LiDAR 자료와 드론 센싱 자료간의 융합을 통해 향후 재난사고 조사현장의 고정밀 3차원 공간정보를 신속하게 수집·구축하는 방안을 제시하였다. 본 연구 성과를 이용하여 재난사고 현장에서의 신속한 공간정보의 구축과 긴급 맵핑을 통해 국가 재난안전 관리 현업에 일조할 수 있을 것으로 기대된다.

사사

본 연구는 행정안전부 국립재난안전연구원의 주요사업(재난원인 현장감식 기술개발(NDMI-주요-2017-05-01))의 지원으로 수행되었습니다.

References

  1. Cho, J. K., Y. S. Choi, J. H. Kwon, and B. M. Lee, 2008. A study on the Accuracy Analysis of the World Geodetic System Transformation for GIS Base Map and Database, Journal of Korean Society for Geospatial Information Science, 16(3): 79-85.
  2. Kim, S. S., B. G. Song, S. B. Cho, and H. S. Kim, 2019, Applicability of Drone Mapping for Natural Disaster Damage Investigation, Journal of Korean Society for Geospatial Information Science, 27(2): 13-21. https://doi.org/10.7319/kogsis.2019.27.2.013
  3. Kim, S. S., S. H. Yoo, J. S. Park, S. B. Cho, and T. H. Kim, 2018. Rapid Disaster Mapping through Data Integration from UAVs and Multi-sensors Mounted on Investigation Platforms of NDMI, Korea, Proc. of 2018 Geoinformation For Disaster Management (Gi4DM), Istanbul, Turkey, Mar. 18-21, vol. XLII-3/W4, pp. 291-294.
  4. Lee, J. O. and S. M. Sung, 2018. Assessment of Positioning Accuracy of UAV Photogrammetry based on RTK-GPS, Journal of the Korea Academia-Industrial Cooperation Society, 19(4): 63-68. https://doi.org/10.5762/KAIS.2018.19.4.63
  5. Mian, O., J. Lutes, G. Lipa, J. J. Hutton, E. Gavelle, and S. Borghini, 2015. Direct Geo-referencing on Small Unmanned Aerial Platforms for Improved Reliability and Accuracy of Mapping Without the Need for Ground Control Points, Proc. of 2015 International Conference on Unmanned Aerial Vehicles in Geomatics(UAV-g), Toronto, Canada, Aug. 30-Sep. 2, vol. XL-1/W4, pp. 397-402.
  6. Rehak, M., R. Mibillard, and J. Skaloud, 2013. A Micro-UAV with the Capability of Direct Georeferencing, Proc. of 2013 International Conference on Unmanned Aerial Vehicles in Geomatics(UAV-g), Rostock, Germany, Sep. 4-6, vol. XL-1/W2, pp. 317-323.
  7. Turner, D., A. Lucieer, and L. Wallace, 2013. Direct Geo-referencing of Ultrahigh-Resolution UAV Imagery, IEEE Transaction on Geoscience and Remote Sensing, 52(5): 2738-2745. https://doi.org/10.1109/TGRS.2013.2265295
  8. Verhoenven, G., 2011. Taking computer Vision Aloft-Archaeological Three-dimensional Reconstructions from Aerial Photographs with Photoscan, Archaeological Prospection, 18(1): 67-73. https://doi.org/10.1002/arp.399
  9. Zeng, H. and Q. Yi, 2012. Simple and Efficient Direct Solution to Absolute Orientation, In: Deng, W. (ed.), Future Control and Automation, Lecture Notes in Electrical Engineering, Springer, Berlin, Heidelberg, Germany, vol. 173, pp. 19-25.

Cited by

  1. 소방분야의 드론 활용방안 연구 경향 분석 vol.22, pp.4, 2019, https://doi.org/10.5762/kais.2021.22.4.321