DOI QR코드

DOI QR Code

무인항공기 정밀 센서모델링을 통한 대축척 수치도화 가능성 평가

Evaluation of Possibility of Large-scale Digital Map through Precision Sensor Modeling of UAV

  • 임평채 ((주)쓰리디랩스 영상공학연구소 연구원) ;
  • 김한결 ((주)쓰리디랩스 영상공학연구소 연구원) ;
  • 박지민 ((주)쓰리디랩스 영상공학연구소 연구원) ;
  • 이수암 ((주)쓰리디랩스 영상공학연구소 연구소장)
  • Lim, Pyung-chae (Director, Image Engineering Research Center, 3DLabs Co., Ltd.) ;
  • Kim, Han-gyeol (Director, Image Engineering Research Center, 3DLabs Co., Ltd.) ;
  • Park, Jimin (Director, Image Engineering Research Center, 3DLabs Co., Ltd.) ;
  • Rhee, Sooahm (Director, Image Engineering Research Center, 3DLabs Co., Ltd.)
  • 투고 : 2020.12.11
  • 심사 : 2020.12.17
  • 발행 : 2020.12.31

초록

무인항공기(UAV: Unmanned Aerial Vehicle)는 저고도 비행으로 인해 고해상도 영상을 취득할 수 있으며, 수시촬영이 가능하여 지도제작에 있어 수시갱신이 가능하다. 이러한 이점으로 인해 무인항공기 영상을 이용한 대축척 수치지도 제작 가능성에 대한 연구가 활발히 진행되고 있다. 정밀한 수치지도는 디지털트윈이나 스마트시티의 기반 데이터로 활용될 수 있다. 정밀한 수치지도를 제작하기 위해서는 지상기준점을 이용한 정밀 센서모델링이 반드시 선행되어야 한다. 본 연구에서는, 자체 개발한 정밀 센서모델링 알고리즘을 통해 무인항공기 영상의 기하모델을 수립하였다. 그리고 수치지도를 제작하여 대축척 수치도화 가능성을 평가하였다. 연구 데이터는 인천 간석동과 서울 여의도를 대상으로 영상 및 지상기준점을 취득하였다. 정밀 센서모델링 정확도 분석 결과, 두 지역에 대해서 체크 점 평균오차 3 픽셀 이내, RMSE 4 픽셀 이내의 높은 정확도를 확인하였다. 수치도화 정확도 분석 결과, 국토지리정보원에서 고시한 1:1,000 세부도화 수평오차(0.4 m) 및 표고오차(0.4 m)를 만족하는 범위의 정확도를 확인하였다. 따라서 본 연구에서 자체개발한 정밀 센서모델링 기술은 무인항공기 영상의 1:1,000 대축척 수치도화 제작 가능성을 시사한다.

UAV (Unmanned Aerial Vehicle) can acquire high-resolution images due to low-altitude flight, and it can be photographed at any time. Therefore, the UAV images can be updated at any time in map production. Due to these advantages, studies on the possibility of producing large-scale digital maps using UAV images are actively being conducted. Precise digital maps can be used as base data for digital twins or smart cites. For producing a precise digital map, precise sensor modeling using GCPs (Ground Control Points) must be preceded. In this study, geometric models of UAV images were established through a precision sensor modeling algorithm developed in house. Then, a digital map by stereo plotting was produced to evaluate the possibility of large-scale digital map. For this study, images and GCPs were acquired for Ganseok-dong, Incheon and Yeouido, Seoul. As a result of precision sensor modeling accuracy analysis, high accuracy was confirmed within 3 pixels of the average error of the checkpoints and 4 pixels of the RMSE was confirmed for the two study regions. As a result of the mapping accuracy analysis, it satisfied the 1:1,000 mapping accuracy announced by the NGII (National Geographic information Institute). Therefore, the precision sensor modeling technology suggested the possibility of producing a 1:1,000 large-scale digital map by UAV images.

키워드

요약

무인항공기(UAV: Unmanned Aerial Vehicle)는 저고도 비행으로 인해 고해상도 영상을 취득할 수 있으며, 수시촬영이 가능하여 지도제작에 있어 수시갱신이 가능하다. 이러한 이점으로 인해 무인항공기 영상을 이용한 대축척 수치지도 제작 가능성에 대한 연구가 활발히 진행되고 있다. 정밀한 수치지도는 디지털트윈이나 스마트시티의 기반 데이터로 활용될 수 있다. 정밀한 수치지도를 제작하기 위해서는 지상기준점을 이용한 정밀센서모델링이 반드시 선행되어야 한다. 본 연구에서는, 자체 개발한 정밀 센서모델링 알고리즘을 통해 무인항공기 영상의 기하모델을 수립하였다. 그리고 수치지도를 제작하여 대축척 수치도화 가능성을 평가하였다. 연구 데이터는 인천 간석동과 서울 여의도를 대상으로 영상 및 지상기준점을 취득하였다. 정밀 센서모델링 정확도 분석 결과, 두 지역에 대해서 체크 점 평균오차 3 픽셀 이내, RMSE 4 픽셀 이내의 높은 정확도를 확인하였다. 수치도화 정확도 분석 결과, 국토지리정보원에서 고시한 1:1,000 세부도화 수평오차(0.4 m) 및 표고오차(0.4 m)를 만족하는 범위의 정확도를 확인하였다. 따라서 본 연구에서 자체개발한 정밀 센서모델링 기술은 무인항공기 영상의 1:1,000 대축척 수치도화 제작 가능성을 시사한다.

1. 서론

무인항공기(UAV: UnmanedAerialVehicle)는 저고도 비행으로 인해 고해상도 영상을 취득할 수 있으며 기존의 위성이나 유인항공기에 비해 운용이 용이하다. 무인 항공기는 수시갱신이 가능한 이점으로 인해 무인항공기를 활용한 대축척 3차원 수치지도 제작 가능성에 대한 수요가 증대되고 있다 (Lee and Kim, 2020; Lim et al., 2019, Lee et al., 2019). 또한 구축된 3차원 수치지도는 최근 뉴딜정책의 일환으로 실 세계를 재현하기 위한 디지털 트윈과 스마트시티의 자율주행, 증강현실, 드론 택시 등 다양한 분야의 기반 데이터로 활용될 수 있다(Kim et al., 2020, Lim et al., 2020). 이러한 기술들은 실 세계를 반영해야 하므로 정밀하고 높은 정확도를 가지는 대축척 수치지도의 생성이 전제되어야 한다. 정밀한 수치지도 제작을 위해서는 촬영된 영상을 실 세계 좌표에 투영되도록 조정하는 정밀 센서모델링이 수립되어야 한다. 만약 센서모델링 오차가 클 경우 영상간의 상대적인 위치오차가 발생하게 되고 Y-시차가 발생하며 입체시를 기반으로 수행하는 수치지도 도화작업에 큰 장애가 되므로 대축척 수치지도 제작이 어렵다(Lim et al., 2019). 또한 무인기항공기의 경우 영상 취득시의 위치/자세 정보가 불안하여 높은 수준의 매핑을 위해서는 지상기준점(GCP :Ground Control Point)의 획득이 함께 되어야 한다.

국내의 무인항공기 영상을 이용한 수치지도 제작 시, 센서모델링은 대부분 외국 상용 소프트웨어(Pix4D, Photoscan등)를 사용하고 있으며 자체 개발한 기술은 찾기가 어려웠다. 지상기준점을 이용한 경우, 상용 소프트웨어의 체크점에 대한 센서 모델링 정확도는 1 ~ 3픽셀로 보고 되었다(Lee et al., 2019; Santise et al., 2014). 본 연구진은 무인항공기를 이용한 활용에 대한 선행 연구로 자체 개발된 센서모델링 기술을 개발하여 무인항공기 영상의 입체 시 및 3차원 수치지도 제작 가능성을 보고하였다(Rhee et al., 2017). 또한 3차원 포인트클라우드 및 DSM을 생성하여 정확도를 분석하는 연구를 수행하였고 (Rhee and Kim, 2011; Rhee and Kim, 2017; Yoon et al., 2019) 스마트시티와 같은 3차원 도시모델 개발을 위한 자동 솔리드 건물모델 제작 가능성에 대해 보고하였다(Kim et al., 2019).본 논문에서는 기존 연구들을 통해 확보된 기술 중 무인항공기 영상 센서모델링 기술의 안정성 및 활용가능성을 위한 연구로, 자체 개발 한 Incremental Bundle Adjustment (IBA) 알고리즘을 적용하여 정밀 센서모델을 수행하고 지상기준점을 이용하여 정확도를 평가하였다. 그리고 IBA를 통해 추정된 표정요소를 이용하여 3차원 수치도화 성과를 구축하였다. 수치도화 정확도를 평가하기 위해 국토지리정보원 국토정보플랫폼에서 제공하는 1:1,000 과 1:5,000 수치지도를 검증데이터로 사용하여 평면 및 표고 오차를 비교 분석하였다.

2. 연구방법 및 데이터

1) 정밀 센서모델링 과정 및 정확도 평가 방법

본 연구에서는 자체 개발한 Incremental Bundle Adjustment(IBA) 알고리즘은 Fig.1과같이 구성된다. 이 알고리즘은 타이포인트 추출, 카메라 캘리브레이션, 센서모델링, 그리고 지상기준점을 이용한 블록 조정 4단계 과정을 거쳐 수치도화의 입력데이터로 사용되는 내부 및 외부 표정 요소를 추정한다.

OGCSBN_2020_v36n6_1_1393_f0001.png 이미지

Fig. 1. Flowchart of UAV precise bundle adjustment.

첫 번째 단계에서는 영상의 픽셀 밝기 값 특성을 이용하여 서로 다른 2장 이상의 영상에서 보이는 동일지점에 대한 타이포인트를 산출한다. 정밀하지 않은 타이포인트는 센서모델링 정확도에 큰 영향을 미치므로 다양한 필터링 기법을 통해 정밀한 타이포인트를 산출하는 것이 중요하다 (Yoon and Kim, 2019). 본 연구에서는 OpenCV에서 제공하는 SURF (Bay et al., 2006) 알고리즘을 적용하여 타이포인트를 산출하였다.

두 번째 단계에서는 카메라 캘리브레이션을 통해 내부표정요소(IOP: Interior Orientation Parameter)를 산출한다. 무인항공기에 탑재되는 카메라는 일반적으로 비측량 카메라이며 매핑에 영향을 주는 정밀한 내부표정요소 정보를 제공해주지 않는다. 내부표정요소에는 카메라의 초점거리, 주점, 렌즈왜곡계수 등이 포함된다. 따라서 영상 왜곡보정을 위해 내부표정요소 추정이 필요하다. 본 연구에서는 사진측량 방식의 비선형 모델로 렌즈왜곡계수를 추정하였다. 세번째 단계에서는 외부표정요소(EOP: Exterior Orientation) 추정하기 위한 IBA를 수행한다. IBA는 먼저 타이포인트가 가장 많은 3장의 Triplet영상을 선별하고 영상간 기하보정을 수립한다. 그리고 기하 보정된 Triplet을 기준영상으로 정의하고 나머지 영상들의 위치 및 자세를 기준영상에 맞도록 조정하는 과정을 반복하여 영상간 기하를 수립한다. 마지막 단계에서는 기하가 수립된 모든 영상을 블록 단위로 지상기준점에 맞춰 영상기하를 조정하는 블록조정을 수행한다. 지상기준점은 GPS 지상 측량을 통해 획득한 기준점을 사용하였다.

정밀 센서모델링 정확도는 수치도화의 정확도에 영향을 미치므로 반드시 정확도 검증이 필요하다(Lim et al., 2019). 정밀 센서모델링 정확도를 평가하기 위해 모델점과 체크점으로 구분된 지상기준점을 사용하였다. 블록조정 수행 시 모델 점을 사용했으며, 정확도 평가는 체크점을 사용하였다. 센서모델링 정확도 측정방법은 체크점(X, Y, Z)을 영상 도메인으로 역 투영시켜, 직접 관측한 영상 GCP와, 투영된 Reprojection GCP의 차이를 계산함으로써 정확도를 평가하였다(Fig. 2).

OGCSBN_2020_v36n6_1_1393_f0002.png 이미지

Fig. 2. Precision bundle adjustment accuracy calculation with GCP. (IOP: InteriorOrientationParameter)

2) 무인항공기 영상 수치도화 평가 방법

3차원 수치도화는 15년이상의 전문 도화사에게 의뢰하여 구축하였으며 정확도는 국토지리정보원 국토정보플랫폼에서 제공하는 1:1,000 및 1: 5,000 수치 지형도 데이터와 비교하여 평가를 수행하였다.(Table1).

Table 1. Verification data downloaded in Geospatial Information Platform for accuracy evaluation

OGCSBN_2020_v36n6_1_1393_t0001.png 이미지

수평위치 정확도는 Table 1의 검증데이터와 3차원 수치도화 성과의 동일한 지점에 대한 수평위치를 비교함으로써 정확도를 측정하였다. 수평위치 정확도를 평가하기 위해 좌표정보를 확인하고 수평 및 표고 정확도를 측정할 수 있는 Autodesk Map6를 사용하였다. 그리고 국토정보플랫폼에서 제공받은 해당지역의 정사영상을 입력하고 수치지형도와 3차원 도화성과의 비교지점을 선정하여 두 점에 대한 수평위치 정확도를 비교하였다. 표고 정확도 검증 방법은 검증데이터의 표고위치를 기준으로 측정하였다. 표고 정확도를 측정하기 위해 수평 위치 정확도 평가와 같은 방식으로 Autodesk Map6에 1:1,000과 1:5,000 수치지도를 입력하여 표고정보를 추출하였다. 그리고 3차원 도화성과의 표고정보를 추출하여 수치지형도 표고정보와 중첩하여 표고 정확도를 비교하였다.

3. 연구 데이터

본 연구는 센서모델링 및 수치도화 정확도 평가를 위해 두 도심지역을 대상으로 5 cm급의 해상도를 가지는 영상 및 지상 기준점을 수집하였다. 사용된 무인항공기는 소형 휴대용으로 개발된 기체이며 각 지역에 대해 짐벌이 장착된 서로 다른 기종의 무인항공기를 사용하여 영상을 수집하였다. 지상 기준점은 현장 측량을 통해 영상이 촬영된 지역 내에 고르게 분포하는 지상 기준점(GCP: Ground Control Point)을 취득하였다.

Case 01은 인천 간석동을 촬영한 데이터이며 129장의 영상을 취득하였다. 기체는 회전익이며 대표적인 무인기 개발회사인 중국의 DJI사의 Inspire2를 사용하였다. 촬영센서는 DJI사에서 자체 제작한 ZenmuseX5S 를 탑재했다. Case 01의 지상 기준점은 총 10개를 취득하였고 모델점 6개, 체크점 4개를 사용하여 평가하였다.

Table 2. Study Area and Equipment specification of Case 01 

OGCSBN_2020_v36n6_1_1393_t0002.png 이미지

OGCSBN_2020_v36n6_1_1393_f0003.png 이미지

Fig. 3. The model check points of the case 01 used to evaluate the sensor modeling accuracy.

Case02는 서울여의도를 촬영한 데이터이며 140장의 영상을 취득하였다. 기체는 회전익이며 국내 무인 항공기 개발회사인 SISTECH사의 K-Mapper를 사용하였고 촬영센서는 Sony사의 ILCE-6000을 탑재하였다. Case 02의 지상기준점은 총16개를 취득하였고 모델점 10개, 체크점 6개를 사용하여 평가하였다.

Table 3. Study Area and Equipment specification of Case 02 

OGCSBN_2020_v36n6_1_1393_t0003.png 이미지

OGCSBN_2020_v36n6_1_1393_f0004.png 이미지

Fig. 4. The model check points of the case 02 used to evaluate the sensor modeling accuracy.

4. 연구 결과

1) 무인기항공기 정밀 센서모델링 정확도 분석 결과

Table 4의 IEA(Initial Exterior Orientation Parameter Accuracy)는 무인항공기의 GPS/IMU센서에서 취득된 초기 외부표정요소이며, AEA(Adjusted Exterior Orientation Parameter Accuracy)는 지상 기준점을 이용한 정밀 센서모델링 과정을 통해 조정된 외부표정요소이다. 센서모델링을 수행하지 않은 IEA의 모델 점 및 체크 점 오차는 수치도화를 하기 어려운 수준의 매우 높은 픽셀 오차를 보여주었다. Case 01의 경우, 모델 점, 체크 점 모두 평균 100 픽셀 이상의 오차를 보여주었다. Case 02의 경우, 평균 50 픽셀 이상의 정확도를 보여주었다. 반면에 정밀 센서모델링을 수행한 AEA의 결과는 낮은 픽셀오차를 보여주었다. Case 01의 모델 점의 평균오차와 RMSE는 각각 5.18, 5.69 픽셀이었다. 그리고 두 데이터 모두 체크 점은 3 픽셀 이내의 오차를 보였다. Case 01의 모델 점의 평균오차와 RMSE의 경우, 체크 점보다 약 2배 정도 큰 오차를 보였다. 상용 소프트웨어의 경우, 모델 점을 기준으로 센서모델링을 수행하기 때문에 일반적으로 모델 점 정확도가 높다. 반면에 IBA의 경우, 모델 공간에서 센서모델링을 수행한 후, 조정된 전체 영상을 하나의 블록영상으로 취급하여 모델 점에 맞춰 실제 좌표계로 옮기기 때문에 모델 점이 체크 점보다 오차가 높게 산출된 것으로 판단된다. Case 02의 모델 점의 평균 오차와 RMSE는 각각 2.89, 3.26 픽셀이며 체크점은 2.90, 3.13 픽셀 오차를 보였다. 체크 점의  평균오차의 경우, Case 01, 02 모두 3 픽셀 이내의 오차를 보였으며, Case 01의 RMSE는 3 픽셀 이내, Case 02 는 3 픽셀에 근사한 오차가 산출되었다.

Table 4. The result of Initial and precise sensor modeling. The EOP means Exterior Orientation Parameter

OGCSBN_2020_v36n6_1_1393_t0004.png 이미지

2) 무인항공기 영상 수치도화 성과 결과

간석동(case1)과 여의도(case2)지역의 무인기 원본영상을 이용한 3차원 수치도화 성과의 구축결과는 Fig. 5와 같다.

OGCSBN_2020_v36n6_1_1393_f0005.png 이미지

Fig. 5. 3D digital map by stereo plotting from UAV images (black dots: horizontal check points; red dots: vertical check points).

Table 5, 6은 Case 01의 1:1,000 수치지형도 평면위치와 본 연구를 위해 제작한 3차원 수치도화 성과의 영상 점 10점에 대한 평면위치 정확도 비교 결과이다. 최대 오차는 0.350 m, 최소 오차는 0.148 m였으며, 평균오차가 0.253 m로 나타나는 것을 확인하였다.

Table 5. The horizontal accuracy comparison result of 1:1,000 digital map and 3D digital map in Case 01

OGCSBN_2020_v36n6_1_1393_t0005.png 이미지

Table 6. Images of Case 01 displayed on Autodesk map6 for horizontal accuracy comparison (unit: m)

OGCSBN_2020_v36n6_1_1393_t0006.png 이미지

Table 7, 8은 영상 점 5점에 대한 표고정확도를 비교한 결과이다. 표고정확도의 최대 오차는 0.333 m, 최소 오차는 0.080 m였으며, 평균오차는 0.208 m가 나타나는 것을 확인하였다.

Table 7. The vertical accuracy comparison result of 1:1,000 digital map and 3D digital map by in Case 01 (unit: m)

OGCSBN_2020_v36n6_1_1393_t0008.png 이미지

Table 8. Images of Case 01 displayed on Autodesk map6 for vertical accuracy comparison

OGCSBN_2020_v36n6_1_1393_t0009.png 이미지

Table 9, 10은 Case 02의 1:1,000 수치지형도 평면위치와 본 연구를 위해 제작한 3차원 수치도화 성과의 영상 점 10점에 대한 평면위치 정확도 비교 결과이다. 최대 오차는 0.339 m, 최소 오차는 0.121 m였으며, 평균오차가 0.244 m로 나타나는 것을 확인하였다. Table 11, 12는 영상 점 3점에 대한 표고정확도를 비교한 결과이다. 표고정확도의 최대 오차는 0.240 m, 최소 오차는 0.010 m였으며, 평균오차는 0.148 m가 나타나는 것을 확인하였다. 해당 정확도는 국토지리정보원 1:1,000 세부도화 수평오차(0.4 m) 및 표고오차(0.3 m)를 만족하는 정확도이다. Case 01, 02의 수치도화 정확도는 국토지리정보1:1,000 세부도화(항공사진측량 작업규정 5장 54조) 최대 수평 오차(0.4 m) 및 표고오차(0.4 m)를 만족하는 범위의 정확도이다.

Table 9. The horizontal accuracy comparison result of 1:1,000 digital map and 3D digital map in Case 02

OGCSBN_2020_v36n6_1_1393_t0010.png 이미지

Table 10. Images of Case 02 displayed on Autodesk map6 for horizontal accuracy comparison (unit: m)

OGCSBN_2020_v36n6_1_1393_t0011.png 이미지

Table 11. The horizontal accuracy comparison result of 1:1,000 digital map and 3D digital map in Case 02

OGCSBN_2020_v36n6_1_1393_t0013.png 이미지

Table 12. Images of Case 02 displayed on Autodesk map6 for vertical accuracy comparison (unit: m)

OGCSBN_2020_v36n6_1_1393_t0014.png 이미지

4. 결론

자체 개발한 IBA 알고리즘을 사용하여 수행한 정밀 센서모델링 결과, 두 연구지역에 대해서 모두 체크 점 정확도 3픽셀 이내의 평균오차를 나타내는 것을 확인하였다. 무인항공기 영상의 GSD는 0.05 m이므로 대략 0.15 m의 오차가 발생하는 것을 예상할 수 있으며 이는 1:1,000 대축척 지도 제작시, 오차범위 내의 정확도이다. 정밀 센서모델링을 통해 추정된 외부표정요소를 사용해 두 대상지역의 3차원 도화를 수행한 후  수행했다. 도화 가능여부를 판단한 결과, Case 01 (간석동)의 평면 평균오차는 0.254 m, Case 02 (여의도)의 평면 평균 오차는 0.244 m가 나타나는 것을 확인하였다.

마찬가지로 두 대상지역의 표고정확도를 확인한 결과, Case 01 (간석동)의 표고평균 오차는 0.208 m, Case 02 (여의도)의 표고평균 오차는 0.148 m로 나타나는 것을 확인하였다. 이는 국토지리정보원에서 고시한 세부도화 묘사오차 최대오차 범위 0.4 m(평면), 0.3 m(표고점) 를 모두 만족하는 결과이다.

따라서 본 정밀 센서모델링 기술을 통해 추정된 외부 표정요소는 무인항공기 영상을 이용한 1:1,000 수치도화 가능성을 시사한다. 하지만 범위 면적이 적은 지역을 대상으로 한 결과이므로, 기준 표고정보가 적었다. 따라서 보다 넓은 지역을 대상으로 연구할 필요가 있다. 향후 더 넓은 지역과 영상을 사용하여 정밀 센서모델링을 수행하고 충분한 표고정보를 취득하여 1:1,000 수치도화 가능성을 분석할 계획이다.

사사

본 연구는 국토교통부 수요처 맞춤형 실감형 3D 공간정보 갱신 및 활용지원 기술개발과제의 연구비지원(20DRMS-B147291-03)에 의해 수행되었습니다.

본 연구를 위해 무인항공기 영상을 촬영해주신 SISTECH와 자료를 제공해주신 한국국토정보공사에 감사드립니다.

참고문헌

  1. Bay, H., T. Tuytelaars, and L. Van Gool, 2016. Surf: Speeded up robust features, European Conference on Computer Vision, 2016: 404-417.
  2. Kim, S. Y., H. H. Lee, E. S. Choi, and J. U. Go, 2020. A Case Study on the Construction of 3D Geospatial Information for Digital Twin Implementation, Journal of the Korean Association of Geographic Information Studies, 23(3): 146-160 (in Korean with English abstract). https://doi.org/10.11108/KAGIS.2020.23.3.146
  3. Kim, H. G., Y. H. Hwang, and S. A. Rhee, 2019. Automatic Building Modeling Method Using Planar Analysis of Point Clouds from Unmanned Aerial Vehicles, Korean Journal of Remote Sensing, 35(6): 973-985 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2019.35.6.1.8
  4. Lee, D. H. and J. H. Kwon, 2019. A study on the possibility of Large Scale 3D numerical mapping using drone images, Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 2019: 84-87 (in Korean with English abstract).
  5. Lee, J. W. and D. P. Kim, 2020. Accuracy Assessment of Feature Collection Method with Unmanned Aerial Vehicle Images Using Stereo Plotting Program Stereo CAD, Journal of the Korean Society of Civil Engineers, 40(2): 257-264 (in Korean with English abstract). https://doi.org/10.12652/Ksce.2020.40.2.0257
  6. Lee, S. B., T. Kim, Y. J. Ahn, and J. O. Lee, 2019. Comparison of Digital Maps Created by Stereo Plotting and Vectorization Based on Images Acquired by Unmanned Aerial Vehicle, Sensors and Materials, 31(11): 3797-3810 https://doi.org/10.18494/SAM.2019.2553
  7. Lim, S. H., K. M. Choi, and G. S. Cho, 2020. A Study on 3D Model Building of Drones-Based Urban Digital Twin, Journal of Cadastre & Land InformatiX, 50(1): 163-180. https://doi.org/10.22640/LXSIRI.2020.50.1.163
  8. Lim, P. C., J. H. Son, and T. Kim, 2019. Development and Comparative Analysis of Mapping Quality Prediction Technology Using Orientation Parameters Processed in UAV Software, Korean Journal of Remote Sensing, 35(6): 895-905 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2019.35.6.1.2
  9. Rhee, S. A., T. Kim, D., Kim, and H. Lee, 2017. Analysis for Stereoscopic Plotting Applicability of UAV Images, Proc. of 2017 International Symposium on Remote Sensing, Nagoya, JAP, May. 17-19, pp. 17-19.
  10. Rhee, S. A. and T. Kim, 2011. Research of Matching Performance Improvement for DEM generation from Multiple Images, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 29(1): 101-109 (in Korean with English abstract). https://doi.org/10.7848/ksgpc.2011.29.1.101
  11. Santise, M., M. Fornari, G. Forlani, and R. Roncella, 2014. Evaluation of DEM generation accuracy from UAS imagery, International Archives of the Photogrammetry, Remote Sensing & Spatial Information Sciences, Proc. of 2014 ISPRS Technical Commission V Symposium, Riva del Garda, ITA, Jun. 23-25, pp. 529-536.
  12. Yoon, S. J. and T. Kim., 2019. Development of Stereo Visual Odometry Based on Photogrammetric Feature Optimization, Remote Sensing, 11(67): 1-17.
  13. Yoon, W. S., H. G. Kim, and S. A. Rhee, 2019. Multi Point Cloud Integration based on Observation Vectors between Stereo Images, Korean Journal of Remote Sensing, 35(5): 727-736 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2019.35.5.1.9