DOI QR코드

DOI QR Code

Feasibility Analysis of Precise Sensor Modelling for KOMPSAT-3A Imagery Using Unified Control Points

통합기준점을 이용한 KOMPSAT-3A 영상의 정밀센서모델링 가능성 분석

  • Yoon, Wansang (Department of Geoinformatic Engineering, Inha University) ;
  • Park, HyeongJun (Department of Geoinformatic Engineering, Inha University) ;
  • Kim, Taejung (Department of Geoinformatic Engineering, Inha University)
  • 윤완상 (인하대학교 공간정보공학과) ;
  • 박형준 (인하대학교 공간정보공학과) ;
  • 김태정 (인하대학교 공간정보공학과)
  • Received : 2018.11.12
  • Accepted : 2018.12.10
  • Published : 2018.12.31

Abstract

In this paper, we analyze the feasibility of establishing a precise sensor model for high-resolution satellite imagery using unified control points. For this purpose, we integrated unified control points and the aerial orthoimages from the national land information map (http://map.ngii.go.kr/ms/map/NlipMap.do) operated by the National Geographic Information Institute (NGII). Then, we collected the image coordinates corresponding to the unified control point's location in the satellite image. The unified control points were used as observation data for establishing a precise sensor model. For the experiment, we compared the results of precise sensor modeling using GNSS survey data and those using unified control points. Our experimental results showed that it is possible to establish a precise sensor model with around 2 m accuracy when using unified control points.

본 논문에서는 국가기준점 자료를 활용한 고해상도 위성영상의 정밀센서모델 수립 가능성에 대하여 분석하였다. 이를 위해 국토지리정보원에서 운영하는 국토정보맵(http://map.ngii.go.kr/ms/map/NlipMap.do)으로부터 통합기준점 조서와 항공정사영상 자료를 이용하여 위성영상에서 통합기준점에 해당하는 영상좌표를 취득한 뒤, 이를 정밀센서모델 수립을 위한 관측자료로 활용하였다. 통합기준점 자료의 활용 가능성 분석을 위해 본 논문에서는 GNSS 측량을 통해 획득한 기준점을 활용한 정밀센서모델링 결과와 통합기준점만을 활용한 정밀센서모델링 결과를 비교하였다. 실험 결과 통합기준점만을 활용하였을 때 약 2 m의 3차원 위치결정이 가능함을 확인하였다.

Keywords

1. 서론

오늘날 고해상도 위성영상은 지구환경 모니터링, 광역·지역적 국토 환경 분석 및 계획, 지도제작 등의 다양한 목적에 사용되고 있다(Lee et al., 2017). 우리나라의 경우 2006년 6월 28일 발사된 KOMPSAT-2(Korea Multi-Purpose Satellite-2)를 통해 1 m 급 위성영상 획득이 가능하게 되었으며, 2012년 5월 18일 발사된 KOMPSAT-3(Korea Multi-Purpose Satellit-3), 2015년 3월 26일 발사된 KOMPSAT-3A(Korea Multi-Purpose Satellite-3A) 위성을 통해 0.7 m, 0.55 m의 보다 향상된 고해상도 영상취득이 가능하게 되었다.

고해상도 위성영상으로부터 제작이 가능한 정사영상,DEM 등 다양한 산출물의 정확도 및 정밀도는 산출물 제작에 사용한 영상의 기하 정확도에 의해 결정된다. 따라서 초기 위성영상에 존재하는 기하학적 오차를 제거하는 과정은 위성영상으로부터 다양한 산출물을 제작하기 위해 반드시 수행되어야 한다.

위성영상의 경우 탑재된 센서들의 기술적 한계로 인하여, 인공위성에서 제공하는 궤도정보 등을 이용하여 수립된 초기 센서모델에 기하학적 오차가 존재하며, 위성영상의 기하 정확도 향상을 위해서는 일반적으로 일정 수의 지상기준점을 사용하여 영상화소의 관측벡터가 영상화소에 대응하는 지상좌표에 잘 부합하도록 영상의 외부표정요소를 조정하는 번들조정을 수행한다. 번들조정은 센서모델의 종류, 요구되는 정확도 수준에 따라 각 영상에 대하여 일정 수의 영상좌표(c, r)와 지상 좌표(X, Y, Z)가 기록된 지상기준점(Ground Control Point)를 필요로 한다.

기존 국내 고해상도 위성영상의 정밀센서모델링 관련 연구들을 살펴보면 Lee et al.(2013)은 KOMPSAT-3 영상의 RFM에 적합한 보정모델 결정을 위해, 6가지 유형의 보정모델 적용 실험을 통해 6개의 계수를 사용하는 affine model 적용 시 가장 높은 정확도를 확보할 수 있음을 보였다. Jeong et al.(2014)는 KOMPSAT-3 영상의 기하 정확도에 대한 분석을 실시하였으며, KOMPSAT-3 스테레오 영상 및 다중 영상으로부터 서브미터급 수평·수직 정확도를 갖는 3차원 위치 좌표 획득이 가능함을 보였다. Erdenebaatar et al.(2017)은 KOMPSAT-3A 영상의 기하 정확도와 영상품질을 동일지역을 촬영한 KOMPSAT-3영상과 비교하였고, 실험을 통해KOMPSAT-3A 영상 스테레오 모델로부터 약 0.9 m의 3차원 위치 결정이 가능함을 보였다.

기존의 연구에서는 지상기준점 수집을 위해 별도의 GNSS(Global Navigation Satellite System) 측량, 지도 독취 등을 주로 이용하였으며, 고정밀 3차원 위치 획득을 위해서는 GNSS 측량을 주로 수행하였다. GNSS 측량 시 위성영상에서식별이 용이한 기점을 선점하는 작업, 현장 답사와 기준점 측량 등의 과정이 필요하며, 이로 인해 기준점 확보에 많은 시간과 경비가 소요되기 때문에 비효율적이며, 이를 대체할 수 있는 방안 연구가 필요하다.

우리나라의 경우 국토지리정보원(NationalGeographic Information Institute, NGII)에서 주기적으로 전국을 대상으로 국가기준점 설치 및 주기적인 보수를 수행하고 있다. 대표적인 국가기준점으로는 삼각점(16,411점), 수준점(7,296점) 통합기준점(4,282점) 등이 있다. 특히 통합기준점의 경우 해당 지점에 대한 평면위치(X,Y)와 높이(Z)를 포함하고 있으며, 삼각점이나 수준점에 비해 크기가 비교적 크고 항공정사영상(0.5 m 공간해상도)에서도 식별이 가능하기 때문에 비슷한 공간해상도를 갖는 KOMPSAT-3A 영상에서도 식별이 가능하다.

따라서 본 연구에서는 지상기준점 확보에 소요되는 시간과 경비를 줄이기 위해, 통합기준점을 활용한 고해상도 위성영상의 정밀센서모델링 가능성을 검증하고자 한다.

2. 연구방법

1) 통합기준점 자료를 이용한 GCP 취득

통합기준점 자료를 이용한 GCP 취득 과정은 Fig. 1과 같다.

OGCSBN_2018_v34n6_1_1089_f0001.png 이미지

Fig. 1. Flowchart of collecting GCPs from the unified control point dataset.

먼저 위성영상 메타데이터에 기록된 영상의 관측 범위에 해당하는 대략적인 평면좌표(X, Y)를 획득한 뒤, GIS tool을 이용하여, 대상지역의 지명 등을 파악한다. 두번째, 국토정보맵에서 영상 관측범위에 해당하는 통합기준점과 정사영상을 검색하여 영상영역에 해당하는 통합기준점의 조서 및 정사영상 자료를 수집한다. 해당 시스템에서는 도엽명, 도엽번호, 지명, 지번을 통한 검색이 가능하다. 세번째 단계로 통합기준점에 기록된 3차원 지상좌표와 위성영상의 센서모델을 이용하여 통합기준점에 대응하는 KOMPSAT-3A 영상좌표를 계산한다. 이 과정은 위성영상 전체에서 기준점을 탐색하지 않고, 계산된 초기 영상좌표를 중심으로 위성영상의 알려진 초기 센서모델 정확도 범위 내에서만 탐색하기 위해서 수행된다. 본 연구에 사용한 KOMPSAT-3A 영상초기 센서모델의 정확도는 약 30화소 내외로 보고된 바 있다(Oh et al., 2016; Erdenebaatar et al., 2017).

마지막 단계로 이전 과정에서 계산된 초기 영상좌표(ci, ri)와 항공 정사영상상에 나타나는 기준점 위치 판독 및 비교를 통해, 위성영상 상에서 식별이 가능한 기준점만을 GCP로 결정한다. 통합기준점의 경우 그 크기(0.7 m×0.7 m, 1.5 m×1.5 m)가 다른 국가기준점에 비하여 상대적으로 크나 위성영상의 촬영조건 및 기준점 주변 환경요소(인접한 지역에 위치한 수목 등에 의해 식별이 불가능한 경우가 발생할 수 있고 이와 같은 점들은영상 기준점에서 제외되어야 한다. Fig. 2와 Fig. 3은 각각 본 연구에 사용한 KOMPSAT-3A 영상에서 통합기준점 식별이 가능한 경우와 그렇지 않은 경우의 예를 보여준다.

OGCSBN_2018_v34n6_1_1089_f0002.png 이미지

Fig. 2. Example of when the image point could be observed, (a) Pan-sharpened KOMPSAT-3A image, (b) aerial ortho-image, (c) enlarged image of (a), (d) enlarged image of (b).

OGCSBN_2018_v34n6_1_1089_f0003.png 이미지

Fig. 3. Example of when the image point couldn’t be observed, (a) Pan-sharpened KOMPSAT-3A image, (b) aerial ortho-image, (c) enlarged image of (a), (d) enlarged image of (b).

2) 현지측량을 통한 GCP 취득

본 연구에서는 통합기준점 자료를 이용한 정밀 센서 모델 수립 정확도와의 비교·검증을 위해, 연구 지역에 대한 지상기준점 측량 계획을 수립하고 현지측량을 진행하였다.

이를 위해 먼저 실험 영상에서 식별이 용이한 지점을 우선적으로 선정하여 총 21개의 기준점을 선점하였다. 다음으로 다음 지도(http://map.daum.net)를 이용하여 해당 지점의 주소를 파악하고, 현지에서 기준점 위치를 찾기 위한 참조자료로 활용하기 위해 해당 지점의 항공 영상과 로드 뷰(road-view) 영상를 수집하였다.

선정된 기준점에 대한 3차원 지상좌표 취득을 위해 2018년 9월 18일~19일 1박 2일 간 현지측량을 실시하였으며, VRS-RTK(Virtual Reference Station-Real Time Kinematic) 방식의GNSS(GlobalNavigation Satellite System) 측량을 통해 수평 0.6 cm, 수직 1 cm 정확도로 21개 점에 3차원 지상좌표를 수집하였다.

3) 센서모델링

본 실험에 사용한 센서모델은 RFM(Rational Function Model)을 사용하였다. 정밀센서모델을 수립하기 위한 관측식은 다음 (1)와 같으며, 최소제곱법과 반복계산을 통해 RFM 보정 모델의 계수들을 산출한다(Grodecki and Dial, 2003).

\(\begin{array}{l} c_{k}=\Delta c+\bar{c}_{k}+v_{c} \\ r_{k}=\Delta c+\bar{r}_{k}+v_{r} \end{array}\)       (1)

여기서 ck, rk는 k번째 기준점의 column, row 좌표이며, Δc, Δc는 RFM의 column, row 방향으로의 모델 보정치이다. ck과 rk는 RFM과 k번째 기준점의 지상좌표로 산출된 영상좌표를 나타내며, vc, vr는 각 column, row 방향으로의 잔차를 나타낸다.

RFM의 경우 센서모델의 계수로 사용되는 위성의 위치 및 자세를 직접 갱신하는 물리적센서모델(Physical Sensor Model)과는 다르게 RFM의 모델계수인 RPC(Rational Polynomial Coefficient)를 직접 갱신하지 않고 초기 RFM에 다항식으로 구성된 보정모델을 더함으로써 초기 센서모델을 보정한다. 이와 같은 방식을 사용하는 가장 큰 이유는 모델계수를 직접 갱신하는 경우 최소 39개의 지상기준점을 필요로 하기 때문이다.

RFM 보정모델은 가용한 기준점의 수량과 보정식 구성에 따라, 각 축방향으로의 이동량(offset)만을 보정하는 2계수 방식, 1차다항식 등 다양한 방식이 존재하나 본 연구에서는 KOMPSAT-3 및 KOMPSAT-3A 영상을 사용한 선행 연구를 바탕으로 아래 수식과 같이 affine model 형태의 1차 다항식 모델을 사용하였다(Lee et al., 2013; Jeong and Kim, 2014; Oh et al., 2016; Erdenebaatar et al., 2017; Yoon and Kim, 2018).

\(\begin{array}{l} \Delta r=a_{0}+a_{r} \cdot r_{k}+a_{c} \cdot c_{k} \\ \Delta c=b_{0}+b_{r} \cdot r_{k}+b_{c} \cdot c_{k} \end{array}\)       (2)

위의 수식에서 a0는 위성의 진행 방향 오차, pitch 회전의 자세오차, 주점과 센서 위치의 row 방향오차를 포함하며, b0는 위성의 진행 수직방향 오차, roll 회전의 자세오차, column 방향으로 발생하는 주점 및 센서 위치 오차를 포함한다. ac, bc는 방사방향의 오차 및 초점거리와 렌즈왜곡과 같은 내부표정오차를 포함하며, ar과 br는 영상촬영 시 발생하는 gyro drift를 포함한다.

3. 실험자료 및 방법

1) 실험자료

본 논문에서는 통합기준점을 활용한 KOMPSAT-3A영상의 정밀센서모델링 가능성 분석을 위해 전라북도 정읍시 일대를 촬영한 4장의 KOMPSAT-3A 영상을 사용하였다. Fig. 4와 Table 1에는 실험에 사용한 영상과 그속성을 각각 나타낸다. Table 1에서 확인할 수 있듯이 KOMPSAT-3 영상의 경우 along-track, across-track 방향으로 약 0.60.7 m 정도의 서브 미터급 공간해상도를 제공하는 것을 확인할 수 있다.

OGCSBN_2018_v34n6_1_1089_f0004.png 이미지

Fig. 4. KOMPSAT-3A images used in this study, (a) Scene-1, (b) Scene-2, (c) Scene-3, (d) scene-4.

Table 1. The properties of KOMPSAT-3A images

OGCSBN_2018_v34n6_1_1089_t0001.png 이미지

본 논문에서는 통합기준점을 활용한 정밀센서모델링 가능성 분석을 위해 실험영역 내의 기준점을 취득하였다. 기준점은 단일영상의 위치 정확도와 스테레오 영상 모델의 3차원 정확도를 평가하기 위해 스테레오 영상 간 중복되는 영역에 해당하는 기준점을 사용하였다. 실험을 위해 영상영역에 해당하는 총 33개의 기준점을 취득하였으며, 취득된 기준점의 분포는 Fig. 5와 같다. 그림에 나타난 기준점 중 Model Point(12개)와 Check Point(9개)는 현지측량을 통해 취득된 점들이며, Unified Control Point(12개)는 국토정보맵을 통해 수집한 통합기준점과 항공정사영상 이용하여 영상 판독을 통해 획득된 점들이다.

OGCSBN_2018_v34n6_1_1089_f0005.png 이미지

Fig. 5. Image and GCPs distribution.

2) 실험방법

통합기준점을 활용한 정밀센서모델링 가능성 분석을 위해 본 연구에서는 3가지 실험을 진행하였다. 먼저 GNSS측량으로 획득한 21개의 기준점을 사용하여KOMPSAT-3A 영상의 초기 센서모델 정확도를 확인하였다. 다음으로 통합기준점을 이용한 정밀센서모델링 정확도와의 비교를 위해, 현지측량을 통해 획득한 21개 기준점 중 Scene-1과 Scene-3, Scene-2와 Scene-4에 해당하는 각각 6개의 모델점(Model Point)을 이용하여 정밀센서모델을 수립하고, 이외의 점들을 검사점(Check Point)으로하여 모델점과 검사점에 대한 정확도를 산출하였다. 사용된 검사점의 수는 Scene-1과 Scene-3의 경우 5개, Scene-2와 Scene-4의 경우 4개를 사용하였다. 마지막으로 Scene-1과 Scene-3, Scene-2와 Scene-4에 해당하는 각각 6개의 통합기준점을 이용하여 정밀센서모델을 수립하고 그 정확도를 평가하였다.

4. KOMPSAT-3A 영상 기하정확도 분석

1) 초기센서모델 정확도 분석

KOMPSAT-3A 영상의 초기 위치 정확도에 대해 분석을 위해, 센서에서 제공하는 RPC 파일만을 이용하여 초기센서모델을 수립하고 위치 오차를 분석하였다. 초기센서모델 수립의 경우 모델 수립을 위해 기준점을 필요로 하지 않기 때문에 GNSS측량을 통해 취득한 기준점 모두를 센서모델 정확도 평가를 위한 검사점으로 활하였다. 사용된 검사점의 수는 영상별로 Scene-1과 Scene-3은 11점, Scene-2와 3은 10점을 사용하였다.

Table 2은 초기센서모델이 수립된 KOMPSAT-A 영상들의 영상좌표 오차의 크기를 정량적으로 나타낸 것이다. 영상공간에서 발생한 오차의 방향은 row 축을 기준으로 오차벡터까지 시계방향으로 잰 각을 도(°) 단위로 측정하였으며, Table 3에 각 영상별로 오차 방향의 평균과 표준편차를 정량적으로 나타냈다. Fig. 6의 경우 오차의 패턴을 식별하기 위해 영상 면적에 대비하여 오차를 확대하여 나타냈다. 실험결과 KOMPSAT-3A 센서에서 제공하는 초기 위치 정확도를 확인해 보면 alongtrack 방향에 비해 cross-track 방향으로 오차가 크게 산출된 것을 확인할 수 있다. 이는 초기 센서모델 산출에 사용된 위성의 위치 및 자세 중 진행방향에 수직한 방향으로의 위성의 위치와 roll 회전에 상대적으로 오차가 많이 포함되어 cross-track 방향 오차가 크게 발생된 것으로 생각된다. 스테레오 조합 중 왼쪽 영상에 해당하는 Scene-1과 Scene-2에서 약 30화소(20 m)의 오차가 발생하였으며, 스테레오 조합에서 오른쪽 영상에 해당하는 Scene-3과 Scene-4에서 15화소(10 m)의 오차가 발생하여 스테레오 조합 중 오른쪽에 해당하는 영상들의 초기 센서모델 정확도가 상대적으로 높게 나타난 것을 확인할 수 있다. 오차벡터 방향의 경우, 3~9°의 편차가 나타나 각 영상에서 발생하는 오차의 방향이 유사함을 확인할 수 있었다. Scene-1과 Scene-2에서 발생한 오차의 방향을 비교할 때, 두 영상 모두 같은 궤도에서 연속 촬영된 경우임에도 불구하고 방향이 상이한 것을 알 수 있다.

Table 2. Accuracy of the initial sensor model in imagespace

OGCSBN_2018_v34n6_1_1089_t0003.png 이미지

Table 3. Direction of the error vectors in the image-space

OGCSBN_2018_v34n6_1_1089_t0004.png 이미지

OGCSBN_2018_v34n6_1_1089_f0006.png 이미지

Fig. 6. Visualization of the initial sensor model error in image-space, (a) Scene-1, (b) Scene-2, (c) Scene-3, (d) Scene-4.

이번에는 KOMPSAT-3A 영상의 초기 센서모델로부터 산출된 3차원 위치의 정확도를 분석하였다. 4장의 KOMPSAT-3 영상 중 각각 2장의 영상을 이용하여 스테레오 모델을 수립하고 3차원 위치를 산출하였다. 산출된 결과는 기준점의 실제 지상좌표와 비교하여 RMSE(Root Mean Square Error)로 산출하였으며 이를 Table 4에 나타냈다. Scene-1와 Scene-3 스테레오 모델의 경우 X 방향으로 15 m, Y 방향으로 2 m, Z 방향으로 약 7 m 정도의 오차를 가지고 3차원 위치가결정됨을 확인할 수 있었고, Scene-2와 Scene-4 스테레오 조합의 경우 X 방향으로 11 m, Y방향으로 5 m, Z방향으로 3 m의 3차원 위치결정이 가능함을 확인하였다. Scene-2와 Scee-4 스테레오 조합이 Scene-1과 Scene-3 조합보다 보다 정확한 3차원 위치 결정이 가능함을 확인하였다. 이는 Scene-2와 Scene-4의 초기 센서모델에 포함된 오차가 상대적으로 적기 때문인 것으로 판단된다.

Table 4. 3D geo-positioning accuracy of the initial sensor model

OGCSBN_2018_v34n6_1_1089_t0006.png 이미지

2) GNSS 측량 데이터를 이용한 정밀센서모델링 정확도 분석

이번에는 GNSS 측량을 통해 획득한 기준점을 활용하여 정밀 기하 수립된 KOMPSAT-3A 영상의 위치 정확도에 대해 분석하였다. 영상별로 각 6개의 모델점을 이용하여 정밀센서모델을 수립하였고, 모델 수립에 사용하지 않은 기준점을 검사점을 사용하여 수립된 정밀센서모델의 정확도를 평가하였다. 영상별로 사용된 검사점의 수는 Scene-1과 Scene-3의 경우 5개, Scene-2와 Scene-4의 경우 4개를 사용하였다.

Table 5에는 기준점의 3차원 지상좌표를 기하보정된KOMPSAT-3A 영상 내의 좌표를 투영하였을 때 산출된 픽셀 오차를 RMSE로 나타냈으며, 이중 검사점에 대한 오차를 Fig. 5에 도식화하였다. Table 6은 각 영상에서 발생한 오차의 방향에 대한 평균과 표준 편차이다. 결과를 살펴보면 정밀 기하보정된 KOMPSAT-3A 영상의 경우 column 방향으로 0.7~1.2 화소(0.5~0.84 m), row 방향으로 1.2~1.7화소(0.84~1.2 m) 오차가 발생하여, row 방향에 대한 오차가 상대적으로 크게 나타났다. 개별 검사점에 대한 오차의 크기와 방향을 살펴보면 Fig. 7에 나타난 것과 같이 초기센서모델에서 유사한 크기와 방향으로 발생하던 오차가 모델 보정 후에 불규칙한 방향과 크기로 발생하여, 초기 센서모델에 존재하던 체계적 오차가 제거된 것을 확인할 수 있다.

Table 5. Image-space accuracy of the geo-corrected KOMPSAT-3A images

OGCSBN_2018_v34n6_1_1089_t0005.png 이미지

Table 6. Direction of the error vectors in image-space after geo-correction

OGCSBN_2018_v34n6_1_1089_t0007.png 이미지

OGCSBN_2018_v34n6_1_1089_f0007.png 이미지

Fig. 7. Visualization of the geo-corrected sensor model error in image-space, (a) Scene-1, (b) Scene-2, (c) Scene-3, (d) Scene-4.

Table 7는 기하보정된 KOMPSAT-3A 영상으로 구성된 스테레오 모델들로부터 산출된 3차원 위치 정확도를 나타낸다 3차원 위치 오차는 Scene-1과 Scene-3 스테레오 조합에서 X 방향으로 0.6 m, Y 방향으로 약 0.7 m, Z 방향으로 1.1m 발생하였고, Scene-2와 Scene-4의 경우에도 X방향으로 0.5 m, Y방향으 1.2 m, Z방향으로 0.7m의 위치 오차가 발생하여 Scene-1과 Scene-3 스테레오 조합과 유사한 정확도를 갖음을 확인할 수 있었다.

Table 7. 3D geo-positioning accuracy of the geo-corrected KOMPSAT-3A images

OGCSBN_2018_v34n6_1_1089_t0008.png 이미지

GNSS 측량 데이터를 이용한 정밀센서모델링 결과와 초기 센서모델 정확도를 비교하였을 때 Scene-1과 Scene-3 스테레오 조합의 경우, 수평방향으로 약 15 m의 오차가 감소하였고, 수직방향으로 6 m정도의 오차 감소를 보였다. Scene-2와 Scene-4 조합의 경우 수평 방향으로 11 m, 수직방향으로 3 m의 오차감소를 보여, 6개의 모델점을 사용한 정밀센서모델링 결과 Scene-1과 Scene-3스테레오 조합에서 상대적으로 더 큰 오차 감소를 보임을 확인하였다.

3) 통합기준점 자료를 활용한 정밀센서모델링 결과 분석

이번에는 통합기준점을 이용하여 정밀 기하보정된KOMPSAT-3A 영상의 위치 정확도에 대해 분석하였다. 정밀센서모델 수립을 위해 영상당 각 6개의 통합기준점을 모델점으로 사용하였으며, 모델점 이외의 점들을 검사점으로 정밀 기하보정된 KOMPSAT-3A 영상의 모델 정확도를 평가하였다. Table 8과 Table 9는 영상공간에서 발생한 오차의 크기와 방향을 나타낸 것이며, Fig 8에 오차의 패턴을 식별하기 위해 개별 검사점에 대한 오차벡터를 나타냈다. Table 10은 스테레오 모델로부터 계산된 3차원 위치오차를 정량적으로 나타냈다. 먼저 영상공간에서의 오차를 살펴보면 통합기준점을 사용한 정밀 센서모델링 결과 column 방향으로 1.7 화소(1.2m), row 방향으로 평균 1.8화소(1.3 m)의 오차가 발생하여 영상 공간에서 약 2화소(1.4 m)의 오차가 발생하는 것을 확인하였다. 개별 검사점에 대한 오차는 Fig. 8에 나타난 것과 같이 검사점의 위치에 따라 발생하는 오차의 크기와 방향이 상이함을 확인할 수 있었다.

Table 8. Image space accuracy of the geo-corrected KOMPSAT-3A images using unified control points

OGCSBN_2018_v34n6_1_1089_t0010.png 이미지

Table 9. Direction of error vectors in image-space after geo-correction using unified control points

OGCSBN_2018_v34n6_1_1089_t0011.png 이미지

OGCSBN_2018_v34n6_1_1089_f0008.png 이미지

Fig. 8. Visualization of image space errors of geo-corrected KOMPSAT-3 images using unified control points, (a) Scene-1, (b) Scene-2, (c) Scene-3, (d) Scene-4.

Table 10. 3D positioning accracy of geo-corrected KOMPSAT-3A images using unified control points

OGCSBN_2018_v34n6_1_1089_t0012.png 이미지

스테레오 모델로부터 측정된 3차원 위치 오차의 경우, Table 10에 나타난 것과 같이 Scene-1과 Scene-3 조합에서 X 방향으로 0.8 m, Y방향으로 약 1.4 m, Z방향으로 1.8 m의 위치오차가 발생하였고, Scene-2와 Scene-4의 경우 X 방향으로 0.7m, Y방향으로 약 1.5 m, Z방향으로 1 m 정도로 Scene-1과 Scene-3 조합보다 상대적으로 정밀한 3차원 위치결정이 가능하였다.

앞선 4.2절의 실험결과와 본 실험의 결과를 비교해보면 측량성과를 이용한 경우 영상 내에서 1화소(0.7 m) 정도의 오차를 가지는 것이 확인하였으며, 1 m 정도의 3차원 위치결정이 가능하였다. 통합기준점을 사용한 경우에도 GNSS 측량성과를 사용한 경우보다는 떨어지지만 영상 내에서 약 2 화소(1.4 m), 3차원 공간상에서 2 m 정도 오차를 갖고 위치결정이 가능함을 확인할 수 있었다. 이와 같은 결과가 나타난 주요 원인은 측정된 영상좌표에 상대적으로 오차가 많이 포함되어 있기 때문으로 판단되며 보다 정밀한 영상좌표 취득이 가능한 경우 정확도 향상이 가능할 것으로 예상된다.

본 실험 결과를 통해 1 m 이하의 정밀한 위치결정이 요구되지 않는 경우, 통합기준점을 활용한 정밀 센서모델 수립을 통해, GNSS측량을 통해 기준점 수집 시 발생하는 시간과 비용을 최소화할 수 있을 것으로 판단된다.

5. 결론

본 논문에서는 통합기준점을 활용KOMPSAT-3A 영상의 정밀센서모델링 가능성 검증을 수행하였다. 이를 위해 먼저 GNSS 현지측량을 통해 획득한 기준점을 이용하여 센서모델링을 수행하고 그 결과를 통합기준점을 사용한 모델링 결과와 비교하였다.

실험 결과 6개의 측량성과를 사용한 경우, 영상공간에서 1화소(0.7 m) 내외의 오차가 발생하였고, 정밀 기하보정된 KOMPSAT-3A 영상들로부터 약 1 m의 3차원 위치결정이 가능하였다. 또한 영상당 6개의 통합기준점을 사용한 모델링 결과 영상공간에서 약 2화소(1.4 m) 정도의 오차가 발생한 것을 확인하였으며, 스테레오 모델로부터 2~2.4 m의 3차원 위치결정이 가능하였다. 통합기준점을 사용하는 경우 상대적으로 정확도가 낮게 나타나는 주요 원인은 측정된 영상좌표에 상대적으로 오차가 많이 포함되어 있기 때문으로 판단되며 보다 정밀한 영상좌표 취득이 가능한 경우 정확도 향상이 가능할 것으로 예상된다.

추가로 본 연구에서 동일한 수량의 모델점을 사용하여 정밀센서모델링을 수행한 결과 스테레오 모델 간 정확도 차이가 발생하였다. 이는 Scene-2와 Scene-4의 초기모델 정확도가 Scene-1과 Scene-3에 비하여 상대적으로 높고, 모델점 배치가 보다 영상에 고르게 분포하기 때문인 것으로 생각되며, 향후 연구에서 모델점 배치에 따른 정확도 분석이 필요하다.

본 연구에서는 수동 독취를 통해 통합기준점에 대응하는 영상점을 측정하였다. 이와 같은 방식은 직접 현장측량을 하는 경우에 비하여 효율적이나, 여전히 사용자의 영상 판독이 필요하다. 따라서 향후 연구에서는 영상정합에 기반한 기준점 자동 추출 기술을 개발하고, 자동으로 추출된 기준점을 이용하여 정밀센서모델을 수립하고 그 결과에 대한 분석을 수행할 예정이다.

사사

본 연구는 국토교통부 위성정보 활용센터 설립 운영사업(과제명: 국토위성정보 수집 및 활용기술개발)의 연구비지원(과제번호: 18SIUE-B148326-01)에 의해 수행되었습니다.

References

  1. Erdenebaatar, N., J. Kim, and T. Kim, 2017. Analysis of geometric and spatial image quality of KOMPSAT-3A imagery in comparison with KOMPSAT-3 imagery, Korean Journal of Remote Sensing, 33(1): 1-13. https://doi.org/10.7780/kjrs.2017.33.1.1
  2. Grodecki, J. and G. Dial, 2003. Block adjustment of highresolution satellite images described by rational polynomials, Photogrammetric Engineering and Remote Sensing, 69(1): 59-68. https://doi.org/10.14358/PERS.69.1.59
  3. Jeong, J. and T. Kim, 2014. Analysis of dual-sensor stereo geometry and its positioning accuracy, Photogrammetric Engineering and Remote Sensing, 80(7): 653-662. https://doi.org/10.14358/PERS.80.7.653
  4. Kakao Corp., 2018. Daum map, http://map.daum.net, Accessed on Nov. 3, 2018.
  5. Lee, H., D. Seo, K. Ahn, and D. Jeong, 2013. Positioning Accuracy Analysis of KOMPSAT-3 Satellite Imagery by RPC Adjustment, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 31(6-1): 503-509 (in Korean with English abstract). https://doi.org/10.7848/ksgpc.2013.31.6-1.503
  6. Lee, K., Y. Kim, and H. Choi, 2017. KOMPSAT Image Processing and Applications, Korean Journal of Remote Sensing, 33(6-3): 1171-1177 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2017.33.6.3.1
  7. National Geographic Information Institute(NGII), 2015. National land information map, http://map.ngii.go.kr/ms/map/NlipMap.do, Accessed on Nov. 9, 2018.
  8. National Geographic Information Institute (NGII), 2016. National spatial information by means of statistics, National Geographic Information Institute, Suwon, Korea, pp. 6-14 (in Korean).
  9. Oh, J., D. Seo, and C. Lee, 2016. A Test Result on the Positional Accuracy of Kompsat-3A Beta Test Images, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 34(2): 133-142. https://doi.org/10.7848/KSGPC.2016.34.2.133
  10. Yoon, W. and T. Kim, 2018. Bundle adjustment of KOMPSAT-3A strip based on rational function model, Korean Journal of Remote Sensing, 34(3): 565-578 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2018.34.3.11