DOI QR코드

DOI QR Code

Analysis of Geolocation Accuracy of Precision Image Processing System developed for CAS-500

국토관측위성용 정밀영상생성시스템의 위치정확도 분석

  • Lee, Yoojin (Master Student, Program in Smart City Engineering, Inha University) ;
  • Park, Hyeongjun (Master Student, Program in Smart City Engineering, Inha University) ;
  • Kim, Hye-Sung (Undergraduate Student, Department of Geoinformatic Engineering, Inha University) ;
  • Kim, Taejung (Professor, Department of Geoinformatic Engineering, Inha University)
  • 이유진 (인하대학교 스마트시티공학전공 석사과정생) ;
  • 박형준 (인하대학교 스마트시티공학전공 석사과정생) ;
  • 김혜성 (인하대학교 공간정보공학과 학부과정생) ;
  • 김태정 (인하대학교 공간정보공학과 정교수)
  • Received : 2020.10.13
  • Accepted : 2020.10.26
  • Published : 2020.10.31

Abstract

This paper reports on the analysis of the location accuracy of a precision image generation system manufactured for CAS 500. The planned launch date of the CAS 500 is 2021, and since it has not yet been launched, the analysis was performed using KOMPSAT-3A satellite images having similar specifications to the CAS 500. In this paper, we have checked the geolocation accuracy of initial sensor model, the model point geolocation accuracy of the precise sensor model, the geolocation accuracy of the precise sensor model using the check point, and the geolocation accuracy of the precise orthoimage using 30 images of the Korean Peninsula. In this study, the target geolocation accuracy is to have an RMSE within 2 pixels when an accurate ground control point is secured. As a result, it was confirmed that the geolocation accuracy of the precision sensor model using the checkpoint was about 1.85 pixels in South Korea and about 2.04 pixels in North Korea, and the geolocation accuracy of the precise orthoimage was about 1.15 m in South Korea and about 3.23 m in North Korea. Overall, it was confirmed that the accuracy of North Korea was low compared to that of South Korea, and this was confirmed to have affected the measured accuracy because the GCP (Ground Control Point) quality of the North Korea images was poor compared to that of South Korea. In addition, it was confirmed that the accuracy of the precision orthoimage was slightly lower than that of precision sensor medel, especially in North Korea. It was judged that this occurred from the error of the DTM (Digital Terrain Model) used for orthogonal correction. In addition to the causes suggested by this paper, additional studies should be conducted on factors that may affect the position accuracy.

본 논문은 국토관측위성용으로 제작된 정밀영상생성시스템의 위치정확도 분석에 대해서 보고한다. 국토관측위성의 발사 예정 시기는 2021년으로, 아직 발사되지 않아 국토관측위성과 유사한 사양을 가지는 KOMPSAT-3A 위성영상을 활용하여 분석하였다. 본 논문에서는 한반도를 촬영한 30장의 영상을 이용하여 초기센서모델의 위치정확도, 정밀센서모델의 모델점 위치정확도, 검사점을 활용한 정밀센서모델의 위치정확도, 정밀정사영상의 위치정확도에 대한 측정을 수행하였다. 본 연구는 정확한 GCP 확보 시 2 pixel 이내의 RMSE를 갖는 것을 목표 위치정확도로 한다. 그 결과, 검사점을 활용한 정밀센서모델의 위치정확도는 남한에서 약 1.85 pixel, 북한에서 약 2.04 pixel의 위치정확도를 갖는 것을 확인하였으며, 정밀정사영상의 위치정확도는 남한에서 약 1.15 m, 북한에서 약 3.23 m의 위치정확도를 갖는 것을 확인 할 수 있었다. 전반적으로 남한의 정확도에 비해 북한의 정확도가 낮은 것을 확인 할 수 있었으며, 이는 북한지역 영상의 GCP(Ground Control Point) 품질이 남한의 GCP 품질에 비해 좋지 않았기 때문에 측정된 정확도에 영향을 준 것으로 확인되었다. 또한, 특히 북한지역에서 정밀센서모델 대비 정밀정사영상의 정확도가 다소 떨어지는 것을 확인할 수 있었다. 이는 북한 영상의 정사보정 시 사용한 DTM의 정확도가 남한에 비해 좋지 않아 발생한 것으로 판단하였다. 향후 본 연구진이 제시한 원인 외, 위치정확도에 영향을 줄 수 있는 요인들에 대한 추가적인 연구가 이루어져야 할 것이다.

Keywords

1. 서론

2021년에 발사될 국토관측위성은 공공분야의 위성 수요에 효과적으로 대응할 수 있도록 하기 위해 탑재체·핵심부품 등의 다양한 요구조건들을 수용 가능한 500 kg급 중형위성 표준플랫폼을 갖추고 있으며, 향후 이어질 국토관측위성 시리즈에도 적용되어 다양한 분야에서의 활용이 기대되고 있다(Han et al., 2017; Han et al., 2018). 또한, 국토관측위성은 panchromatic 밴드에서 50 cm, multispectral 밴드에서 2 m의 GSD를 가져 고해상도 위성영상의 공급이 가능하다.

위성영상의 활용을 위해서 위성영상의 기하보정 정확도의 중요성이 부각되어 왔다(Han., 2013; Jeong., 2015). 특히, 고해상도 자료 획득이 가능한 인공위성이 다양해짐에 따라 위성영상 별로 취득한 영상에 따른 위치정확도 분석과 위치정확도 개선방식이 연구되어 왔다. KOMPSAT-1에서 획득한 EOC 영상의 위치정확도를 1 pixel 이내(공간상 약 4~6 m)로 개선할 수 있음을 확인한 바 있고(Im et al., 2002), KOMPSAT-2 위성영상과 비교한 KOMPSAT-3 위성영상의 기하정확도 분석(Jeong, et al.,2014), KOMPSAT-3 위성영상과 비교한 KOMPSAT-3A 위성영상의 기하정확도 분석(Nyamjargal et al., 2017)이 수행된 바 있다. KOMPSAT 시리즈 외에 QuickBird(Noguchi et al., 2004), SPOT-5(Büyüksalih et al., 2005), IKONOS(Dial et al., 2003), GeoEye-1과 WorldView-2(Aguilar et al., 2014) 등 다양한 위성영상에 대한 기하정확도 개선 연구가 이루어져 왔다.

본 논문에서는 국토관측위성영상의 기하정확도를 개선하고 정밀정사영상을 생성하기 위해 개발된 국토 관측위성용 정밀영상생성시스템에 대해서 보고하고자 한다. 특히 본 논문에서는 상기 시스템을 통해서 생산한 정밀영상의 위치정확도를 분석한다. 상기 시스템의 구성 및 개발과 관련된 사항은 별도의 문헌으로 상세히 보고하고자 한다. 본 논문작성 시점에서 국토관측위성이 아직 발사되기 이전이므로 위치정확도 분석은 국토 관측위성과 유사한 사양을 가진 다목적실용위성 3A호(KOMPSAT-3A)의 위성영상을 활용하여 진행한다. 본 연구를 통해 국토관측위성 발사 이후에 생산되는 정밀 정사영상 산출물의 정확도를 간접적으로 예측할 수 있을 것으로 기대한다.

먼저, KOMPSAT-3A 위성영상의 정밀정사영상을 제작하기 위해 센서모델 수립이 필요하다. 본 논문에서는 센서모델 수립을 위해 Grodecki and Dial(2003)가 제안한 Rational Function Model(RFM)을 사용하여 KOMPSAT-3A의 영상좌표와 지상좌표 사이의 관계를 정의하였다. 다음으로, 초기 Rational Polynominal Coefficients(RPCs)를 이용하여 초기 센서모델을 수립한 뒤 정확도에 대해 분석하였다. 이어서, GCP 칩 매칭을 통해 자동으로 취득한 기준점을 수동으로 정밀하게 보정한 뒤, 정밀 센서모델을 수립하고 정확도에 대해 분석하였다. 초기 RPC를 업데이트하기 위해 다음 수식과 같이 affine model 형태의 1차 다항식 모델을 사용하였다(Jeong and Kim, 2014).

Δp = a0 + ac ·Column + ar ·Row       (1)

Δr = b0 + bc ·Column + br ·Row       (2)

이때 Δp과 Δr는 각각 Column, Row방향으로 조정된 값을 나타내며, a0, ac, ar, b0, bc, br은 최소제곱법의 반복 계산을 통해 추정되는 조정 파라미터를 나타낸다. 마지막으로, 검증영상(항공정사영상, CIB 영상)을 기준으로 검사점을 취득하여 정밀정사영상이 갖는 정확도에 대해 분석하였다.

2. 실험자료

본 논문에서는 정밀영상 및 정밀정사영상의 생성을 위해 남한 23,142점, 북한 25,205점과 접경지역 1,539점의 국토관측위성용 GCP 칩을 사용하였다. 국토관측위 성용 정밀영상 생성 시스템에서 GCP 칩 제작 시 검증 영상(CIB)의 수평 정확도와, 고도 자료의 정확도에 의해 GCP 칩의 품질이 결정되며, 이는 GCP 칩 매칭 후 제작된 GCP의 품질에도 영향을 미쳐 센서모델 및 산출물의 정확도에 영향을 준다. 본 논문에서 실험에 사용된 GCP 칩은 Table 1과 같은 사양을 갖는다.

Table 1. Properties of used GCP Chip

OGCSBN_2020_v36n5_2_893_t0001.png 이미지

본 논문에서는 한반도를 촬영한 KOMPSAT-3A 위성 영상을 사용하였고, 국토지리정보원에서 제공받은 항공정사영상과 국방지형정보단의 CIB 영상을 검증영상으로 사용하여 정밀정사영상의 위치정확도를 측정하였다. 항공정사영상은 12.5 cm급 GSD를 갖는 항공사진을 25 cm급의 GSD를 갖는 정사영상으로 제작된 영상이고, CIB영상은 Controlled Image Base의 약자로, 군사 표준으로 제작된 정사보정된 흑백영상으로써 다양한 무기체계를 지원하기 위해 제작되었다(Lee, 2014). Table 2에 사용한 KOMPSAT-3A 위성영상에 대한 속성을 나타내었다.

Table 2. The properties of KOMPSAT-3A

OGCSBN_2020_v36n5_2_893_t0002.png 이미지

Table 2에서 확인할 수 있듯이, KOMPTSAT-3A 위성 영상은 55 cm의 GSD를 제공하는 것을 확인할 수 있다.

3. 위치정확도 분석

본 논문에서 센서모델 및 산출물 별 위치정확도 분석 방법에 대한 과정을 Fig. 1에 나타내었다.

OGCSBN_2020_v36n5_2_893_f0001.png 이미지

Fig. 1. Process of geolocation accuracy analysis.

1) 초기 센서모델 위치정확도 분석

초기 센서모델의 위치정확도 분석을 위해, 초기 센서 모델을 수립한 뒤 GCP 칩 매칭 후 수동 보정을 통해 획득한 정밀한 GCP에 대하여 Inverse mapping을 적용함으로써 위치정확도를 분석하였다. 먼저, 센서에서 제공하는 RPC파일을 이용해 초기 센서모델을 수립하였다. 이후, GCP를 얻기 위해 GCP 칩과 영상 간 영상정합으로 GCP 칩과 유사하다고 판단되는 영상좌표를 얻는다(Shin et al., 2018). 상기 과정을 GCP 칩 매칭이라 하며, 매칭에 성공한 GCP는 영상점과 지상점 간에 높은 연관성이 존재한다고 할 수 있다. 이후, 매칭된 GCP가 더욱 정밀한 값을 갖도록 하기 위해, 매칭된 GCP 칩과 원영상간의 매칭점을 조정함으로써 GCP 칩이 갖고 있는 Column, Row가 정밀한 값을 갖도록 수동 보정하였다. Table 3에서 GCP의 수동 보정 전과 후의 결과를 나타내었다.

Table 3. Comparison before and after manually calibrating of GCP

OGCSBN_2020_v36n5_2_893_t0003.png 이미지

Table 3을 살펴보면, GCP 칩과 원영상 내 건물 지붕의 위치가 다른 것을 알 수 있다. GCP 수동 보정 후엔 지붕위 위치가 맞게 보정된 것을 확인함으로써 GCP가 정밀하게 보정된 것을 알 수 있다. GCP 수동 보정 후, 기준점을 모두 모델점으로 사용해 초기 센서모델을 수립한 뒤, 위치정확도를 측정하였다. Table 4에 인천, 신의주, 동해를 촬영한 각각 영상의 속성을 나타내었고, Table 5에 각각의 영상의 GCP 배치 및 수량을 나타내었으며, Table 6에 인천, 신의주, 동해지역 영상의 초기 센서 모델에 대한 위치정확도 분석결과를 나타내었다.

Table 4. The properties of KOMPSAT-3A image which includes part of Incheon, Sinuiju, East Sea

OGCSBN_2020_v36n5_2_893_t0004.png 이미지

Table 5. Distribution of the GCPs

OGCSBN_2020_v36n5_2_893_t0005.png 이미지

Table 6. Result of initial sensor model geolocation analysis

OGCSBN_2020_v36n5_2_893_t0006.png 이미지

Table 6에서 확인 할 수 있듯이, 인천, 신의주, 동해의 정밀영상에서 각각 7.24, 16.95, 6.75 pixel의 RMSE를 나타내었다. 초기 센서모델의 위치정확도는 위성에 탑재된 센서들의 정확도의 한계에 영향을 받는다. 동해의 초기 센서모델 위치정확도를 살펴보면, 산악 및 보안지역인데도 불구하고 정확도 측면에서 특이한 점을 발견하기 어려운 것을 확인하였다. 그러나, 위에서 언급하였듯 위치정확도에 대한 탑재된 센서들의 영향을 무시할 수 없으므로 촬영 조건에 따른 위치정확도 분석이 필요하며, 이는 추가적인 연구를 통해 별도의 논문으로 보고할 예정이다. 나아가, 위와 같은 수치 외에도, 각각 영상의 검사점의 이격에 규칙이 존재하는지의 여부를 판단함으로써 위치정확도의 경향성에 대한 분석을 실시하였다. 이를 위해, 인천, 신의주, 동해지역 영상의 검사점으로 부터 발생한 이격의 방향과 크기를 각각 Fig. 2, 3, 4에 나타내었다. 파란점은 기존 검사점 위치, 빨간점의 위치는 기존 검사점으로 부터 이격 방향 및 크기를 나타낸다.

OGCSBN_2020_v36n5_2_893_f0002.png 이미지

Fig. 2. Direction and size of separation in Incheon Image.

OGCSBN_2020_v36n5_2_893_f0003.png 이미지

Fig. 3. Direction and size of separation in Shinuiju Image.

OGCSBN_2020_v36n5_2_893_f0004.png 이미지

Fig. 4. Direction and size of separation in East Sea Image.

Fig. 2, Fig. 3, Fig. 4에서 확인할 수 있듯이, 영상 내 이격의 방향성 및 크기가 유사하게 발생한 것을 확인 할 수 있다. 상기 세 영상 외에 추가로 남북한 지역에 분포한 27개 영상에 대해서 초기 센서모델을 수립하였다. 그 결과는 Table 7와 같다.

Table 7. Geolocation accuracy of initial sensor model of model point for the rest of the images

OGCSBN_2020_v36n5_2_893_t0007.png 이미지

Table 7를 살펴보면 북한의 초기 센서모델 위치정확도의 경우(상기 신의주, 동해 영상 포함) 평균적으로 25.12 pixel, 남한의 경우(상기 인천 영상을 포함해) 평균적으로 7.44 pixel의 위치정확도를 갖는 것으로 확인되었다.

2) 정밀 센서모델 위치정확도 분석

초기 센서모델 수립 후, 자동으로 취득한 GCP을 수동 보정한 뒤, 모든 기준점을 기하보정에 사용하여 초기 RPC를 갱신함으로써 정밀 센서모델을 수립하였고, 모델점이 갖는 위치정확도에 대해 분석하였다. 이후, 기준점들을 다시 분리하여 일부는 모델 수립에 사용하고, 모델점을 제외한 나머지 기준점들은 검사점으로 활용하여 정밀 센서모델의 위치정확도를 측정하였다.

먼저, 기준점을 모두 모델점에 사용하여 기하보정 후 모델점의 위치정확도를 측정하였다. Table 8에 인천, 신의주, 동해지역 영상의 모델점 위치정확도 분석 결과를 나타내었다.

Table 8. Geolocation accuracy of precise sensor model of model point

OGCSBN_2020_v36n5_2_893_t0008.png 이미지

Table 8를 살펴보면, 모두 2 pixel 이내의 높은 정확도가 측정된 것으로 확인되어 본 연구에서 목표로 하는 정확도 이내로 측정된 것을 확인하였다. 다음 Fig. 5, Fig. 6, Fig. 7에서 위 세 지역 영상의 모델점 오차의 이격 방향 및 크기를 나타내었다.

OGCSBN_2020_v36n5_2_893_f0005.png 이미지

Fig. 5. Geometric errors of model point in precise image of Incheon.

OGCSBN_2020_v36n5_2_893_f0006.png 이미지

Fig. 6. Geometric errors of model points in precise image of Shinuiju.

OGCSBN_2020_v36n5_2_893_f0007.png 이미지

Fig. 7. Geometric errors of model points in precise image of East Sea.

Fig. 5, Fig. 6, Fig. 7을 살펴보면 파란점이 모델점, 빨간점의 위치는 모델점으로부터의 이격 방향 및 크기를 나타낸다. 파란점과 빨간점이 거의 겹쳐 보이는 점들은 센서모델에 fitting이 잘 되었다고 판단할 수 있다.

상기 세 영상 외에 추가로 남북한 지역에 분포한 27개 영상에 대해서 정밀 센서모델을 수립하였다. 그 결과는 Table 9과 같다.

Table 9. Geolocation accuracy of precise sensor model of model point for the rest of the images

OGCSBN_2020_v36n5_2_893_t0009.png 이미지

Table 9에서 확인할 수 있듯이, 상기 영상을 제외한 나머지 영상들에 대해서도 모델점위 위치정확도는 대부분 2 pixel 이내로 측정된 것을 확인할 수 있다. 특히 남한 지역에서는 모두 2 pixel 이내로 측정된 것을 확인하였다. 북한 지역의 영상에서 2 pixel 이상의 정확도를 보이는 영상에 대해서는 정확한 원인에 대한 분석이 필요하다.

다음으로, 정밀 센서모델 수립 후 검사점을 활용한 정확도를 측정하기 위해 기준점의 일부를 사용하여 정밀 센서모델을 수립하였다. 본 연구에서는 기준점 중 반은 정밀 센서모델 수립하는데 사용하였고, 모델점을 제외한 나머지 검사점은 정밀 센서모델의 위치정확도를 분석하는데 사용하였다. 이때, 정확한 정확도 측정을 위해 모델점과 검사점은 균일한 배치를 갖도록 직접 분리 및 배치하였다. 다음 Fig. 8, Fig. 9, Fig. 10에서 각각의 영상에 사용한 모델점과 검사점의 분포 및 수량을 나타내었고, Table 10에서 인천, 신의주, 동해지역 영상의 모델점 위치정확도(Model Error), 정밀 센서모델의 위치정확도(Check Error)를 나타내었다.

OGCSBN_2020_v36n5_2_893_f0008.png 이미지

Fig. 8. Distribution of Model Points and Check Points of Incheon.

OGCSBN_2020_v36n5_2_893_f0009.png 이미지

Fig. 9. Distribution of Model Points and Check Points of Shinuiju.

OGCSBN_2020_v36n5_2_893_f0010.png 이미지

Fig. 10. Distribution of Model Points and Check Points of East Sea.

Table 10. Geolocation accuracy of precise sensor model of model point and check point

OGCSBN_2020_v36n5_2_893_t0010.png 이미지

Fig. 8, Fig. 9, Fig. 10을 살펴보면, 인천과 신의주에서는 균일한 GCP 분포를 갖고 있었지만, 동해에서는 대부분이 산악지역을 포함하고 있어, GCP의 분포가 고르지 않은 것을 확인할 수 있다.

Table 10에서 확인할 수 있듯이, 기준점을 모두 사용해 모델을 수립한 경우와 비교했을 때 모델점을 반으로 나눠 모델을 수립한 경우와 유사한 모델점 위치정확도를 나타내는 것을 확인할 수 있었다. 또한, 검사점을 활용한 정밀 센서모델의 위치정확도 또한 2 pixel 이내의 정확도를 보이는 것을 확인할 수 있다. 상기 세 영상 외에 추가로 남북한 지역에 분포하는 27개 영상에 대해 분석한 결과는 Table 11와 같다.

Table 11. Geolocation accuracy of precise sensor model of model point and check point for the rest of the images

OGCSBN_2020_v36n5_2_893_t0011.png 이미지

북한의 정밀 센서모델 위치정확도의 경우(상기 신의주동해 영상 포함) 모델점 위치정확도는 평균적으로 약 1.74 pixel의 정확도를 갖는 것으로 확인되었다. 그러나 평양과 원산 그리고 동해 지역의 경우 대부분의 영상에서 2~3 pixel의 정확도를 보이는 것으로 확인할 수 있다. 이는 평양과 원산의 GCP 품질이 다른 지역에 비해 낮기 때문에 모델점의 위치정확도가 낮게 측정 된 것이라 판단할 수 있었다. 또한 검사점을 활용한 북한의 정밀 센서모델 위치정확도의 경우 평균적으로 약 2 pixel의 오차를 갖는 것으로 확인되었다.

남한의 정밀 센서모델 위치정확도의 경우(상기 인천 영상 포함) 모델점 위치정확도는 평균적으로 약 1.41 pixel을 보였고, 검사점을 활용한 정밀 센서모델 위치정확도는 평균적으로 1.85 pixel을 보이는 것을 확인할 수 있었으며, 본 연구에서 목표로 한 정확도 이내로 측정 되었다.

3) 정밀정사영상 위치정확도 분석

기준점을 모두 사용하여 정밀기하가 수립된 정밀영상을 생성한 뒤, 정밀정사영상의 생성을 위해 국토지리 정보원의 공간해상도 5 m, 10 m DTM과 USGS(United States Geological Survey)에서 제공 받을 수 있는 SRTM(Shuttle Radar Topography Mission)의 DTM 사용하여 정사보정을 수행하였다. 이후, 정밀정사영상에 대한 위치 정확도를 분석하기 위해 CIB영상(1 m) 및 항공정사영상을 검증영상으로 선정하여 정밀정사영상과 검증영상의 좌표계를 일치시킨 후, 검사점을 추출한 뒤 수평 위치 오차가 발생한 정도를 측정하였다. 검사점 추출 시, 균일한 분포를 갖도록 하는 것에 초점을 맞추어 진행하였다. 이를 위해, 본 연구에서는 생성된 정밀정사영상을 9분할 한 뒤 산악지역 등 검사점 식별이 어려운 영상을 제외하고, 각 분할영역별로 1점의 검사점을 추출하였다. Table 12에 인천, 신의주, 동해지역 영상의 정밀정사영상 위치정확도의 분석 결과를 나타내었고, Fig. 11, Fig. 12, Fig. 13에 두 영상 간 검사점의 이격 방향 및 크기를 나타내었다.

Table 12. Geolocation accuracy of precise orthoimage in Incheon, Shinuiju, and East Sea image

OGCSBN_2020_v36n5_2_893_t0013.png 이미지

OGCSBN_2020_v36n5_2_893_f0011.png 이미지

Fig. 11. Geometric errors in precise orthoimage of Incheon compared with orthorectified Aerial Image.

OGCSBN_2020_v36n5_2_893_f0012.png 이미지

Fig. 12. Geometric errors in precise orthoimage of Shinuiju compared with orthorectified CIB Image.

OGCSBN_2020_v36n5_2_893_f0013.png 이미지

Fig. 13. Geometric errors in precise orthoimage of East Sea compared with orthorectified CIB Image.

Table 12를 살펴보면 인천과 신의주 지역의 정밀정사 영상은 2 m이내의 정확도를 보이나, 동해 지역의 정밀 정사영상의 경우 2 m를 초과하는 위치 정확도를 보이는 것을 확인 할 수 있다. 동해의 정밀 정사영상은 북한 접경지역에 위치하고 있으며, 영상의 대부분에 산악지역이 포함된 영상이기 때문에 검사점을 추출하는 과정에서 오차가 발생하였다. 이와 같이 검사점을 추출하기에 적합하지 않은 지형적 특성을 가진 영상들은 정밀정사영상의 높은 위치정확도를 기대하기 어려운 것을 확인할 수 있다. 따라서 향후 산악지역이 포함된 영상에 대해서도 검사점 추출이 가능하도록 연구할 필요가 있다.

Fig. 11, Fig. 12, Fig. 13을 살펴보면 인천과 신의주는 정밀정사영상·검증영상 간 검사점 위치가 매우 정밀해 대부분 이격의 구분이 어려운 것을 확인할 수 있었다. 반면, 동해지역은 상기 언급한 이유로 영상 간 검사점 위치에 차이가 발생한 것을 확인할 수 있었다. 상기 세 지역 외에 추가로 남북한 지역에 분포하는 27개 영상에 대해 정밀정사영상을 제작하였고, Table 13에 그 위치 정확도의 분석결과를 나타내었다.

Table 13. Geolocation accuracy of precise orthoimage for the rest of the images

OGCSBN_2020_v36n5_2_893_t0014.png 이미지

Table 13을 살펴보면, 북한의 전반적인 정확도가 남한보다 좋지 않은 것을 확인할 수 있었다. 위에서 언급한 GCP 품질에 의해 정확도가 저하되었던 평양과 원산 외에, 개성 및 강원도의 정밀정사영상의 위치정확도 또한 좋지 않은 것을 확인할 수 있었다. 이러한 현상이 발생한 원인을 파악하기 위해 추가적이 연구가 필요하다. 또한, 동해에서 낮은 위치정확도를 보였는데, 이는 영상의 대부분이 산악지역을 포함하고 있기 때문에 검사점 추출 시 오차가 발생한 것으로 판단할 수 있었다. 반면, 남한의 정밀정하영상에 대해 측정된 위치정확도는 전반적으로 2 m이내의 양호한 오차를 보여주었다는 점에서 향후 국토관측위성의 부가산출물의 정확도 판단에 의미 있는 자료가 될 것으로 기대된다.

다음 Fig. 14에 생성한 충청남도 지역 영상으로 제작한 정밀정사영상과, Fig. 14에 수치지도를 중첩 후 일부를 확대하여 캡처한 결과(Kim., 2020)를 Fig. 15에 나타내었다.

OGCSBN_2020_v36n5_2_893_f0014.png 이미지

Fig. 14. Output of orthoimage of Chungcheongnamdo.

OGCSBN_2020_v36n5_2_893_f0015.png 이미지

Fig. 15. Enlargement of overlaid image above.

Fig. 15를 살펴보면 정밀정사영상의 위치정확도가 좋아 수치지도와의 경계가 거의 일치하는 것을 확인할 수 있다.

4. 결론

본 논문에서는 2021년에 발사 예정인 국토관측위성과 가장 유사한 사양을 갖는 KOMPSAT-3A 위성영상을 활용하여 기하보정 및 정사보정이 수행된 산출물의 위치정확도를 분석함으로써 국토관측위성의 기하보정 및 정사보정이 완료된 산출물의 위치정확도 내지 품질을 예측 할 수 있음을 보고하였다. 실험 절차상, 수동으로 독취한 GCP를 모두 사용해 정밀정사영상을 제작하였고, 이후 정밀정사영상의 위치정확도 분석을 위해 검사점을 추가로 독취하여 사용하였다. 분석 결과, 북한지역의 경우 평균적으로 약 25.12 pixel의 초기 센서 모델 정확도, 약 2 pixel의 검사점을 이용한 정밀 센서모델 정확도, 약 2.49 m의 정밀정사영상의 정확도를 보여 주었다. 반면, 남한지역의 경우 평균적으로 약 7.44 pixel의 초기 센서모델 정확도, 약 1.85 pixel의 검사점을 이용한 정밀 센서모델 정확도, 약 1.15 m의 정밀정사영상의 정확도를 보여주었다. 상기 3번(정밀 센서모델 위치정확도)에서 언급하였듯, 정밀 센서모델 위치정확도 분석 결과에서 기준점을 반으로 나눠 정밀센서모델을 수립한 뒤 측정한 모델점 위치정확도 결과와 기준점을 모두 사용하여 정밀센서모델을 수립하고 측정한 모델점 위치정확도 결과가 유사한 것을 확인하였다. 그러나, 기준점의 절반만 사용하여 정밀 센서모델을 수립할 때 모델점과 검사점의 분배 수량 및 배치가 최종 정밀정사영상 산출물 정확도에 어떻게 영향을 미치는지, 나아가 정밀 정사영상 산출물이 최상의 정확도를 갖도록 하기 위해서 어떤 비율이 가장 최적일 지에 대해 추가적인 분석이 필요하다.

본 연구에서는 산출물들이 낮은 위치정확도를 갖는 현상에 대해 GCP의 품질에 따라 산출물의 위치정확도에 영향을 미친다고 판단하였다. 그러나 위 현상에 대해 본 연구진이 제시한 원인 외, 다른 원인에 대해서도 추가적인 연구가 이루어져야 할 것이다.

사사

본 논문은 국토교통부 위성정보 활용센터 설립 운영 사업(과제명: 국토위성정보 수집 및 활용기술개발)의 연구비지원(과제번호: 20SIUE-B148326-03)에 의해 수행되었으며, 이에 감사드립니다.

References

  1. Aguilar, M.A., M. Saldana, and F.J. Aguilar, 2014. Generation and quality assessment of Stereo-Extracted DSM from Geo-Eye-1 and WorldView-2 imagery, IEEE Transaction of Geoscience and Remote Sensing, 52(2): 1259-1271. https://doi.org/10.1109/TGRS.2013.2249521
  2. Buyuksalih, G., G. Kocak, H. Topan, M. Oruc, and A. Marangoz, 2005. Spot revisited: accuracy assessment, DEM generation and validation from stereo Spot-5 HRG images, The Photogrammetric Record, 20(110): 130-146. https://doi.org/10.1111/j.1477-9730.2005.00314.x
  3. Dial, G., H. Bowen, F. Gerlach, J. Grodecki, and R. Oleszczuk, 2003. Ikonos satellite, imagery, and products, Remote Sensing of Environment, 88(1-2): 23-36. https://doi.org/10.1016/j.rse.2003.08.014
  4. Grodecki, J. and G. Dial, 2003. Block adjustment of high-resolution satellite images described by rational polynomials, Photogrammetric Engineering & Remote Sensing, 69(1): 59-68. https://doi.org/10.14358/PERS.69.1.59
  5. Han, C.Y., Kim, J., and Kim, S.S., 2017. Optimised Design of Standard Platform for CAS500 satellite, The Society for Aerospace System Engineering, 2017: 219-220.
  6. Han, C.Y., Kim, J., and Kim, S.S., 2018. Trade-off Study of Mechanical Design for CAS500 satellite, The Society for Aerospace System Engineering, 2019: 252-253.
  7. Han, Y., 2013. Automatic Image-to-Image Registration between High-Resolution Multisensory Satellite Data in Urban Area, Ph. D. dissertation, Seoul National University, Seoul, Republic of Korea (in Korean with English abstract).
  8. Im, Y., T. Kim, and J. Kim, 2002. DEM Extraction from KOMPSAT-1 EOC Stereo Images and Accuracy Assessment, Korean Journal of Remote Sensing, 18(2): 81-90 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2002.18.2.81
  9. Jeong, J., 2015. Comparison of single-sensor stereo model and dual-sensor stereo model with highresolution satellite imagery, Korean Journal of Remote Sensing, 31(5): 421-432 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2015.31.5.6
  10. Jeong, J. and T. Kim, 2014. Analysis of dual-sensor stereo geometry and its positioning accuracy, Photogrammetric Engineering and Remote Sensing, 80(7): 653-662. https://doi.org/10.14358/PERS.80.7.653
  11. Jeong, J.H., J. Kim, and T. Kim, 2014. Analysis of Geolocation Accuracy of KOMPSAT-3 Imagery, Korean Journal of Remote Sensing, 30(1): 37-45 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2014.30.1.4
  12. Kim, T., 2020. Current status of localization development of precision image generation technology to utilize high-resolution satellite images, Korea Research Institute for Human Settlements, 467: 16-21.
  13. Noguchi, M., C.S. Fraser, T. Nakamura, T. Shimono, and S. Oki, 2004. Accuracy assessment of Quick Bird stereo imagery, The Photogrammetric Record, 19(106): 128-137. https://doi.org/10.1111/j.1477-9730.2004.00035.x
  14. Nyamjargal. E., J. Kim and T. Kim, 2017. Analysis of Geometric and Spatial Image Quality of KOMPSAT-3A Imagery in Comparison with KOMPSAT-3 Imagery, Korean Journal of Remote Sensing, 33(1): 1-13 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2017.33.1.1
  15. Lee, Y.R., 2014. Automatic Extraction Method of Control Point Based on Geospatial Web Service, Journal of the Korean Society for Geospatial Information System, 22(2): 17-24 (in Korean with English abstract). https://doi.org/10.7319/kogsis.2014.22.2.017
  16. Shin, J.I., Yoon, W.S., Park, H.J., Oh, K.Y., and T. Kim, 2018. A Method to Improve Matching Success Rate between KOMPSAT-3A Imagery and Aerial Ortho-Images, Korean Journal of Remote Sensing, 34(6-1): 893-903 (in Korean with English abstract). https://doi.org/10.7780/KJRS.2018.34.6.1.5

Cited by

  1. 농림위성용 GCP 칩 매칭 성능 향상을 위한 위성영상 공간해상도 결정 vol.37, pp.6, 2021, https://doi.org/10.7780/kjrs.2021.37.6.1.3