DOI QR코드

DOI QR Code

A Method to Improve Matching Success Rate between KOMPSAT-3A Imagery and Aerial Ortho-Images

KOMPSAT-3A 영상과 항공정사영상의 영상정합 성공률 향상 방법

  • Shin, Jung-Il (Research Center of Geoinformatic Engineering, Inha University) ;
  • Yoon, Wan-Sang (Research Center of Geoinformatic Engineering, Inha University) ;
  • Park, Hyeong-Jun (Research Center of Geoinformatic Engineering, Inha University) ;
  • Oh, Kwan-Young (Satellite Application Center, Korea Aerospace Research Institute) ;
  • Kim, Tae-Jung (Research Center of Geoinformatic Engineering, Inha University)
  • 신정일 (인하대학교 공간정보공학연구소) ;
  • 윤완상 (인하대학교 공간정보공학연구소) ;
  • 박형준 (인하대학교 공간정보공학연구소) ;
  • 오관영 (한국항공우주연구원) ;
  • 김태정 (인하대학교 공간정보공학연구소)
  • Received : 2018.10.29
  • Accepted : 2018.11.12
  • Published : 2018.12.31

Abstract

The necessity of automatic precise georeferencing is increasing with the increase applications of high-resolution satellite imagery. One of the methods for collecting ground control points (GCPs) for precise georeferencing is to use chip images obtained by extracting a subset of an image map such as an ortho-aerial image, and can be automated using an image matching technique. In this case, the importance of the image matching success rate is increased due to the limitation of the number of the chip images for the known reference points such as the unified control point. This study aims to propose a method to improve the success rate of image matching between KOMPSAT-3A images and GCP chip images from aerial ortho-images. We performed the image matching with 7 cases of band pair using KOMPSAT-3A panchromatic (PAN), multispectral (MS), pansharpened (PS) imagery and GCP chip images, then compared matching success rates. As a result, about 10-30% of success rate is increased to about 40-50% when using PS imagery by using PAN and MS imagery. Therefore, using PS imagery for image matching of KOMPSAT-3A images and aerial ortho-images would be helpful to improve the matching success rate.

고해상도 위성영상 활용의 증가와 함께 자동 정밀 기하보정의 필요성이 증가하고 있다. 정밀기하보정을 위한 지상기준점(ground control point, GCP)을 수집하는 방법 중 하나로 항공정사영상과 같은 영상지도의 일부를 추출한 칩(chip) 영상을 이용하는 것을 들 수 있고, 영상 정합 기법을 이용하여 자동화할 수 있다. 이 때 통합기준점과 같이 기존에 측량이 이루어진 지상기준점을 대상으로 칩 영상을 제작하는 경우 개수의 제한으로 영상 정합 성공률의 중요성이 증가한다. 이 연구의 목적은 KOMPSAT-3A 영상과 항공정사영상 기반 지상 기준점 칩 영상 간 정합 성공률을 향상시키기 위한 방법을 제시하는 것이다. 이를 위하여 KOMPSAT-3A 전정색(panchromatic, PAN) 영상, 다중분광(multispectral, MS) 영상, 융합(pansharpening, PS) 영상과 항공정사영상의 각 밴드 조합에 대해 영상 정합을 실시하고 성공률을 비교하였다. 그 결과 주로 사용되고 있는 전정색 영상과 다중분광 영상을 이용할 때 약 10-30%의 영상 정합 성공률이 융합 영상을 이용할 때 약 40-50%로 증가하는 것으로 나타났다. 따라서 KOMPSAT-3A 위성영상과 항공정사영상의 정합에 있어 융합 영상을 사용하는 것이 정합 성공률을 향상시키는데 도움이 되는 것으로 판단된다.

Keywords

1. 서론

민간 위성영상의 공간해상도는 1972년 Landsat MSS 의 80m를 시작으로 최근 0.3m 급에 이르러 약 40년동안 약 250배가 향상되었다(Kang and Lim, 2015). 아리랑 위성(KOMPSAT)은 1999년 1호를 시작으로 2015년 3A호까지 총 4기의 위성에 전자광학카메라를 탑재하고 있다. 아리랑 위성영상의 공간해상도는 전정색 영상을 기준 1호 6.6m, 2호 1m, 3호 0.7m, 3A호 0.55 m로 지속적으로 향상되고 있으며, 향후 발사될 7호는 0.3 m를 목표로 하고 있다(Korea Aerospace Research Institute, 2016). 이와 더불어 2019년 발사가 예정된 국토관측위성을 시작으로 하는 차세대 중형위성(Compact Advanced Satellite: CAS) 시리즈도 아리랑-3A 위성과 유사한 고해상도 영상을 제공할 예정이다(Kang and Lim, 2015).

고해상도 위성영상 활용 산출물의 정확도는 기하 정확도에 의해 결정되고 있어 기하보정 정확도의 중요성이 부각되고 있다(Han, 2013; Jeong, 2015). 아리랑 위성의 궤도모델 기반 초기 기하보정 평균제곱근오차(RMSE)는 2호 575.5 m, 3호 11.8 m 이상, 3A호 5.7 m 이상으로 보고되고 있다(SI Imaging Services, 2018; Erdenebaatar et al., 2017). 초기 기하보정 결과는 다양한 원인으로 인해 기하학적 오차를 포함하고 있어 지상기준점을 이용한 번들 조정(bundle adjustment)을 통해 기하 정확도를 향상시킬 수 있고, 이 과정을 정밀 기하보정으로 정의한다(Yoon and Kim, 2018; Seo et al., 2016).

지상기준점은 다양한 방법으로 수집될 수 있다. 대표적인 방법은 영상에서 판독 가능한 지점의 영상좌표를 취득하고 해당 지점의 3차원 지상좌표를 GNSS와 같은 측량장비를 이용하여 취득하는 것이지만, 시간과 비용이 크게 소요되어 광역에 적용하기에 한계가 있다(Lee and Oh, 2014). 다른 방법으로는 수치지형도 또는 영상 지도와 같은 참조자료를 이용하는 방법이 있다. 참조자료가 영상지도인 경우 영상정합 기법을 통한 지상기준점 수집과정을 자동화할 수 있다(Han, 2013; Lee and Oh, 2014). 일반적으로 영상지도를 참조자료로 사용하는 경우 연산의 효율성을 위하여 주요 관심지점을 중심으로 일정 크기의 지상기준점 칩 영상을 데이터베이스로 구축하여 사용한다. 이 때 통합기준점 및 측량기준점 등을 관심지점으로 지상기준점 칩 데이터베이스를 구축할 경우 위성영상 1개 scee에 포함되는 개수가 한정적이다. 따라서 정밀 기하보정을 위한 충분한 개수의 지상기준점 확보를 위해 정합 성공률을 높이는 것이 필요하다.

영상정합 기법은 크게 강도기반 정합기법과 특징기반 정합기법 두가지로 분류할 수 있다. 대표적인 강도기반 정합기법은 교차상관(cross-corrlation), 상호정보(mutual information) 등을 들 수 있고, 널리 알려진 특징기반 정합기법은 scale-invariant feature transformation (SIFT)와 speed up robust features (SURF) 등을 들 수 있다(Fonseca and Manjunath, 1996; Zitová and Flusser, 2003). 강도기반 정합기법은 영상 내 특이 공간특성이 없는 경우에도 적용 가능하다는 장점이 있으나, 특징기반 정합기법은 영상 내 공간특성이 없는 경우 적용이 불가능하고 다수의 오정합쌍이 추출된다는 단점이 있다(Han, 2013). 특히 원격탐사 자료와 같이 광역을 대상으로 할 경우 특징 기반 정합기법은 계산의 복잡성이 증가하고, 정합쌍의 분포와 오정합쌍에 의해 기하보정 정확도에 영향을 미칠 수 있어 사용에 있어, 영상의 특성에 따라 정합기법의 선정에 신중을 기할 필요가 있다(Han, 2013). 영상 정합 이후 오정합 또는 정합실패점은 random sample consensus(RANSAC) 기법을 이용하여 자동으로 제거할 수 있으나, 지상기준점 칩 영상의 개수가 제한적인 상황에서는 정합 성공률을 향상시키는 것에 중점을 둘 필요가 있다(Kim and Im, 2003).

영상 정합 기법은 계산의 복잡성을 감소시키기 위하여 일반적으로 1개 밴드로 구성된 흑백 영상 쌍을 이용한다. 여기에서 위성영상 전정색 밴드의 정밀기하보정을 위하여 컬러 정사영상과 같은 영상지도를 지상기준점 칩으로 사용할 경우 정사영상을 회색조로 변환하거나 RGB 중 1개 밴드를 선택하여 사용한다. 그러나 전정색 영상의 파장영역과 칩 영상이 다른 파장영역으로 구성되어 있어 분광특성이 다르다는 단점이 있다. 반대로 항공정사영상과 분광특성이 유사한 위성영상 다중분광 밴드의 RGB 밴드를 사용하면 전정색 영상에 비해 상대적으로 낮은 공간해상도로 인하여 정밀기하보정 정확도 확보에 한계가 있다. 이러한 문제는 영상융합이 완료된 다중분광 영상(pan-sharpened MS image)을 사용함으로써 극복할 수 있다(Agrafiotis et al., 2016). 따라서 고해상도 위성 영상의 정밀 기하보정 자동화 과정에서 지상기준점으로 영상지도를 이용할 때 어떤 밴드 쌍을 사용해야 하는지 그리고 융합영상을 사용하여 정합 성공률 향상이 가능한지 알아볼 필요가 있다.

이 연구의 목적은 아리랑-3A 영상의 정밀기하보정을 수행하기 위한 지상기준점으로 항공정사영상을 사용 하는데 있어 정합 성공률 향상 방법을 제시하는 것이다. 이를 위하여 아리랑-3A 전정색 영상, 다중분광 영상, 융합 영상과 지상기준점 칩으로 사용할 컬러 항공정사영상 간의 정합 성공률을 비교해보고자 한다.

2. 연구지역 및 자료

1) 연구지역

연구지역은 충청남도 서천군에서 전라남도 보성군에 이르는 지역으로 KOMPSAT-3A 13개 스트립 영상에 해당하는 약 12 km × 160 k 지역이다(Fig. 1). KOMPSAT- 3A한 개 scene에 해당하는 면적은 약 14km × 12km이다. 연구지역의 토지피복은 대부분 산림과 농경지로 구성되어 있으며 일부 도시지역이 분포한다. 또한 연구지역 내에 국토지리정보원에서 설치한 통합기준점이 48개 분포하고 있다.

OGCSBN_2018_v34n6_1_893_f0001.png 이미지

Fig.1. BoundaryofKOMPSAT-3AstripimageryusedandlocationofGCPs(dots).

2) KOMPSAT-3A 영상

Table 1과 같이 연구자료는 2017년 10월 21일에 촬영된 KOMPSAT-3A strip영상 13개 scene으로 24.0°–24.7° 로 사각 촬영되었다. 밴드 구성은 전정색 밴드와 다중 분광 4개 밴드(Blue, Green, Red, Near-Infrared)이고 복사 해상도는 14 bit이다. 공간해상도는 전정색 영상 약 0.6 m, 다중분광영상 약 2.5 m이다. 영상의 크기(화소 개수)는 전정색 영상은 24060 × 20400 pixel, 다중분광 영상은 6015 × 5100 pixel이다.

Table1. SpecificationofusedKOMPSAT-3Astripimagery

OGCSBN_2018_v34n6_1_893_t0001.png 이미지

영상에 포함되는 통합기준점(unified control point)은 48개로 scene 당 적게는 1개에서 많게는 10개가 포함된다(Fig. 1). 통합기준점(unified control point)은 3차원 위치의 기준점 역할은 물론 중력기준점, 지자기기준점, 도시 기준점, 지적기준점 등의 역할도 수행할 수 있는 다기능의 국가측량기준점이다(National Geographic Information Institute, 2016). 2008년부터 전국을 10 km 간격의 격자로 구성하여 그 격자점 주변에 위치한 관공서, 학교 등에 Fig. 2(a)와 같이 받침판(150 cm × 150 cm) 중앙에 ‘+’ 가 새겨진 지를 설치하였고, 2012년부터는 배치간격을 3-5 km로 좁히고 Fig. 2(b)와 같이 표주(17 cm × 17 cm) 중앙에 ‘+’가 새겨진 화강암 표지를 설치하고 있다(National Geographic Information Institute, 2016). 여기에서 2012년 이후 설치된 통합기준점의 경우 일반적으로 표주를 중심으로 약 50 cm × 50 cm 크기의 보호구조물이 존재한다.

OGCSBN_2018_v34n6_1_893_f0002.png 이미지

Fig. 2. Examples of unified control point (a) installed from 2008 to 2011 with size of 150 cm × 150 cm and (b) installed from 2012 with size of about 50 cm × 50cm.

3) GCP chip 영상

GCP chip 영상 제작에 국토지리정보원에서 제공하는 항공정사영상을 사용하였다. 항공정사영상은 2016년에 촬영된 것으로 공간해상도는 0.51 m, 밴드는 RGB의 3개이다. 항공삼각측량 시 통합기준점을 포함한 다양한 지상기준점을 이용하고 있어 그 부근의 위치정확도가 상대적으로 높을 것으로 판단된다. 육안 판독을 통해 연구지역에 포함된 통합기준점에 대한 위치정확도를 확인한 결과 2 pixel (약 1 m) 이내로 나타났다(Fig. 3). GCP chip 영상 제작을 위하여 Fig. 4의 예시와 같이 항공정사영상에서 48개 통합기준점의 위치를 중심으로 513×513 pixel 크기의 영역을 추출하였다. 여기에서 칩의 크기를 513×513으로 정한 이유는 빠른 연산을 위하여 축소(피라미드)영상을 사용할 때 정합 영역 피복 구성이 너무 단조롭지 않아 특징을 가질 수 있는 최적의 크기로 판단했기 때문이다. 즉, 크기가 작아질 경우 축소영상에서 매우 작은 면적만 나타나기 때문에 피복이 단조로워 영상정합 성공률이 떨어질 수 있고, 크기가 커질 경우 연산에 소요되는 시간이 늘어날 수 있다.

OGCSBN_2018_v34n6_1_893_f0003.png 이미지

Fig.3. Examplesofcoordinateofunifiedcontrolpoints(red dots) and interpreted locations (red box) on aerial ortho-images.

OGCSBN_2018_v34n6_1_893_f0004.png 이미지

Fig. 4. Examples of GCP chip images (513 × 513 pixel)using aerial ortho-images.

3. 연구방법

1) 영상 정합 실험 방법

영상 정합을 위한 자료로 위성영상은 KOMPSAT-3A 전정색 영상, 다중분광 영상 그리고 융합 영상이다. 이들 영상에 대해서 영상매칭을 위한 영상 쌍의 조합을 Fig. 5와 같이 7가지 경우로 구분하였다. 첫째는 KOMPSAT- 3A의 전정색 영상은 컬러 항공정사영상을 회색조로 변환한 영상과 정합하는 경우(case 1)로 위성영상 정합 시 일반적으로 사용하는 방법이다. 여기에서 컬러를 회색조로 변환하기 위해 사용한 방법은 OpenCV에서 사용하는 방법으로 RGB 각 밴드에 (1)과 같이 가중치(weight) 를 부여한다. 그러나 컬러 항공영상은 근적외선 밴드를 포함하고 있지 않아 KOMPSAT-3A 전정색 영상과 분광특성이 다르다는 한계가 있다.

OGCSBN_2018_v34n6_1_893_f0005.png 이미지

Fig.5. Image matching cases and datasets.

Gray=0.299×R+0.587×G+0.114×B       (1)

둘째로 KOMPSAT-3A 융합 상과 항공정사영상의 RGB 밴드를 각각 정합 하였다(case 2-4). 그 이유는 칼라 항공정사영상과 분광특성이 유사함과 동시에 다중 분광영상에 비해 공간해상도가 높아 영상정합 성공률을 향상시킬 것으로 기대할 수 있기 때문이다. 셋째로 KOMPSAT-3A 다중분광 영상과 컬러 항공정사영상의 RGB 밴드를 각각 정합하였다(case 5-7). 다중분광 영상은 항공정사영상과 분광특성은 유사하지만 전정색 영상 및 융합 영상에 비해 공간해상도가 낮다. KOMPSAT- 3A 영상의 융합방법과 영상 정합 방법은 이어지는 절에서 설명하였다.

2) KOMPSAT-3A 영상 융합 기법

이 연구에서 사용한 융합 기법은 KOMPSAT 영상에 적합하도록 제안된 기법으로 고해상 전정색 영상과 저주파 전정색 영상의 분광 및 공간적 상관관계 분석으로 새롭게 유도된 융합 매개변수를 기반으로 한다(Oh, 2017). 이 기법은 다중분광 영상으로부터 각 밴드의 저주파 전정색 영상을 생성하고 원 전정색 영상과의 차분을 통해 밴드별 고주파 성분을 추출한다는 점에서 기존 component substitution (CS) 융합 기법들과 유사하다(Oh, 2017). 그러나 분광통계 기반의 밴드 가중치가 적용된 밴드별 저주파 전정색 영상을 생성하고, 분광적 한계를 최소화하기 위하여 새롭게 정의된 융합 매개변수 사용된다는 점에서 기존 CS 융합기법들과 차이가 있다(Oh, 2017). Fig. 6은 사용한 KOMPSAT-3A 영상의 전정색 영상, 다중분광 영상 그리고 융합 영상의 일부지역을 예시로 보여주고 있다.

OGCSBN_2018_v34n6_1_893_f0006.png 이미지

Fig. 6. Sample area of KOMPSAT-3A image: (a) PAN image, (b) MS image and (c) PS image.

3) 영상정합 기법

이 연구에서 사용한 영상 정합 기법은 Zero Mean Normalized Cross Correlation(ZNCC)와 Mutual information (MI) 두 가지이다. 두 기법은 전통적으로 널리 사용되고 있는 대표적인 강도 기반 영상정합 기법이다. 최근 다양한 이유에서 특징 기반 정합기법이 널리 사용되고 있다. 그러나 이 연구는 향후 지속적으로 수신되는 위성영상의 자동처리에 적용하기 위하여 빠른 처리속도를 갖는 강도 기반 정합기법에 초점을 맞추었다.

ZNCC 기법은 이동창(moving window)으로 영상을 탐색하면서 창(template)에 해당하는 영역에 대한 영상 쌍의 교차상관도(cross correlation)을 이용하여 유사도를 계산하는 방법이다(Stefano et al., 2005; Sun, 1997). 여기에서 영상 간 밝기와 대비의 차의 영향에 독립적이도록 평균에 대해 정규화(zero mean normalization) 된 교차 상관도를 계산한다. 정규화 된 교차상관도는 식 (2)와 같이 표현할 수 있다.

\(\begin{array}{c} \operatorname{ZNCC}(x, y)= \\ \sum_{j=1}^{N} \sum_{i=1}^{M}\left[I(x+i, y+j)-\mu\left(I_{c}(x, y)\right)\right] \cdot[T(i, j)-\mu(T)] \\ \hline \sqrt{\sum_{j=1}^{N} \sum_{i=1}^{M}\left[I(x+i, y+j)-\mu\left(I_{c}(x, y)\right]^{2}\right.} \cdot \sqrt{\sum_{j=1}^{N} \sum_{i=1}^{M}[T(i, j)-\mu(T)]^{2}} \end{array}\)        (2)

여기에서, I는 정합대상 영상이고 W×H의 크기를 갖는다. T는 기준영상으로 M×N 크기를 갖는다. IC(x,y)는 영상좌표(x,y)에서의 M×N크기에 해당하는 정합대상 영상의 부분영상(sub-image), μ는 평균을 의미한다.

MI 기법은 영상 쌍(I, T) 간의 유사도(의존도, degree of dependence)로 두 영상(변수)가 완전 독립인 경우의 확률분포(product of marginal distribution) PI(i)·PT(t) 대비 결합확률분포 PIT(i,t)의 거리를 측정한다(Maes et al., 1997). MI(I,T)는 (3)과 같이 계산할 수 있다.

\(\mathrm{MI}(I, \mathrm{~T})=\sum_{i, t} P_{I T}(i, t) \log \frac{P_{I T}(i, t)}{P_{I}(i) \cdot P_{T}(t)}\)       (3)

MI는 엔트로피(entropy)와 연관되어 몇 가지 특성을 갖는데 그 특성은 양수(non-negativity), 독립성(independence), 대칭성(symmetry), 자기정보성(self-information), 유경계성(boundedness) 등이다(Maes et al., 1997).

정합과정은 다음과 같은 4단계의 과정을 거친다. 첫째, RFM(rational function model)을 이용하여 위성영상의 대략적인 좌표 범위를 계산한다. 둘째, 계산된 좌표 범위에 해당하는 지상기준점 칩 영상을 DB에서 가져온다. 셋째, 위성영상의 기하에 맞추어서 GCP 칩 영상을 회전시키고 축척(scale)을 변환시킨다. GCP칩 영상의 기하변환을 위해, 상단 코너점에 기록된 평면좌표(X, Y)와 RPC파일에 기록된 Height offset 정보(H)를 조합하여 두 코너점에 대한 3차원 좌표(X, Y, H)를 생성하고 이를 초기센서모델 통해 위성영상에 투영하여, 위성 영상 상에서의 두 점을 연결한 직선의 길이 대비 GCP칩 영상의 Column 방향 길이로 축척을 결정하였고, 회전량은 두 직선간 사이각(예각)으로 결정하였다. 이때 Column 방향과 Row방향에 대한 축척 및 회전량은 동일한 것으로 간주하였다. 넷째, 탐색시간 감소를 위해 축소(피라미드)된 영상 쌍의 단계별 정합을 통해 탐색영역을 제한하는 과정을 반복한 후 최종적으로 원본 해상도 영상에서 정합점을 결정한다. 본 연구에서는 연산 시간 감소를 위하여 최초 1/4배 축소 영상에서 영상 정합을 실시하여 정합 점수가 높은 지역을 다음 탐색 영역으로 제한한 뒤, 1/2배 축소된 영상에 대하여 정합 점수를 계산하여 최종 정합점을 결정하는 2단계의 피라미드 영상을 사용하였다.

4. 연구결과 및 토의

영상 정합 오차는 통합기준점을 기준으로 KOMPSAT-3A 영상을 육안 판독한 영상좌표(column, row)와 KOMPSAT-3A 영상 정합 결과의 영상좌표의 차이를 측정하였다. 여기에서 위성영상에서 통합기준점의 위치에 해당하는 영상좌표의 육안판독 방법은 Fig. 7과 같다. 첫째, 통합기준점을 중심으로 항공정사영상과 위성영상에서 동시에 명확하게 보이는 객체들을 설정한다. 둘째, 항공정사영상에서 해당 객체들과 기준점 간의 거리와 방향을 측정한다(Fig. 7a). 셋째, 측정한 거리와 방향을 위성영상의 공간해상도를 고려하여 적용한 후 해당 화소의 영상좌표를 취득한다(Fig. 7b). 다중분광 영상의 영상좌표는 융합영상의 영상좌표 1/4을 곱하여 추정하였는데 그 이유는 낮은 공간해상도로 인해 기준점 판독이 불가능한 경우가 대부분이기 때문이다.

OGCSBN_2018_v34n6_1_893_f0007.png 이미지

Fig. 7. Interpretation method to define pixel coordinates of a GCP using (a) Aerial ortho image on (b) Pan-sharpened KOMPSAT-3A image.

영상 정합 성공률 계산을 위한 오차의 임계치는 전정색 및 융합 영상의 경우 반경 5 pixel, 다중분광 영상의 경우 반경 1.5 pixel (약 3 m)를 기준으로 하였다. 그 이유는 영상정합 연산 속도를 고려하여 원본 영상 대신 1/2로 축소한 영상을 사용하여 2-3 pixel을 발생 가능한 오차로 보았고, 위성영상 판독 오차와 정사영상의 자체 오차를 고려하기 위함이다. 또한 선행 연구에서도 5 pixel을 합리적인 수치로 제시한 바 있다(Han, 2013). Fig. 8은 정합에 성공한 경우와 실패한 경우에 대한 예시를 보여주고 있다.

OGCSBN_2018_v34n6_1_893_f0008.png 이미지

Fig.8. Examples of image matching results for success with (a) and (b),and for fail with (c)and (d), where, (a) and (c) are aerial ortho-image, (b) and (d) are pansharpenedKOMPSAT- 3A image.

앞의 Fig. 1에 언급한 KOMPSAT-3A 스트립 13개 영상에 포함되어 있는 48개 기준점 위치에 대하여 위성영상과 항공정사영상(GCP chip)의 정합 성공률을 계산하였다(Table 2). 그 결과 전정색 위성영상과 회색조 항공 정사영상을 이용한 경우(case 1)에 두 기법의 영상 정합 성공률이 각각 12%와 21%로 매우 낮게 나타났다. 반면 융합 영상을 사용한 경우(case 2, 3, 4)의 영상정합 성공률이 40%부터 51%의 범위로 나타나 약 20% 내지 30% 향상된 것을 볼 수 있다. 또한 공간해상도가 낮은 다중분광 영상의 경우(case 5, 6, 7) 전정색 영상에 비해 높은 10-30% 수준을 보여주었으나, 융합영상이 비해 낮은 영상정합 성공률을 보여주었다. 따라서 항공정사영상을 지상기준점으로 사용하기 위해 영상정합을 실시함에 있어 KOMPSAT-3A 융합 영상, 다중분광 영상, 전정색 영상의 순으로 높은 정합 성공률을 보여주었고, 이는 항공정사영상과 유사한 분광특성 그리고 높은 해상도를 갖고 있기 때문으로 판단된다.

Table 2. Image matching success rate using PAN, PS, and MS image

OGCSBN_2018_v34n6_1_893_t0003.png 이미지

Table 2에서 KOMPSAT-3A 융합 영상과 다중분광영상의 각 밴드에 대한 영상 정합 성공률을 비교해보면 ZNCC의 경우 3개 밴드가 유사한 것으로 보인다. 반면 MI의 경우 청색(Blue) 밴드가 다른 두 밴드에 비해 10% 이상 높은 성공률을 보여주고 있다. 그 원인은 앞에서 언급한 식 (3)과 같이 확률분포를 계산하는데 있어 정합영역을 구성하는 화소의 색상을 들 수 있다. 다시 말하면 칩 영상의 피복 대부분이 녹색의 식생이거나 적색의 토양 및. 고사식생으로 구성되어 있어, 청색 밴드에서 국소지역의 화소값 변이가 다른 두 밴드에 비해 상대적으로 크게 나타나기 때문으로 판단된다.

가장 높은 영상정합 성공률을 보인 KOMPSAT-3A 융합 영상의 경우에도 그 수치가 매우 높지 않은 것으로 판단되는데, 정합 실패 이유는 Fig. 9의 예시와 같이 두 가지로 나누어 볼 수 있다. 첫째, 정사항공영상과 KOMPSAT- 3A 위성영상의 선명도 차이를 들 수 있다. Fig. 9(a)와 (b)를 비교해 보면 두 영상의 공간 해상도는 약 0.5 m로 유사하나 선명도의 차이로 인해 육안으로 나타나는 공간 해상도가 다르게 느껴지는 것을 확인할 수 있다. 둘째, 두 영상간 촬영 시기의 차이를 들 수 있다. Fig. 9(c)와 (d) 를 비교해보면 두 영상의 촬영 시점 또는 계절의 차이로 인해 식생의 색상이나 그림자 위치 등에 차이가 있음을 확인할 수 있다. 따라서 정합 실패 원인에 대한 보다 면밀한 분석과 그 영향을 최소화할 수 있는 방안에 대한 연구를 통해 정합성공률을 더욱 향상시킬 필요가 있다.

OGCSBN_2018_v34n6_1_893_f0009.png 이미지

Fig. 9. Exampes of failed image matching results due to difference of spatial resolution with (a), (b) and difference of acquisition time with (c), (d). Where, (a), (c) are aerial ortho-image and (b), (d) are pan-sharpened KOMPSAT-3 image.

5. 결론

이 연구에서는 항공정사영상으로부터 추출한 지상 기준점 칩 영상을 이용하여 고해상도 위성영상의 자동 기하보정 수행하는데 있어 영상 정합 성공률을 향상시킬 수 있는 방법을 제시하고자 하였다. 이를 위하여 KOMPSAT-3A 전정색 영상, 다중분광 영상, 융합 영상과 지상기준점 칩 영상간 7가지 조합에 대해 영상정합을 실시하였고, 정합 성공률을 비교하였다. 그 결과 전정색 영상과 회색조 항공정사영상은 약 20% 이하의 매우 낮은 정합 성공률을 보고, 다중분광 영상과 항공 정사영상의 각 밴드 조합은 약 30% 정도의 정합 성공률을 보여주었다. 항공정사영상과 유사한 분광특성과 함께 높은 공간해상도를 갖는 융합영상을 사용하였을 때 영상 정합 성공률이 40% 이상으로 나타나 전정색 영상에 비해 20~30% 수치를 보여주었다. 따라서 항공정사 영상을 지상기준점으로 사용하여 고해상도 위성영상의 자동 기하보정에 있어 융합영상을 사용하는 것이 높은 영상정합 성공률을 확보할 수 있는 방법으로 판단된다. 그러나 최근 다른 연구들에서 영상 촬영각이 영상정합 성공률과 이후 기하보정 정확도에 영향을 미칠 수 있음을 언급하고 있다(Kartal et al., 2018). 이와 더불어 영상 쌍의 촬영시기, 계절, 기상 및 대기 등 환경적 인자들도 영상 정합 성공률에 영향을 미칠 수 있을 것이다. 따라서 향후 연구로 다양한 오정합의 원인을 분석하고, 이들의 영향을 최소화할 수 있는 영상 정합 방법을 개발할 필요가 있다. 또한 향후 발사될 국토관측위성을 포함한 고해상도 위성영상의 자동 정밀 기하보정을 위한 지상기준점 칩 제작 방법과 충분한 개수를 확보할 수 있는 방법에 대한 연구도 KOMPSAT-3A 영상을 기반으로 이루어져야 할 것이다.

사사

본 연구는 국토교통부 위성정보 활용센터 설립 운영 사업(과제명: 국토위성정보 수집 및 활용기술개발)의 연구비지원(과제번호: 18SIUE-B148326-01)에 의해 수행되었습니다. 또한 연구자료를 제공해주신 국토지리 정보원과 한국항공우주연구원에 감사드립니다.

References

  1. Agrafiotis, P., A. Georgopoulos, and K. Karantzalos, 2016. The effect of pansharpening algorithms on the resulting orthoimagery, Proc. of 2016 XXIII ISPRS Congress, Commission VII, Prague, Jul. 12-19, vol. XLI-B7, pp. 625-630.
  2. Erdenebaatar, N., J. Kim, and T. Kim, 2017. Analysis of geometric and spatial image quality of KOMPSAT-3A imagery in comparison with KOMPSAT-3 imagery, Korean Journal of Remote Sensing, 33(1): 1-13. https://doi.org/10.7780/kjrs.2017.33.1.1
  3. Han, Y., 2013. Automatic Image-to-Image Registration between High-Resolution Multisensory Satellite Data in Urban Area, Ph. D. dissertation, Seoul National University, Seoul, Republic of Korea (in Korean with English abstract).
  4. Jeong, J., 2015. Comparison of single-sensor stereo model and dual-sensor stereo model with highresolution satellite imagery, Korean Journal of Remote Sensing, 31(5): 421-432 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2015.31.5.6
  5. Kang, M. and Y. Lim, 2015. A Study on the Application Demand of Satellite-based Information to Support National Land Polices, Korea Research Institute for Human Settlements, Anyang, Republic of Korea (in Korean with English abstract).
  6. Kartal, H., U. Alganci, and E. Sertel, 2018. Automated orthorectification of VHR satellite images by SIFT-based RPC refinement, International Journal of Geo-Information, 7(229): 1-18.
  7. Kim, T. and Y. Im, 2003. Automatic satellite image registration by combination of Stereo matching and random sample consensus, IEEE Transactions on Geoscience and Remote Sensing, 41(5): 1111-1117. https://doi.org/10.1109/TGRS.2003.811994
  8. Lee, C. and J. Oh, 2014. LiDAR chip for automated geo-referencing of high-resolution satellite imagery, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 32(4-1): 319-326 (in Korean with English abstract). https://doi.org/10.7848/ksgpc.2014.32.4-1.319
  9. Maes, F., A. Collignon, D. Vandermeulen, G. Marchal, and P. Suetens, 1997. Multimodality image registration by maximization of mutual information, IEEE Transactions on Medical Imaging, 16(2): 187-198. https://doi.org/10.1109/42.563664
  10. Oh, K., 2017. Efficient pansharpening and autocalibration methods of high spatial satellite images: application to KOMPSAT images, Ph. D. dissertation, University of Seoul, Seoul, Republic of Korea (in Korean with English abstract).
  11. Seo, D., J. Oh, C. Lee, D. Lee, and H. Choi, 2016. Geometric calibration and validation of Kompsat-3A AEISS-A camera, Sensors, 17(1776): 1-14. https://doi.org/10.3390/s17010001
  12. Stefano, L., S. Mattoccia, and F. Tombari, 2005. ZNCC-based template matching using bounded partial correlation, Pattern Recognition Letters, 26(14): 2129-2134. https://doi.org/10.1016/j.patrec.2005.03.022
  13. Sun, C., 1997. A fast stereo matching method, Proc. of Digital Image Computing: Techniques and Applications, Auckland, Dec. 10-12, pp. 95-100.
  14. Yoon, W. and T. Kim, 2018. Bundle adjustment of KOMPSAT-3A strip based on rational function model, Korean Journal of Remote Sensing, 34(3): 565-578 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2018.34.3.11
  15. Zitova, B. and J. Flusser, 2003. Image registration methods: A survey, Image and Vision Computing, 21(11): 97-100.
  16. Korea Aerospace Research Institute, 2016. Korea Multi-Purpose Satellite (KOMPSAT, Arirang), https://www.kari.re.kr/eng/sub03_02_01.do, Accessed on Oct. 20, 2018.
  17. National Geographic Information Institute, 2018. Glossary of Geo-spatial Information, http://www.ngii.go.kr/kor/board/view.do?rbsIdx=31&sCate=1&idx=666, Accessed on Oct. 20, 2018.
  18. SI Imaging Services, 2018. KOMPSAT Imagery Quality Report - KOMPSAT-2, 3, 3A (April, May 2018), http://www.si-imaging.com/resources/?mod=document&uid=286, Accessed on Oct. 20, 2018.