DOI QR코드

DOI QR Code

Characteristics of KOMPSAT-3A Key Image Quality Parameters During Normal Operation Phase

정상운영기간동안의 KOMPSAT-3A호 주요 영상 품질 인자별 특성

  • Seo, DooChun (Principal Researcher, National Satellite Operation & Application Center, Korea Aerospace Research Institute) ;
  • Kim, Hyun-Ho (Researcher, National Satellite Operation & Application Center, Korea Aerospace Research Institute) ;
  • Jung, JaeHun (Senior Researcher, National Satellite Operation & Application Center, Korea Aerospace Research Institute) ;
  • Lee, DongHan (Principal Researcher, National Satellite Operation & Application Center, Korea Aerospace Research Institute)
  • 서두천 (한국항공우주연구원 국가위성정보활용지원센터 책임연구원) ;
  • 김현호 (한국항공우주연구원 국가위성정보활용지원센터 연구원) ;
  • 정재헌 (한국항공우주연구원 국가위성정보활용지원센터 선임연구원) ;
  • 이동한 (한국항공우주연구원 국가위성정보활용지원센터 책임연구원)
  • Received : 2020.10.12
  • Accepted : 2020.11.20
  • Published : 2020.12.31

Abstract

The LEOP Cal/Val (Launch and Early Operation Phase Calibration/Validation) was carried out during 6 months after KOMPSAT-3A (KOMPSAT-3A Korea Multi-Purpose Satellite-3A) was launched in March 2015. After LEOP Cal/Val was successfully completed, high resolution KOMPSAT-3A has been successfully distributing to users over the past 8 years. The sub-meter high-resolution satellite image data obtained from KOMPSAT-3A is used as basic data for qualitative and quantitative information extraction in various fields such as mapping, GIS (Geographic Information System), and national land management, etc. The KARI (Korea Aerospace Research Institute) periodically checks and manages the quality of KOMPSAT-3A's product and the characteristics of satellite hardware to ensure the accuracy and reliability of information extracted from satellite data of KOMPSAT-3A. To minimize the deterioration of image quality due to aging of satellite hardware, payload and attitude sensors of KOMPSAT-3A, continuous improvement of image quality has been carried out. In this paper, the Cal/Val work-flow defined in the KOMPSAT-3A development phase was illustrated for the period of before and after the launch. The MTF, SNR, and location accuracy are the key parameters to estimate image quality and the methods of the measurements of each parameter are also described in this work. On the basis of defined quality parameters, the performance was evaluated and measured during the period of after LEOP Cal/Val. The current status and characteristics of MTF, SNR, and location accuracy of KOMPSAT-3A from 2016 to May 2020 were described as well.

KOMPSAT-3A는 2015년 3월 발사하여 약 6개월의 기간 동안 초기 검보정을 수행한 이후 지난 8년 동안 성공적으로 KOMPSAT-3A 자료를 사용자들에게 배포하였으며, 수집된 영상 자료는 지도제작, GIS, 국토관리 등의 다양한 분야에서 정성적, 정량적 정보 추출의 기초 자료로 활용되고 있다. 한국항공우주연구원에서는 KOMPSAT-3A의 영상제품군에서 추출되는 정보의 정확도 및 신뢰도를 확보하기 위해 주기적으로 영상 품질과 인공위성 하드웨어 특성을 확인하고 있다. 또한 KOMPSAT-3A의 탑재체, 자세제어 센서들의 노후화에 따른 영상 품질 저하 현상을 최소화하기 위해 지속적인 영상 품질 개선 작업을 수행하고 있다. 본 논문에서는 KOMPSAT-3A 개발 단계에서 정의된 발사 전후의 검보정 주요 과정 및 대표 영상 품질 인자인 MTF, SNR, Location accuracy 측정 방법을 설명하였다. 이를 바탕으로 발사 후 초기 LEOP Cal/Val이 완료된 이후 측정된 영상 품질 인자별 성능값과 최근 2016년부터 2020년 5월까지 KOMPSAT-3A호의 주요 품질 인자인 MTF, SNR, Location accuracy 현황과 특성을 기술하였다.

Keywords

요약

KOMPSAT-3A는 2015년 3월 발사하여 약 6개월의 기간 동안 초기 검보정을 수행한 이후 지난 8년 동안 성공적으로 KOMPSAT-3A 자료를 사용자들에게 배포하였으며, 수집된 영상 자료는 지도제작, GIS, 국토관리 등의 다양한 분야에서 정성적, 정량적 정보 추출의 기초 자료로 활용되고 있다. 한국항공우주연구원에서는 KOMPSAT-3A의 영상제품군에서 추출되는 정보의 정확도 및 신뢰도를 확보하기 위해 주기적으로 영상 품질과 인공위성 하드웨어 특성을 확인하고 있다. 또한 KOMPSAT-3A의 탑재체, 자세제어 센서들의 노후화에 따른 영상 품질 저하 현상을 최소화하기 위해 지속적인 영상 품질 개선 작업을 수행하고 있다. 본 논문에서는 KOMPSAT-3A 개발 단계에서 정의된 발사 전후의 검보정 주요 과정 및 대표 영상 품질 인자인 MTF, SNR, Location accuracy 측정 방법을 설명하였다. 이를 바탕으로 발사 후 초기 LEOP Cal/Val이 완료된 이후 측정된 영상 품질 인자별 성능값과 최근 2016년부터 2020년 5월까지 KOMPSAT-3A호의 주요 품질 인자인 MTF, SNR, Location accuracy 현황과 특성을 기술하였다.

1. 서론

우리나라 저궤도 광학 원격탐사 위성은 1999년 12월 KOMPSAT-1호를 시작으로 2006년 7월 KOMPSAT-2호, 2012년 5월 KOMPSAT-3호, 2015년 3월 KOMPSAT- 3A호가 발사되었으며, 현재 운영 중인 인공위성은 KOMPSAT-2호, 3호, 3A호이다. 특히 KOMPSAT-3A는 서브 미터급 영상 자료와 중적외 파장 대역의 영상을 수집할 수 있는 AEISS-A(Advanced Earth Imaging Sensor System-A)카메라를 탑재하고 있다. 이 카메라는 0.55 m 해상도의 PAN(Panchromatic) 영상과 2.2 m 해상도의 Red, Green, Blue, NIR(Near Infrared) 파장 대역의 MS (Multi-Spectral) 영상, 5.5 m 해상도의 IR(Infrared) 영상을 12 km 이상의 관측폭으로 수집할 수 있다. 수집된 영상자료는 인공위성 자료 기반의 국토관리, GIS 구축, 환경, 농업 및 해양 등 다양한 분야에 활용되고 있다. 이러한 다양한 활용 분야에서 인공위성 자료가 활용되는 이유는 인공위성의 접근성, 광역성, 주기성 등의 장점 때문이다. 또한 최근 고성능 컴퓨팅과 인공지능 등의 기술에 기반한 다양한 영상 처리 기술이 활용됨에 따라 토지 피복도, 변화탐지, 객체탐지 등의 분야에서 추출되는 정보의 정확도가 향상되고 있다.

인공위성 영상자료가 원격탐사의 다양한 분야에 활용되기 위해서는 생산된 제품군이 일정한 규격과 통일된 제품군으로 구성되어야 하며, 인공위성에서 자료를 수집, 전송, 처리 시에 발생하는 각종 오차를 제거한 후, 일정 수준 이상의 품질이 확보된 영상자료를 사용자에게 제공해야 한다. 인공위성 영상에서 발생할 수 있는 오차의 종류, 보정 수준, 최종적으로 제공되는 영상 품질 정도는 인공위성 발사 전 위성체를 구성하는 탑재체, 기타 보조 센서의 설계, 개발 과정에서 1차적으로 결정된다. 인공위성을 구성하는 여러 센서 중 영상 품질과 밀접한 관련이 있는 구성체는 크게 탑재체, 자세 제어 센서, 위치 센서 등의 3종류이다. 이 중 탑재체와 관련된 주요 성능 인자는 관측 파장 대역, 지상 해상도(GSD, Ground Sample Distance), 관측폭, MTF, SNR, 복사 응답 특성, Pixel registration 등이 있으며(Cho, 2002) 자세제어 센서의 성능 인자는 지향오차(Pointing error), 지향 안정도(Pointing stability) 으로 구성되며(Yoon et al., 2012) 마지막으로 위치센서의 성능 인자는 위치추산력 정확도, 측정 시간 등으로 구성된다(Jung et al., 2013). 인공위성에서 촬영된 영상자료의 품질은 위성체를 구성하고 있는 여러 하드웨어의 성능뿐만 아니라 촬영지역의 토지 피복 특성, 기상, 대기 상태 등의 환경에 따라서도 다양하게 나타난다. 따라서 인공위성 개발기관은 영상 품질을 측정하는 다양한 방법과 영상 품질 성능을 제시하고 있다.(Kubik et al., 2012; Kohm and Tira, 2004)

Saunier et al. (2010)은 2006년 발사된 ALOS(Advanced Land Observing Satellite)의 AVNIR-2 (Advanced Visibleand Near-Infrared Radiometertype2)와PRISM(Panchromatic Remote Sensing Instrument for Stereo Mapping)의 검보정이 완료된 이후 Landsat, MODIS, MERIS 인공위성과의 상대 비교를 통한 절대복사보정 정확도, Band-to-Band registration 정확도, Location accuracy, 입체영상의 DSM (Digital Surface Model) 생성 정확도, Edge 타겟 기반의 MTF 등의 인자를 통해 영상자료 품질평가를 수행하였다. Crespi(2009)의 연구에서는 QuickBird, WorldView-1, Cartosat-1위성의 MTF를 비교 측정하였으며, Lee(2019)는 해상도 타겟을 이용하여 무인항공기의 품질평가를 Ma et al. (2020)는 RadCalNet과 중국 바우타우 사이트의 지상관측 자료를 기반으로 절대복사보정 계수의 정확도를 평가하였다. Zheng et al. (2018)은 기준점 배치, RefineRPC 모델식에 따른 기하 정확도를 평가하였다. 본 논문에서는 KOMPSAT-3A 개발 단계에서 정의된 발사 전 후의 검보정 주요 과정과 대표 영상 품질 인자인 MTF, SNR, Location accuracy 측정 방법을 설명하고, 발사 후 LEOPCal/Val이 완료된 이후 측정된 영상 품질 인자인 MTF, SNR, Location accuracy 측정방법을 설명하고, 발사 후 LEOPCal/Val이 완료된 이후 측정된 영상 품질 인자별 성 능값, 그리고 최근 2016년부터 2020년 5월까지 KOMPSAT-3A호의 주요 품질 인자인 MTF, SNR, Location accuracy현황과 특성을 기술하고자 한다.

2. 검보정 주요 과정 및 영상 품질 인자

1) 검보정 주요 과정과 내용

KOMPSAT-3A 검보정 작업은 시간적으로 발사 전과 발사 후로 구분된다. Fig. 1은 발사 전, 후 수행되는 검보정 작업의 주요 내용을 정리한 것이다.

OGCSBN_2020_v36n6_2_1493_f0001.png 이미지

Fig. 1. KOMPSAT-3A Cal/Val activities and work-scope each phase.

발사 전 검보정 작업은 첫째 영상 품질 관련 요구 조건들을 정리, 분석하여 검보정 매개 변수를 결정하고 둘째 설계/시험 단계에서 수행된 검보정 매개 변수들의 결과값을정리하며 마지막으로 검보정 관련 문서 작성, 검보정 사이트 구축과 검보정 소프트웨어 개발 등이 주요 내용이다.

KOMPSAT-3A 호 발사 후 인공위성 하드웨어의 초기 성능을 확인하는 IAC(Initial Activation& Checkout)와 IOT(In-OrbitTest) 완료 후 수행되는 검보정 작업 단계는 Characterization, Cal/Val, Imagerestoration으로 구성된다. PhaseICal/Val은 인공위성을 구성하는 탑재체, 자세제어 센서, 위치 센서 등에 대한 검보정이 주 대상으로, Characterization 단계에서는 후속 검보정 작업을 수행하기에 앞서, 인공위성 자료의 MTF, SNR, 노이즈 특성, Location accuracy등의 초기 성능을 확인하고, 두 번째 단계인 Cal/Val은 위성체, 탑재체와 관련된 검보정을 수행하는 단계로서 NUC(Non Uniformity Correction), Focus calibration, AOCS(Attitudeand Orbit Control System) on-orbit calibration 등의 작업을 수행한다. PhaseII는인공 위성에서 수집된 영상자료와 보조자료를 바탕으로 영상전처리시스템인 IRPE(Image Receptionand Processing  Element)에 대한 검보정을 수행하는 것이 주목적으로, 인공위성에서 수집된 영상자료와 보조자료의 왜곡량을 지상 기준 자료를 기반으로 분석, 보정하고 그 결과를 IRPE 에 반영하는 단계로 MTFC(MTFCompensation), 노이즈 보상(De-noising), Band-to-Band registration등이 있다. Normal operation단계는 LEOPCal/Val이 완료된 이후, 결정된 검보정 매개 변수별 품질 값을 기반으로 인공위성 자료의 품질 특성을 일정하기 유지, 향상시키는 단계로서 인공위성 수명이 유지될 때까지 지속적으로 수행되며, 대표 영상 품질인자를 지속적으로 관찰하는 모니터링 작업과 영상 품질 결과가 저하될 경우 수행하는 Normal Cal/Val 작업으로 구분할 수 있으며, NormalCal/Val은LEOPCal/Val과 동일한 형태로 진행된다.

2) 주요 영상 품질 인자와 평가 방법

인공위성 영상자료에서 산출되는 정량적, 정성적 정확도와 성능은1차적으로 인공위성에 탑재된 탑재체, 자세제어 센서, 위치 센서 등의 하드웨어 성능에 크게 좌우되며, 이러한 대표 성능 인자는 GSD, 관측폭, 관측고도, 관측 주기, 파장 대역, MTF, SNR, Location accuracy 등이 있다. KOMPSAT-3A호의 경우, 이러한 인자들의 성능과 요구 정확도 값은 KOMPSAT-1호, 2호, 3호의 개발 경험과 설계 시 개발 가능한 하드웨어의 물리적 성능, 인공위성 내부 센서 사이의 정렬 오차, 자료처리 오차 등을 종합적으로 고려하여 결정하였다. 이들 인자들 중 영상 품질과 관련된 대표 품질 인자로서 탑재체 설계, 지상 성능시험, 발사 후 영상에서 측정할 수 있는 항목인 MTF, SNR과 자세 제어센서와 위치센서의 정확도를 종합적으로 판단할 수 있는 Location accuracy를 대표 영상 품질 항목으로 정의하였다.

Fig. 2는 발사 전과 발사 후의 영상 품질관리 방안을 도식화한 것으로 발사 전 품질관리 단계에서는 가상의 우주 환경하에서 영상 품질과 관련된 인자들에 대한 지상 실험 결과를 기반으로 관리된다. 발사 후 초기 LEOP 품질관리는 앞절에서 설명한 바와 같이 Characterization, Cal/Val, Image restoration단계별로 품질관리를 수행하며, Normal operation기간동안의 품질관리는 인공 위성 하드웨어 성능 변화 및 저하를 감시하고, 최종적으로 사용자에게 제공되는 제품의 품질이 검보정 완료 시점에 정의된 요구사항에 만족할 수 있도록 관리하는 것이다.

OGCSBN_2020_v36n6_2_1493_f0002.png 이미지

Fig. 2. Work-flow of image quality management before and after satellite launch.

KOMPSAT-3A 호의 영상 품질관리는 사용자에게 배포되는 영상 제품군 기반의 품질관리, 한국항공우주연구원에서 구축한 검보정 사이트와 특수 촬영 기반의 품질관리, KOMPSAT-3AIRPE 기반의 품질관리의 세 부분으로 구성된다. 영상 제품군 기반 품질관리는 KOMPSAT-3AIRPE에서 생성된 Level 1R과 Level 1G 제품군을 사용자에게 배포하기 전, 영상 품질을 사전에 확인하는 작업이다. 대표적인 품질관리 항목은 노이즈 정도, 영상 내 밝기 값 균일도, Saturation 정도, Band-to- Band registration정확도, Location accuracy등이며, 이들 항목 등에 대해 영상 품질평가 담당자가 시각적 분석을 통해 전반적인 특성을 판단하고, 영상 품질 이상 지역에 대해서 Level1, Level2, Level3의 3단계로 구분하여 품질 평가를 수행한다. KOMPSAT-3AIRPE 기반의 품질관리는 IRPE 의 기능상 오류를 관리하는 것으로서, IRPE 시스템 버그를 수정하는 것이 주요 업무이다.

검보정 사이트와 특수 촬영 기반의 품질관리는 KOMPSAT-3A 호의 품질관리 중 가장 중요한 부분으로, 영상 품질과 관련되어 인공위성 설계 개발 단계에서 요구 정확도 항목으로 정의된 MTF, SNR, Location accuracy의 3가지 요소에 대해 영상 품질을 평가하는 작업이다. MTF는 탑재체 카메라 성능과 탑재체 focus 시스템과 관련되어서 영상 선명도를 결정하는 주요 인자이며, SNR은 영상에 존재하는 각종 노이즈의 보상 정도를 판단하는 기준 인자이다. Location accuracy는 자세제어 센서, 위치 센서, 자세-탑재체 정렬각에 대한 정도를 영상에서 확인할 수 있는 인자이다. 다음으로 본 논문에서 는 KOMPSAT-3A 영상에서 MTF, SNR, Location accuracy 평가 방법을 설명하고자 한다.

(1) MTF

MTF는 영상 시스템의 PSF(Point Spread Function) 가 Fourier transform을 통해 정규화된 값으로 정의되며 (Kohm, 2004; Helder and Choi, 2002), 영상 선명도 (sharpness)를 평가하는 데 사용되는 지표이다.

KOMPSAT-3A호 영상의 공간품질 특성은 지상에 설치된 인공 Edge타겟 영상으로부터 Edge response를 얻어 RER(Relative Edge Response), FWHM(Full Widthat  Half Maximum), MTF등을 아래와 같은 절차에 따라 계산한다 (Fig. 3).

OGCSBN_2020_v36n6_2_1493_f0003.png 이미지

Fig. 3. Work flow for measuring MTF, RER, FWHM based on edge target

(Step1) Edge 타겟 영상에서 Edge라인이 최소 25라인 이상 포함되도록 영상을 절취한 후, 각 라인마다 기울기가 최대인 지점을 Edge로 결정한다.

(Step2) 각 라인마다 결정된 Edge 중심으로 정규화 후, spline fitting을 수행하여ESF(Edge spread function)를 결정한다.

(Step3) 결정된 ESFX 축의 원점을 기준으로 -0.5픽셀에서 +0.5픽셀 기울기에 대한 절대값을 계산하여 RER값을산출한다.

(Step4) ESF의 미분을 통하여 LSF(Line Spread Function) 를 결정한다.

(Step5) LSF로부터 중간값인 0.5에 대한 최대폭을 FWHM값으로 정의한다.

(Step6) LSF에 FFT(Fast Fourier Transform)을 적용하여 MTFcurve를 계산한다.

(Step7) MTFcurveplot으로 부터 MTF at Nyquist frequency 값을 계산한다.

(Step8) Along 방향과 Across 방향에 대해 각각의MTF at Nyquist frequency값을 계산한다.

(Step9) 촬영된 Edge target들의 여러 Subsample 지역들을 추출하여 각각의 MTF at Nyquist frequency값을 계산한 후, 평균값을 최종 MTF at Nyquist frequency 값으로 결정한다.

(2) SNR

일반적으로 SNR은 배경노이즈에 대한 의미 있는 신호 값의 비율로 정의되며, KOMPSAT-3A호 영상의 경우에는 인공 Edge 타겟을 기반으로 다음과 같은 순서에 따라 계산된다. 첫번째 단계는 촬영된 Edge target 내에서 밝은 영역(bright uniform)과 어두운 영역(dark uniform)의 ROI(Region of Interest)를 선택한다 (Fig. 4). 두번째 단계는 밝은 영역과 어두운 영역 각각의 평균값과 표준편차 값을 계산한 후, 식(1)과 같이 SNR을 계산한다.

\(S N R=\frac{D N \text { difference }}{\left(S T D_{\text {bright }}+S T D_{\text {dark }}\right) / 2}\)       (1)

OGCSBN_2020_v36n6_2_1493_f0004.png 이미지

Fig. 4. SNR calculation based on edge target.

(3) Location accuracy

KOMPSAT-3A 의 Location accuracy는 인공위성의 시간을 기반으로 관측된 영상자료, 인공위성의 위치, 속도, 자세 정보를 이용하여 영상 내 임의 영상 좌표 값에 해당하는 지상 좌표를 결정하고, 결정된 좌표와 실제 지상 좌표값의 차이로 정의한다. 이때 영상 내 임의 좌표에 대한 지상 좌표 결정 방법은 식(2) 와 같은 KOMPSAT- 3A Direct Sensor Model로 정의된다(Seo et al., 2016).

\(\left[\begin{array}{l} X-X_{s} \\ Y-Y_{s} \\ Z-Z_{s} \end{array}\right]_{E C E F}=\lambda \cdot M_{E C I}^{E C E F} \cdot M_{B o d y}^{E C I}\left[\begin{array}{c} -y \\ -x \\ f \end{array}\right]_{\text {Sensor }} \)       (2)

식(2)의 [-y, -x, f] 은 임의의 영상 좌표에 해당하는 CCD상의 좌표값으로 정의되며, x, y의 좌표값은 KOMPSAT-3A 영상 좌표계의 sample 값을 이용하여 식 (3)을 통해 계산되며, f는 초점거리이다. 식(3)을 구성하고 있는 a0, a1, a2, b0, b1, b2, f를 사진 측량학에서는 내부표정요소로 일반적으로 정의하며, 이들 요소 값은 발사 전 지상 실험 결과와 발사 후 인공위성 자료와 지상 자료를 기반으로 결정되며, 결정된 값은 Table 1과 같다.

\(\begin{array}{l} x=a 0+(a 1 \times \text { sample })+\left(a 2 \times \text { samle }^{2}\right) \\ y=b 0+(b 1 \times \text { sample })+\left(b 2 \times \text { samle }^{2}\right) \end{array}\)       (3)

Table 1. KOMPSAT-3A’s Interior Orientation

OGCSBN_2020_v36n6_2_1493_t0001.png 이미지

[Xs, Ys, Zs]는 임의의 영상 좌표 촬영 시간에 계산된 인공 위성 위치 값이고,  \(M_{B o d y}^{E C I}\)는 영상 좌표 촬영 시간에 대응하는 인공위성 자세값이며, \(M_{ECEF}^{E C I}\)는 영상 좌표 촬영 시간에 대응하는 ECI(Earth Centered Inertial)에서 ECEF (Earth Centered Earth Fixed)로의 변환 행렬값으로 정의된다. \(M_{E C I}^{ECEF}\)는 식 (4)와 같이 MPM, MST, MNUT, MPREC으로 구성되며, MPM은 Polar Motion, MST은 Sidereal Time, MNUT 은 Astronomicnutation, MPREC Precession으로 정의된다 (DMA, 1987).

\(M_{E C I}^{E C E F}=\left[M_{P M} \cdot M_{S T} \cdot M_{N U T} \cdot M_{P R E C}\right]\)       (4)

KOMPSAT-3A에서 측정되는 인공위성 위치와 자세는 전처리 수준에 따라서서 인공위성에서 실시간으로 처리되는OD(Orbit Data), AD(Attitude Data)와 지상에서 정밀 후 처리되는 POD(Precision Orbit Data), PAD(Precision Attitude Data)로 구분된다. 또한 인공위성 기동 특성에 따라 영상 촬영 시작 전 충분한 안정화 시간을 갖고 촬영을 수행하는 Strip imaging mode, 여러 지역 영상 획득을 목적으로 하는 Multi-point imaging mode, 동일 궤도에서 입체 영상을 획득하는 One-passstereo imaging mode, 광역의 영상 획득을 목적하는 Wide-area imaging mode 등이 있다. 이들 촬영 모드에 따라 결정되는 인공위성 자세의 정밀도는 각기 다르다. KOMPSAT-3A 호의 Location accuracy를 포함한 모든 기하 품질관리는 Strip imaging mode의 POD/PAD를 기준으로 관리된다.

KOMPSAT-3A는 사용자가 손쉽게 영상의 기하 정보 결정을 할 수 있도록 RPC(Rational Polynomial Coefficients) 파일을 제공한다. RPC는 인공위성 영상과 지상과의 기하학적 관계를 식 (5)와 같은 비례다항식 형태로 정의된다. 이러한 식 (5)와 같은 비례다항식 형태의 센서 모델을 RFM(Rational Function Model)으로 정의하며, RFM 을 구성하는 다항식의 계수를 RPC라고 한다.

\(r_{n}=\frac{p 1\left(X_{n}, Y_{n}, Z_{n}\right)}{p 2\left(X_{n}, Y_{n}, Z_{n}\right)}, c_{n}=\frac{p 3\left(X_{n}, Y_{n}, Z_{n}\right)}{p 4\left(X_{n}, Y_{n}, Z_{n}\right)}\)       (5)

식 (5)의 (rn, cn)은 영상좌표, (Xn, Yn, Zn)은 지상좌표 이며, 식 (6)과 식 (7)를 사용하여 -1에서 1 사이로 정규화된 값 형태로 구성된다(Seo et al., 2014).

\(r_{n}=\frac{\text { line }-\text { line }_{\text {offse }}}{\text { line }_{\text {sacle }}}, c_{n}=\frac{s a m p-s a m p_{o f f s e t}}{\operatorname{sam} p_{s a c l e}}\)       (6)

\(X_{n}=\frac{\text { Longitude }-\text { Longitude}_{offset}}{\text { Longitude }_{\text {sacle }}}, \\ Y_{n}=\frac{\text { Latitude }-\text { Latitude }_{\text {offset }}}{\text { Latitude }_{\text {sacle }}}, \\Z_{n}=\frac{\text { Height }-\text { Height }_{\text {offset }}}{\text { Height }_{\text {sacle }}}\)       (7)

\(\begin{aligned} p 1\left(X_{n}, Y_{n}, Z_{n}\right)=& a_{0}+a_{1} X+a_{2} Y+a_{3} Z+a_{4} X Y+\\ & a_{5} X Z+a_{6} Y Z+a_{7} X^{2}+a_{8} Y^{2}+\\ & a_{9} Z^{2}+a_{10} X Y Z+a_{11} X^{3}+\\ & a_{12} X Y^{2}+a_{13} X Z^{2}+a_{14} X^{2} Y+\\ & a_{15} Y^{3}+a_{16} Y Z^{2}+a_{17} X^{2} Z+\\ & a_{18} Y^{2} Z+a_{19} Z^{3} \end{aligned}\)       (8)

3. LEOP 검보정 결과

KOMPSAT-3A 호의 초기 검보정 완료 후, 영상 품질은 Spatial, Radiometric, Geometric 항목별로 각각 측정하였으며, 주요 결과는 Table 2와 같다.

Table 2. KOMPSAT-3A main specification and LEOP Cal/ Val results

OGCSBN_2020_v36n6_2_1493_t0002.png 이미지

앞절에서 설명한 바와 같이 초기 LEOP Spatial 검보정의 주요작업은 Focus calibration과 MTFC으로 구성되며, Focus calibration은 AEISS-A 내의 M2 mirror의 최 종 위치를 FMC(Focus Mechanism Control) temperature 조정을 통해 최대 MTF, 최소 FWHM, 최대 RER 값이 최적 값으로 결정될 때 정의되는 FMC Temperature를 확정하는 것이다. MTFC는 별 촬영된 영상자료로부터 PSF와 MTFkernel을 결정하여KOMPSAT-3APAN 영상 자료의 선명도를 향상시키는 작업으로, 이러한 일련의 작업을 통해 SNR값이 만족되는 범위 내에서 PAN 영상의 최종 MTF값이 10~11%에서 20%로 2배 정도 향상되었다.

Radiometric 검보정은 KOMPSAT-3A 호의 디텍터 내 인접 픽셀의 밝기값 차이와 서로 다른 두 디텍터의 전체적인 밝기 값 차이를 보정하는 NUC 작업, 영상 내 존재하는 수평, 수직, 대각 방향 노이즈, Pixelburst 등의 노이즈 보상작업 등으로 구성된다. KOMPSAT-3A호의 NUC보정작업은Side-slither영상을 기반으로 보정하였으며, 1차다항식 형태의 NUCtable을 결정하여 탑제체에 적용하였다. 노이즈 보상은 바다, 사막, 지상, 빙하, 도심 등의 다양한 영상자료를 촬영하여 노이즈의 주기, 강도, 위치 등을 정의하고 노이즈 보상 알고리즘 개발하여 IRPE에 적용하였다. 이와 같은 과정을 통하여 최종적으로 측정된 SNR 값은 Table 2와 같이 PAN, MS 모든 밴드에서 100 이상으로 측정되었다.

Geometric 검보정은 먼저 위치센서의 시간을 기준으로 탑재체와 버스시스템의 시간  동기화를 수행한 후, 자세 제어계의 Gyro-to-Gyro, Gyro-to-Star 상대 정렬 오차를 계산하여 인공위성에 적용하였다. Star-탑재체 간의 절대 정렬 오차는 지상기준점을 이용하여 결정, 적용하였으며 PAN, MS 센서의 초점거리와 CCD distortion과 같은 내부표정요소 결정에 있어서는 발사 전 지상 실험자료에서 측정된 값을 초기값으로 정의하고, 발사 후 지상기준점, KOMPSAT-3A Direct Sensor Model 을 기반으로 최종내부 표정 요소를 결정하였다. 이러한 과정을 통해 최종적으로 측정된 Stripimaging mode 의 Location accuracy는 13.5 m CE90(Circular Error 90) 수준이다(Seo et al., 2016).

4. 정상운영기간동안의 영상 품질 현황

KOMPSAT-3A 자료 전처리, 배포, 품질관리 주관기관인 한국항공우주연구원은 개발단계에서부터 현재까지 품질관리를 지속적으로 수행하고 있으며, 본 절에서는 최근 2016년부터 2020년 5월까지의 주요 품질 인자에 대한 품질 특성을 설명하고자 한다.

1) MTF

KOMPSAT-3A 영상의 공간 선명도 척도인 MTF는 Fig.7과같은Edge target을 촬영 후, 2장의MTF 영상 품질 측정 절에서 설명한 MTF 측정 방법에 따라 산출된다. KOMPSAT-3A에서 사용되는 Edge target의 주요 제원은 Table 3과 Fig. 5와 같다.

Table 3. Edge target list for KOMPSAT-3A MTF measurement.

OGCSBN_2020_v36n6_2_1493_t0003.png 이미지

OGCSBN_2020_v36n6_2_1493_f0005.png 이미지

Fig. 5. Edge target image by KOMPSAT-3A

Fig. 5에서 몽골 존모드 지역에 구축된 타겟은 한국항공우주연구원에서 KOMPSAT-3호 영상의 MTF 측정을 위해 개발된 사이트로, KOMPSAT-3A호 영상에서도 지속적인 사용을 위하여 매년 유지보수를 수행하고 있으며, 중국 바우타우 지역은 광학과 SAR 영상의 종합적인 검보정을 위해 개발된 사이트로 Edge target, Bar target, Siemens target, GCP, CR(CornerReflector) 등의 다양한 타겟이 설치되어 있어 MTF, GSD, spatial resolution 등 인공위성 영상의 다양한 품질 특성을 측정할 수 있다 (Li et al., 2015). 프랑스 샬롱타겟은 ONERA사에서 SPOT 5, ALOSPRISM 영상의 MTF 측정 및 focus calibration을 위해 개발한 사이트이다 (Blank, 2008; Viallefont-Robinet andLeger, 2010).

2016년부터 2020년 5월까지 Edge타겟을 촬영하여 측정된 KOMPSAT-3A의 공간 선명도 특성을 Fig. 6에서 Fig. 9로 나타냈었으며, 여기서 Fig. 6은 ESF의 RER 값을, Fig. 7과 Fig. 8은 LSF 의 FWHM 25%와 50%값을, Fig. 9은 MTF값을 도식화한 것이다.

OGCSBN_2020_v36n6_2_1493_f0006.png 이미지

Fig. 6. RER characteristics from Jan. 2016 to May. 2020.

OGCSBN_2020_v36n6_2_1493_f0007.png 이미지

Fig. 7. FWHM 25% characteristics from Jan. 2016 to May. 2020.

OGCSBN_2020_v36n6_2_1493_f0008.png 이미지

Fig. 8. FWHM 50% characteristics from Jan. 2016 to May. 2020.

OGCSBN_2020_v36n6_2_1493_f0009.png 이미지

Fig. 9. MTF characteristics from Jan. 2016 to May. 2020.

이들 결과를 보면 공간 선명도의 특성치를 나타내는 MTF, FWHM, RER 값이 2016년 11월을 기준으로 성능 향상이 있음을 알 수 있다. 이는 앞에서 설명한 바와 같이 탑재체 특성 변경에 따라 focus calibration을 정상 운영 기간 동안 재수행한 결과로서 영상의 공간 선명도가 가장 우수한 focus 메커니즘의 최적 FMC temperature값이 초기 검보정 시점에는-0.67°였으나, 2016년 11월 이후-2.0°로 조정되었다. 2016년 11월 이후 평균 MTF값 은 11.6%로 KOMPSAT-3A호의 설계, 개발 단계에서 정의된 요구 정확도 8%를 만족함을 알 수 있으며, 또한 Table2의 초기 검보정 결과 대비 약1.1% 정도 향상되었음을 알 수 있다. Table4는 이러한 공간선명도 관련 지표의 변화 특성을 수치로 나타낸 것이다.

 Table 4. MTF, FWHM, RER value compare of before and after focus calibration

OGCSBN_2020_v36n6_2_1493_t0004.png 이미지

2) SNR

SNR도 Edge target을 촬영 후, 앞절의 SNR영상 품질 측정에서 설명한 SNR 측정 방법에 따라 산출하였다. SNR값은 식 (1)과 같이 영상 DN값에 민감하게 변화하는 특성이있다. 이러한 DN값 변화에 영향을 미치는 요소의 종류는 크게 탑재체 CCD 특성 변화, 타겟 표면 상태, 태양 남중고도 등이 있다. 현재 SNR측정에 사용되는 Edge target의 경우 모두 북반구에 위치하고 있으며, 샬롱 타겟을 제외하면 위도 43도의 고위도 지역에 존재하므로 겨울철 측정값은 제외하고 SNR 변화특성을 Fig. 10과 같이 표시하였다. 정상 운영 기간 동안의 평균 SNR 값은 1000.6으로 KOMPSAT-3A 요구 정확도인 100을 만족하고 있음을 알 수 있다.

OGCSBN_2020_v36n6_2_1493_f0010.png 이미지

Fig. 10. SNR characteristics from Jan. 2016 to May. 2020.

향후 계절적 특성, 타겟 표면 상태 등에 따라 민감하게 변화하는 SNR 값을 최소화하기 위한 연구가 진행되어야 하며, 또한 인공타겟이 아닌 Side-slither와 같은 특수 촬영으로 SNR의 변화 특성을 모니터링하는 연구가 진행되어야 할 것이다.

3) Location accuracy

Location accuracy 평가를 위한 지상 기준자료 구축 지역은 남반구와 북반구 전역의 Fig. 11과 같은 형태로 배치되어 있으며, 구축된 지상 기준자료는 정사 영상과 DEM(Digital Elevation Model) 자료이다. 기준 정사 영상제작에 필요한 DEM은 KOMPSAT-3호와 KOMPSAT-3A호의 입체 영상과 Compass Data 사에서 도입한 GNSS (Global Navigation Satellite System) 측량 자료 기반의 지상기준점을 바탕으로 수치 입체도화를 통하여 구축하였으며, 정사 영상은 생성된 DEM과 KOMPSAT-3호와 KOMPSAT-3A에서 촬영 경사각+/–5도 이내로 촬영된 영상과 지상기준점을 사용하여 제작되었다. 기준 자료로 사용되는 DEM과 정사영상의 정확도는 각각 3.5 mLE90(Linear Error 90), 4.0 m CE90 정도이다

OGCSBN_2020_v36n6_2_1493_f0011.png 이미지

Fig. 11. Ground reference site distribution map for location accuracy validation.

Fig. 12는KOMPSAT-3A 영상자료의 Location accuracy 평가를 위해 구축된 사이트의 DEM, 정사 영상 예를 나타낸 것으로 생성된 DEM의 격자 간격은 5미터, 정사 영상은 0.5 m로 최종적으로 생성한 후, 기준자료 DB로 등록하여 사용하고 있다.

OGCSBN_2020_v36n6_2_1493_f0012.png 이미지

Fig. 12. Example of ground reference data for the location accuracy validation (Spain Barcelona).

Location accuracy 평가를 위한 영상자료 수집은 매월 남반구와 북반구가 골고루 분포되고 10사이트 이상이 평가 대상이 될 수 있도록 촬영계획을 수립하고 있으며, Fig. 13은 2016년 1월부터 2020년 5월까지 선정된 지역의 예를 나타낸 것이다.

OGCSBN_2020_v36n6_2_1493_f0013.png 이미지

Fig. 13. Distribution map of test sites used for monthly location accuracy validation (example).

Location accuracy 평가를 위해 필요한 영상과 지상 기준점은 영상 전반에 걸쳐 균등하게 분포된 9점 이상을 선정하여 평가하였으며, 영상에 해당하는 지상좌표는 앞절의Location accuracy 영상 품질 측정에 따라 계산 후, 정확도를 평가하였다. Fig. 14는 2016년 1월부터 2020년 5월까지의 Strip imaging mode의 POD/PAD를 사용한 경우의 Location accuracy를 나타낸 것으로 오른쪽 Y축은 OD/AD의 정확도, 왼쪽 Y축은 POD/PAD 정확도를 나타낸다. POD/PAD 사용한 Location accuracy 특성이 2017년 9월을 기준으로 정확도가 10 m 정도 차이가 나타남을 알 수 있다. 이는 앞에서 설명한 바와 같이 인공위성 하드웨어 특성변경에 따라 탑재체–자세제어 센서 사이의 Alignment를 재조정한 결과이다. 탑재체–자세제어 센서간의 Alignment 결정에 사용된 영상, 지상 기준점은 Location accuracy 평가에 사용된 모든 점을 사용하여 롤, 피치, 요의 회전각 형태로 결정하였다. Table5의 POD/PAD 사용한 경우, 탑재체–자세제어 센서사이의 Alignment 보정 전, 후의 정확도는 19.3 m CE90, 10.2 m CE90 정도로KOMPSAT-3A의 Strip imaging mode에서 규정하는 Location accuracy 요구 조건 70 m CE90을 만족하고 있음을 알 수 있다. 또한 Fig. 14의 그림을 살펴보면 2019년11월을 기준으로 POD/PAD 정확도가 다시 저하되는 현상이 일부 관찰되고 있다. 따라서 향후 일정기간동안 Location accuracy를 관련 인공위성 센서 특성과Location accuracy분석을 통하여 탑재체 –자세제어 센서 사이의 검보정 필요성 여부를 판단하여야 할 것이다.

OGCSBN_2020_v36n6_2_1493_f0014.png 이미지

Fig. 14. Location accuracy from Jan. 2016 to May. 2020

Table 5. Summary of location accuracy

OGCSBN_2020_v36n6_2_1493_t0005.png 이미지

5. 결론

본 논문에서는KOMPSAT-3A 개발 단계에서 정의된 발사 전후의 검보정 주요 과정 및 대표 영상 품질인자인 MTF, SNR, Location accuracy 측정 방법을 설명하였다. 이를 바탕으로 발사 후 초기 LEOPCal/Val이 완료된 이후 측정된 영상 품질 인자별 성능값과 최근 2016년부터 2020년 5월까지 KOMPSAT-3A호의 주요 품질인자인 MTF, SNR, Location accuracy현황과 특성을 기술하였다.

KOMPSAT-3A호 품질관리와 검보정은 발사 전, 초기 LEOP, 정상운영 기간의 3단계로 구분되며, 발사 전 품질관리와 검보정 작업은 지상실험 결과를 기반으로 이루어지며, 발사 후 수행되는 초기 LEOPCal/Val 단계는 Characterization, Cal/Val, Image restoration으로 진행되며, 대표적인 영상 품질인자는 MTF, SNR, Location accuracy의 3가지이다. 초기 LEOPCal/Val 완료된 이후 PAN과 MS의 MTF결과 값은 10 ~11%와 23%로 각각 측정되었으며, 영상 MTFC 수행한 경우 PAN 영상의 MTF는 약 2배 정도공간선명도가 향상되었다. SNR의 경우는 위성요구조건 100을 만족하고 있으며, Location accuracy는Strip imagingmode에서 13.5 m CE90 수준으로 측정되었다.

LEOPCal/Val이 완료된 이후, 정상 운영 기간 동안에도 지속적으로 품질관리를 수행하고 있다. Location accuracy의 경우에는 2017년 9월을 기준으로 롤, 피치, 요의 회전각 형태로 탑재체–자세제어 센서 사이의 Alignment 재결정하였으며, Strip imaging mode에서 보정 전 정확도 19.3 m CE90에서 보정 후 10.2 m CE90 결정되어 9.1 m의정확도가 향상되었다. 또한 2019년 11월을 기준으로 Location accuracy가 나빠지는 현상이 관찰됨에 따라 향후 탑재체–자세제어 센서 사이의 alignment의 재조정이 필요함을 알 수 있다.

Edge target을 기반으로 측정되는, MTF의 경우 2016년 11월을 기준으로 탑재체 Focus calibration을 통하여 평균 MTF값은11.6%로 KOMPSAT-3A 요구 정확도 8%를 만족하고 있으며, SNR의 경우에도 겨울철 Edge target에서 측정된 값을 제외하면 평균 100.6 정도 측정되고 있다. 본 논문에서도 언급하였듯이, 현재 적용되는 SNR수식자체는 계절적 특성, 타겟 표면 상태 등에 따라 민감하게 변화하므로 이를 최소화하고, 인공 타겟이 아닌 Side-slither와 같은 특수 촬영으로 SNR의 변화 특성을 모니터링하는 연구가 진행되어야 할 것이다.

사사

이 연구는 한국항공우주연구원의 2020년도 위성정보활용사업의 지원을 받아 수행되었으며, 이에 감사 드립니다.

References

  1. Avid Roman-Gonzalez, 2013, Compression Based Analysis of Image Artifacts: Application to Satellite Images, Doctorat ParisTech, Telecom ParisTech, Paris, French.
  2. Babawuro, U. and Z. Beiji, 2011. Satellite imagery quality evaluation using image quality metrics for quantitative cadastral analysis, International Journal of Computer Applications in Engineering Sciences, 2011: 391-395.
  3. Blank, P., 2008. Calibration Test Sites Selection and Characterization - WP210, TN-WP210-001-ARMINES Issue 0.2, VEGA Group, Villa San Diego, France, pp. 27-41.
  4. Cho, Y. M., 2002. Characteristics of the image quality parameter in satellite imaging instrument, Aerospace Engineering and Technology, 1(2): 66-74 (in Korean with English abstract).
  5. Crespi, M. and L. D. Vendictis, 2009. A procedure for high resolution satellite imagery quality assessment, Sensors, 9(5): 3289-3313. https://doi.org/10.3390/s90503289
  6. DMA(The Defense mapping Agency), 1987, Supplement to Department of Defense World Geodetic System 1984 Technical Report: Part I - Methods, Techniques, and Data Used in WGS 84 Development, The Defense mapping Agency, USA, pp. 18-43.
  7. Helder, D. L. and T. Y. Choi, 2002. IKONOS satellite in orbit modulation transfer function (MTF) measurement using edge and pulse method, Technical Report, Electrical Engineering Department, South Dakota State University, USA, pp. 23-54.
  8. Jung, O. C., H. J. Yim, D. W. Chung, E. K. Kim, and H. J. Kim, 2013. Analysis on Orbital Dynamics Operation Results of KOMPSAT-3 during Early Phase after Launch, The Korean Society for Aeronautical and Space Sciences, 41(4): 319-326 (in Korean with English abstract). https://doi.org/10.5139/JKSAS.2013.41.4.319
  9. Kim, D. W., T. J. Kim, and H. S. Kim, 2009. The correlation analysis between satellite image quality and application performance, Proceeded of the KSRS Spring Conference 2009, 42(4): 175-180 (in Korean with English abstract).
  10. Kohm, K. and Tira, N., 2004, On-orbit image quality and radiometric accuracy characterization of the OrbView-3 High Resolution Imaging Satellite, Proc. of the ASPRS 2004 Annual Conference, Denver, CO, May. 23-28, pp. 41-47.
  11. Kubik P, Lebegue L, Fourest S, Delvit J.-M., Lussy F., Greslou D., and Blanchet G, 2012, First in-flight results of Pleiades-1A innovative methods for optical calibration, Pros. of the ICSO (International Conference on Space Optics), Ajaccio, Corsica, FRA, Oct. 9-12, pp. 25-31.
  12. Lee, J. O. and S. M. Sung, 2019. Quality evaluation of UAV images using resolution target, Journal of the Korean Association of Geographic Information Studies, 22(1): 103-113 (in Korean with English abstract). https://doi.org/10.11108/KAGIS.2019.22.1.103
  13. Li, C. R., L. L. Tang, L. L. Ma, Y. S. Zhou, C. X. Gao, N. Wang, X. H. Li, X. H. Wang, and X. H. Zhu, 2015. A comprehensive calibration and validation site for information remote sensing, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 40(7): 1233-2015.
  14. Ma, L. L., 2013. Status and development plan of Baotou comprehensive Cal&Val site, Proc. of 36th CEOS Working Group on Calibration and Validation Plenary, Shanghai, CHN, May. 13-17, pp. 61-74.
  15. Ma, L. L., Y. G. Zhao, E. R. Woolliams, C. H. Dai, N. Wang, Y. K. Liu, L. Li, X. H. Wang , C. X. Gao, C. R. Li, and L. G. Tang, 2020. Uncertainty analysis for RadCalNet instrumented test sites using the Baotou sites BTCN and BSCN as examples, Remote Sensing, 12(11): 1696-1727. https://doi.org/10.3390/rs12111696
  16. Saunier, S., P. Goryl, G. Chander, R. Santer, M. Bouvet, B. Collet, A. Mambimba, and S. K. Aksakal, 2010. Radiometric, geometric, and image quality assessment of ALOS AVNIR-2 and PRISM sensors, IEEE Transactions on Geoscience and Remote Sensing, 48(10): 3855-3866. https://doi.org/10.1109/TGRS.2010.2048714
  17. Seo, D. C, J. H. Jung, and K. B. Hong, 2014. Accuracy of Precision Ground Coordinates Determination Using Inverse RPC in KOMPSAT Satellite Data, Aerospace Engineering and Technology, 13(2): 100-108 (in Korean with English abstract).
  18. Seo, D. C, J. O. Oh, C. N. Lee , D. H. Lee, and H. J. Choi, 2016. Geometric Calibration and Validation of Kompsat-3A AEISS-A Camera, Sensors, 16(10): 1-15. https://doi.org/10.1109/JSEN.2015.2493739
  19. Yoon, H. J., K. J. Park, J. R. Yim, and D. C. Seo, 2013. Absolute misalignment estimation with respect to a scanning image sensor, Remote Sensing Letters, 4(8): 754-763. https://doi.org/10.1080/2150704X.2013.793462
  20. Yoon, H. J, K. J. Park, J. R. Yim, H. T. Choi, and D. C. Seo, 2012. for High Agility Imaging LEO Satellite, Aerospace Engineering and Technology, 11(2): 80-86 (in Korean with English abstract).
  21. Viallefont-Robinet, F., 2010. Edge method for on-orbit defocus assessment, Optics Express, 18(20): 20845-20851. https://doi.org/10.1364/OE.18.020845
  22. Viallefont-Robinet, F. and D. Leger, 2010. Improvement of the edge method for on-orbit MTF measurement, Optics Express, 18(4): 3531-3545. https://doi.org/10.1364/OE.18.003531
  23. Zheng, X. W., Q. Huang, J. J. Wang, T. Y. Wang, and G. Zhang, 2018. Geometric accuracy evaluation of high-resolution satellite images based on Xianning test field, Sensors, 18(7): 2121-2132. https://doi.org/10.3390/s18072121