DOI QR코드

DOI QR Code

Analysis of Applicability of RPC Correction Using Deep Learning-Based Edge Information Algorithm

딥러닝 기반 윤곽정보 추출자를 활용한 RPC 보정 기술 적용성 분석

  • Jaewon Hur (Department of Civil Engineering, Seoul National University of Science and Technology) ;
  • Changhui Lee (Department of Civil Engineering, Seoul National University of Science and Technology) ;
  • Doochun Seo (Satellite Ground Station R&D Division, National Satellite Operation and Application Center, Korea Aerospace Research Institute) ;
  • Jaehong Oh (Department of Civil Engineering, Korea Maritime and Ocean University) ;
  • Changno Lee (Department of Civil Engineering, Seoul National University of Science and Technology) ;
  • Youkyung Han (Department of Civil Engineering, Seoul National University of Science and Technology)
  • 허재원 (서울과학기술대학교 건설시스템공학과) ;
  • 이창희 (서울과학기술대학교 건설시스템공학과) ;
  • 서두천 (한국항공우주연구원 지상국 기술연구부) ;
  • 오재홍 (한국해양대학교 건설공학과) ;
  • 이창노 (서울과학기술대학교 건설시스템공학과) ;
  • 한유경 (서울과학기술대학교 건설시스템공학과)
  • Received : 2024.07.30
  • Accepted : 2024.08.25
  • Published : 2024.08.31

Abstract

Most very high-resolution (VHR) satellite images provide rational polynomial coefficients (RPC) data to facilitate the transformation between ground coordinates and image coordinates. However, initial RPC often contains geometric errors, necessitating correction through matching with ground control points (GCPs). A GCP chip is a small image patch extracted from an orthorectified image together with height information of the center point, which can be directly used for geometric correction. Many studies have focused on area-based matching methods to accurately align GCP chips with VHR satellite images. In cases with seasonal differences or changed areas, edge-based algorithms are often used for matching due to the difficulty of relying solely on pixel values. However, traditional edge extraction algorithms,such as canny edge detectors, require appropriate threshold settings tailored to the spectral characteristics of satellite images. Therefore, this study utilizes deep learning-based edge information that is insensitive to the regional characteristics of satellite images for matching. Specifically,we use a pretrained pixel difference network (PiDiNet) to generate the edge maps for both satellite images and GCP chips. These edge maps are then used as input for normalized cross-correlation (NCC) and relative edge cross-correlation (RECC) to identify the peak points with the highest correlation between the two edge maps. To remove mismatched pairs and thus obtain the bias-compensated RPC, we iteratively apply the data snooping. Finally, we compare the results qualitatively and quantitatively with those obtained from traditional NCC and RECC methods. The PiDiNet network approach achieved high matching accuracy with root mean square error (RMSE) values ranging from 0.3 to 0.9 pixels. However, the PiDiNet-generated edges were thicker compared to those from the canny method, leading to slightly lower registration accuracy in some images. Nevertheless, PiDiNet consistently produced characteristic edge information, allowing for successful matching even in challenging regions. This study demonstrates that improving the robustness of edge-based registration methods can facilitate effective registration across diverse regions.

대부분의 고해상도 위성영상은 rational polynomial coefficients (RPC) 정보를 제공하여 지상좌표와 영상좌표 간 변환을 수행한다. 그러나 초기 RPC에는 기하학적 오차가 존재하여 ground control points (GCPs)와의 정합을 통해 보정을 수행하여야 한다. GCP chip은 항공정사영상에서 추출한 높이 정보가 포함된 작은 영상 패치(patch)이다. 많은 선행연구에서는 영역 기반 정합 기법을 사용하여 고해상도 위성영상과 GCP chip 간 정합을 수행하였다. 계절적 차이나 변화된 지역이 존재하는 영상에서는 화소값에 의존하는 정합이 어렵기 때문에 윤곽 정보를 추출하여 정합을 수행하기도 한다. 그러나 일반적으로 사용하는 canny 기법으로 정합에 용이한 윤곽을 추출하기 위해서는 위성영상의 분광 특성에 적절한 임계치를 설정해주어야 하는 문제가 존재한다. 따라서 본 연구에서는 위성영상의 지역별 특성에 둔감한 윤곽 정보를 활용하여 RPC 보정을 위한 정합을 수행하고자 한다. 이를 위해 딥러닝 기반 윤곽 정보 추출 네트워크인 pixel difference network (PiDiNet)를 활용하여 위성영상과 GCP chip의 윤곽맵(edge map)을 각각 생성하였다. 그 후 생성된 윤곽맵을 normalized cross-correlation과 relative edge cross-correlation의 입력데이터로 대체하여 영역 기반의 정합을 수행하였다. 마지막으로 RPC 보정에 필요한 변환모델 계수를 도출하기 위하여 data snooping 기법을 반복적으로 적용하여 참정합쌍을 추출하였다. 오정합쌍을 제거한 참정합쌍에 대해 root mean square error (RMSE)를 도출하고 기존에 사용하던 상관관계 기법과 결과를 정성적으로 비교하였다. 실험 결과, PiDiNet은 약 0.3~0.9 화소의 RMSE 값 분포를 보였으나 canny 기법에 비해 두꺼운 윤곽을 나타내어 일부 영상에서 미세하게 정확도가 저하되는 것을 확인하였다. 그러나 위성영상 내 특징적인 윤곽을 일관적으로 나타냄으로써 정합이 어려운 지역에서도 정합이 잘 수행되는 것을 확인하였다. 본 연구를 통해 윤곽 기반 정합 기법의 강인성을 개선하여 다양한 지역에서의 정합을 수행할 수 있을 것으로 예상된다.

Keywords

Acknowledgement

본 연구는 정부(과학기술정보통신부)의 재원으로 "위성영상의 센서 모델링 적용 유효성 검증 기술 개발 과제(과제번호 NRF-2021M1A3A4A11032016)"와 한국연구재단의 지원을 받아 수행하였습니다(No. 2021R1A2C2093671).

References

  1. Hughes, L. H., Marcos, D., Lobry, S., Tuia, D., and Schmitt, M., 2020. A deep learning framework for matching of SAR and optical imagery. ISPRS Journal of Photogrammetry and Remote Sensing, 169, 166-179. https://doi.org/10.1016/j.isprsjprs.2020.09.012
  2. Kartal,H.,Alganci, U., and Sertel, E., 2018.Automated orthorectification of VHR satellite images by SIFT-based RPC refinement. ISPRS International Journal of Geo-Information, 7(6), 229. https://doi.org/10.3390/ijgi7060229
  3. Kim, T., Yun, Y., Lee, C., Bovolo, F., and Han, Y., 2023. FMPR-net: False matching point removal network for very-high-resolution satellite image registration. IEEE Transactions on Geoscience and Remote Sensing, 61, 1-16. https://doi.org/10.1109/TGRS.2023.3333811
  4. Lee, K., and Yoon, J., 2019. GCP chip automatic extraction of satellite imagery using interest point in North Korea. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 37(4), 211-218. https://doi.org/10.7848/ksgpc.2019.37.4.211
  5. Li, L., Han, L., Ding, M., Cao, H., and Hu, H., 2021. A deep learning semantic template matching framework for remote sensing image registration. ISPRS Journal of Photogrammetry and Remote Sensing, 181, 205-217. https://doi.org/10.1016/j.isprsjprs.2021.09.012
  6. Oh, J., Hur, J., Han, Y., and Lee, C., 2024. GCP chip generation and comparison for high-resolution satellite data processing. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 42(1), 71-79. https://doi.org/10.7848/ksgpc.2024.42.1.71
  7. Oh, J., Lee, C., Eo, Y., and Bethel, J., 2012. Automated georegistration of high-resolution satellite imagery using a RPC model with airborne lidar information. Photogrammetric Engineering and Remote Sensing, 78(10), 1045-1056. https://doi.org/10.14358/PERS.78.10.1045
  8. Oh, J., Seo, D., Lee, C., Seong, S., and Choi, J., 2022. Automated RPCs bias compensation for KOMPSAT imagery using orthoimage GCP chips in Korea. IEEE Access, 10, 118465-118474. https://doi.org/10.1109/ACCESS.2022.3217788
  9. Park, J., Kim, T., Lee, C., and Han, Y., 2021. RPC correction of KOMPSAT-3A satellite image through automatic matching point extraction using unmanned aerial vehicle imagery.Korean Journal of Remote Sensing, 37(5-1), 1135-1147. https://doi.org/10.7780/kjrs.2021.37.5.1.24
  10. Su, Z., Liu, W., Yu, Z., Hu, D., Liao, Q., Tian, Q., et al., 2021. Pixel difference networks for efficient edge detection. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), Online, Oct. 11-17, pp. 5117-5127. https://doi.org/10.1109/ICCV48922.2021.00507
  11. Wang, S., Quan, D., Liang, X., Ning, M., Guo, Y., and Jiao, L., 2018. A deep learning framework for remote sensing image registration. ISPRS Journal of Photogrammetry and Remote Sensing, 145, 148-164. https://doi.org/10.1016/j.isprsjprs.2017.12.012