DOI QR코드

DOI QR Code

A Study on Daytime Transparent Cloud Detection through Machine Learning: Using GK-2A/AMI

기계학습을 통한 주간 반투명 구름탐지 연구: GK-2A/AMI를 이용하여

  • Byeon, Yugyeong (Major of Spatial Information Engineering, Division of Earth Environmental Science, Pukyong National University) ;
  • Jin, Donghyun (Major of Spatial Information Engineering, Division of Earth Environmental Science, Pukyong National University) ;
  • Seong, Noh-hun (Major of Spatial Information Engineering, Division of Earth Environmental Science, Pukyong National University) ;
  • Woo, Jongho (Major of Spatial Information Engineering, Division of Earth Environmental Science, Pukyong National University) ;
  • Jeon, Uujin (Major of Spatial Information Engineering, Division of Earth Environmental Science, Pukyong National University) ;
  • Han, Kyung-Soo (Major of Spatial Information Engineering, Division of Earth Environmental Science, Pukyong National University)
  • 변유경 (부경대학교 지구환경시스템과학부 공간정보시스템공학과) ;
  • 진동현 (부경대학교 지구환경시스템과학부 공간정보시스템공학과) ;
  • 성노훈 (부경대학교 지구환경시스템과학부 공간정보시스템공학과) ;
  • 우종호 (부경대학교 지구환경시스템과학부 공간정보시스템공학과) ;
  • 전우진 (부경대학교 지구환경시스템과학부 공간정보시스템공학과) ;
  • 한경수 (부경대학교 지구환경시스템과학부 공간정보시스템공학과)
  • Received : 2022.11.15
  • Accepted : 2022.11.22
  • Published : 2022.12.31

Abstract

Clouds are composed of tiny water droplets, ice crystals, or mixtures suspended in the atmosphere and cover about two-thirds of the Earth's surface. Cloud detection in satellite images is a very difficult task to separate clouds and non-cloud areas because of similar reflectance characteristics to some other ground objects or the ground surface. In contrast to thick clouds, which have distinct characteristics, thin transparent clouds have weak contrast between clouds and background in satellite images and appear mixed with the ground surface. In order to overcome the limitations of transparent clouds in cloud detection, this study conducted cloud detection focusing on transparent clouds using machine learning techniques (Random Forest [RF], Convolutional Neural Networks [CNN]). As reference data, Cloud Mask and Cirrus Mask were used in MOD35 data provided by MOderate Resolution Imaging Spectroradiometer (MODIS), and the pixel ratio of training data was configured to be about 1:1:1 for clouds, transparent clouds, and clear sky for model training considering transparent cloud pixels. As a result of the qualitative comparison of the study, bothRF and CNN successfully detected various types of clouds, including transparent clouds, and in the case of RF+CNN, which mixed the results of the RF model and the CNN model, the cloud detection was well performed, and was confirmed that the limitations of the model were improved. As a quantitative result of the study, the overall accuracy (OA) value of RF was 92%, CNN showed 94.11%, and RF+CNN showed 94.29% accuracy.

구름은 대기 중에 떠 있는 작은 물방울이나 얼음 알갱이들 또는 혼합물 등으로 구성되며 지구 표면의 약 2/3를 덮고 있다. 위성영상내에서의 구름은 일부 다른 지상 물체 또는 지표면과 유사한 반사도 특성으로 인해 구름과 구름이 아닌 영역을 분리하는 구름탐지는 매우 어려운 작업이다. 특히 뚜렷한 특징을 가지는 두꺼운 구름과 달리 얇은 반투명 구름은 위성영상내에서 구름과 배경의 대비가 약하고 지표면과 혼합되어져 나타나기 때문에 대부분 구름탐지에서 쉽게 놓쳐지고 많은 어려움을 주는 대상으로 작용한다. 이러한 구름탐지의 반투명 구름의 한계점을 극복하기 위해, 본 연구에서는 머신러닝 기법(Random Forest [RF], Convolutional Neural Networks [CNN])을 활용하여 반투명 구름을 중점으로 한 구름탐지 연구를 수행하였다. Reference자료로는 MOderate Resolution Imaging Spectroradiometer (MODIS)에서 제공하는 MOD35자료에서 Cloud Mask와 Cirrus Mask를 활용하였으며 반투명 구름 픽셀을 고려한 모델 훈련을 위해 훈련 데이터의 픽셀 비율을 구름, 반투명 구름, 청천이 약 1:1:1이 되도록 구성하였다. 연구의 정성적 비교 결과, RF와 CNN 모두 반투명 구름을 포함한 다양한 형태의 구름 등을 잘 탐지하였고, RF 모델 결과와 CNN 모델 결과를 혼합한 RF+CNN경우에는 개별 모델의 한계점을 개선시키며 구름탐지가 잘 수행되어진 것을 확인하였다. 연구의 정량적 결과 RF의 전체 정확도(OA) 값은 92%, CNN은 94.11%를 보였고, RF+CNN은 94.29%의 정확도를 보였다.

Keywords

1. 서론

구름은 대기 중에 떠 있는 작은 물방울이나 얼음 알갱이들 또는 두가지가 혼합된 혼합물 등으로 구성되며 지구 표면의 약 2/3를 덮고 있다. 위성영상내에서의 구름은 눈, 얼음, 백색 인공 물체 등과 같은 일부 다른 지상 물체 또는 지표면과 유사한 반사도 특성을 가지기 때문에 구름과 구름이 아닌 영역을 분리하는 구름탐지는 매우 어려운 작업이라고 볼 수 있다(Mohajerani et al., 2018). 구름탐지과정에서는 두꺼운 구름과 균질한 구름은 일반적으로 뚜렷한 특징을 가지기 때문에 쉽게 식별이 가능하지만(Wei et al., 2020) 얇은 구름, 부서진 구름, 구름 그림자 등에서는 여러 한계점들이 존재하였다. 그 중에서 얇은 권운과 같은 반투명(semi-transparent cloud) 구름은 항상 언급되어진 문제로, 위성영상내에서 구름과 배경의 대비가 약하고(Xie et al., 2017) 지표면과 혼합되어져 나타나기 때문에(Shao et al., 2019) 대부분의 구름탐지에서 반투명한 얇은 구름은 쉽게 놓쳐지고 제대로 탐지를 하지 못하며(Xie et al., 2017) 많은 어려움을 주는 대상으로 작용한다.

지금까지 위성영상을 활용한 구름탐지 연구가 많이 수행되었다. 구름탐지 연구에서 경계값 기법은 현업에서도 많이 활용되어지는 전통적인 기법으로, 구름 픽셀을 식별하기 위해 적절한 경계값으로 구름영역을 비구름 영역과 분리한다(Li et al., 2022). Automated Cloud Cover Assessment system (ACCA; Irish et al., 2006), Haze Optimized Transformation (HOT; Zhang et al., 2002), Whiteness (Gomez-Chova et al., 2007), Function of Mask (FMask; Zhu et al., 2012)와 같이 경계값 기반 구름탐지 연구들이 있다. 경계값 기법은 비교적 간단하다는 장점이 있으나, 얇은 구름, 밝은 표면위의 구름과 같은 일부 복잡한 경우에서는 성능이 떨어진다는 한계점이 존재한다(Luo et al., 2022).

최근에는 컴퓨터 기술의 발전으로 머신러닝 기법들이 위성 분야에서도 적용되어지면서, 구름탐지연구에도 많이 활용되어지고 있다. 머신러닝 기반 접근법은 통계적 방법의 데이터 학습과 분석 기능을 향상시키는 머신러닝을 활용하여 구름 영역을 식별하는 방식이며, 경계값 기법의 한계점을 극복하기 위해 다양한 연구들에서 해당 알고리즘을 활용하고 있다(Luo et al., 2022). 실제 머신러닝을 활용한 Wei et al. (2020), Liu et al. (2021) 연구에서는 기존 경계값 기법보다 더 좋은 성능을 보인 것을 확인하였다. 머신러닝 기반 구름탐지 연구에서는 Convolutional Neural Network (CNN; Xie et al., 2017), Random Forest (RF; Ghasemian et al., 2018), Support Vector Machine (SVM; Zhang et al., 2022) 모델 등을 활용한 다양한 연구들이 있다.

따라서 본 연구에서는 최근 많이 활용되어지고 머신러닝 기법을 활용하여 구름탐지의 한계점으로 언급되어지는 얇은 반투명 구름탐지 개선을 위주로 연구를 수행하고자 한다.

2. 연구지역 및 자료

1) 연구지역 및 기간

본 연구의 연구지역은 대한민국을 포함한 동아시아영역(위도 33°N–43°N, 경도 124°N–132°N)으로, 각 계절별로 서로 다른 기단의 영향을 받아 사계절이 뚜렷하다는 특징이 있다. 본 연구에서는 다양한 형태의 구름을 형성시키는 여름의 경우를 위해 해당 지역을 연구지역으로 선정하였다. 연구기간으로는 2021년 4월에서 8월로, 여름을 포함하였다.

OGCSBN_2022_v38n6_1_1181_f0001.png 이미지

Fig. 1. Study area of this study.

2) 연구자료

(1) GeoKompsat-2A (GK-2A)/Advanced Meteorological Imager (AMI) L1B 자료

GK-2A는 대한민국의 정지궤도 위성으로 전구 영역을 10분, 한반도 영역을 2분 단위로 관측하고 있다. 가시채널 4개, 근적외채널 2개, 적외채널 10개로 총 16개의 채널로 구성되어져 있으며 채널별 공간해상도는 0.64 μm는 0.5 km, 적외는 2 km, 그 외는 1 km이다. 본 연구에서 활용된 채널은 Table 1과 같다.

Table 1. GK-2A/AMI Channel Information

OGCSBN_2022_v38n6_1_1181_t0001.png 이미지

(2) GK-2A Cloud Mask 자료

GK-2A 구름 탐지 자료의 공간 해상도는 2 km, 시간 해상도는 전구 영역은 10분, 한반도 영역은 2분으로, 각 픽셀별로 Cloud, Probably Cloud, Clear의 3개의 Flag를 통해 구름 존재 여부를 표현하고 있다. 본 연구에서는 구름 영역과 청천역을 구분하는 것을 목적으로 하고 있기 때문에 Cloud, Probably Cloud의 구분은 불필요하다 판단하여 Probably Cloud를 Cloud Flag로 포함하여 Cloud, Clear 총 2개의 Flag로 활용하였다. 해당자료는 본 연구의 정성적 비교 수행시에 연구 결과와의 비교를 목적으로 활용되었다.

(3) Terra/MOderate Resolution Imaging Spectroradiometer (MODIS) MOD35 자료

본 연구에서는 GK-2A의 구름탐지 자료와 더불어 Terra/MODIS의 구름탐지 자료를 사용하였다. Terra/MODIS는 극 궤도 위성으로 연구 영역을 하루에 한번 관측하며 관측 시간의 경우 UTC 기준 01시와 04시 사이에 한반도 상공을 관측한다. MOD35 자료는 Terra/MODIS 구름탐지 자료로, 공간해상도는 1 km이며 시간 해상도는 1 day로 swath 형태로 제공된다. MOD35 자료는 픽셀당 48 Bit 필드 형식으로 제공되며(Strabala et al., 2005; Ackerman et al., 2010), 본 연구에서는 구름의 Reference 자료로 활용하기 위해 MOD35자료에서 Unobstructed FOV Quality Flag의 Cloudy와 Uncertain을 Cloud로, 나머지는 Clear로 정의하여 활용하였고, 반투명 구름의 Reference 자료로는 Thin Cirrus Detected를 활용하였다.

3. 연구 방법

본 연구는 공간 일치화와 입력 데이터셋 구축 과정 수행 후, 모델별 훈련 및 검증을 통해 산출되어지는 구름탐지 결과들을 정량적, 정성적으로 평가함으로써 연구가 진행된다.

1) 공간 일치화

정지궤도 위성인 GK-2A 자료와 극궤도 위성인 MODIS 자료는 각각 geostationary, swath로 다른 Projection 형태이기 때문에 공간 일치화 과정이 필요하다. 따라서 GK-2A 및 MODIS 위성영상을 Great Circle Distance (GCD)를 활용하여 공간 일치화 과정을 수행하였다. 아래의 식은 임의의 점 P1, P2의 GCD를 구하는 공식이며 R은 지구 반지름, θ은 위도, ø은 경도를 의미한다.

\(\begin{aligned}\begin{array}{l}D=2 \times R \times \sin \varnothing \\ \sqrt{\sin ^{2}\left(\frac{\theta_{1}-\theta_{2}}{2}\right)+\cos \theta_{1} \times \cos \theta_{2} \times \sin \emptyset^{2}\left(\frac{\emptyset_{1}-\emptyset_{2}}{2}\right)} \\\end{array}\\\end{aligned}\)

2) 입력 데이터셋 구축

(1) 반사도 변환

GK-2A는 각 채널별로 관측한 자료를 일련의 전처리 과정을 거쳐 16개의 채널별 L1B 기본영상 자료를 생성한다. L1B자료란 기상센서가 관측한 원시자료(raw data)에서 복사 및 위치보정을 수행하여 사용자가 실제 사용이 가능한 자료를 의미한다. Random Forest 모델의 입력변수로 활용하는 반사도 자료 산출을 위해서는 L1B 자료에서 반사도 변환 과정이 필요하기 때문에, 국가기상위성센터에서 제공해주는 Conversion table을 활용하여 픽셀 값들을 반사도 및 밝기온도로 변환하는 작업을 수행하였다.

(2) RGB 합성

본 연구에서 활용하는 CNN 모델에는 RGB영상이 입력자료로 들어가기 때문에 반사도 변환 과정이 수행된 GK-2A 반사도 자료를 활용하여 RGB 합성영상을 산출하였다. RGB 합성에는 Han et al. (2019)의 연구를 참고하였다.

(3) 자료 샘플링

본 연구에서는 훈련 데이터는 145개, 검증 데이터는 61개, 테스트 데이터는 88개의 scene 설정하여 모델 훈련 및 검증을 진행하였다. 그리고 훈련 데이터 셋에서 구름, 반투명 구름, 청천의 픽셀 분포가 어느 한쪽으로 치우치는 경우를 대비하여, 모델 성능을 높이기 위해 훈련 데이터 픽셀 구성을 구름(Cloud), 반투명 구름(Transparent Cloud), 청천(Clear)이 Fig. 3과 같이 약 1:1:1이 되도록 구성하였다.

OGCSBN_2022_v38n6_1_1181_f0002.png 이미지

Fig. 2. Percentage of pixels in the dataset.

OGCSBN_2022_v38n6_1_1181_f0003.png 이미지

Fig. 3. Random forest feature Importance.

3) Machine Learning

(1) Random Forest (RF)

Random Forest는 의사결정나무를 형성하여 각 트리가 분류한 결과에서 투표를 실시하여 가장 많이 득표한 결과를 최종 분류 결과로 선택하는 방식으로 높은 정확도와 안정성을 보이는 모델이다. 본 연구에서는 RF 입력데이터로 Zhang et al. (2019), Wang et al. (2020), Liu et al. (2021)를 참고하여 GK-2A 채널별 반사도 자료를 선정하였고, Zhu et al. (2012)를 참고하여 Hot Test 지수를 선정하였다. Hot Test는 연무와 얇은 구름에 대한 스펙트럼 반응은 청색 파장과 적색 파장의 차이가 있다는 것을 이용한 기법이다(Zhu et al., 2012). 최종적인 RF 입력 변수를 선정하기 위해 변수 중요도를 산출하였고, 변수 중요도의 결과를 토대로 모델의 최종 입력변수로 Fig. 3과 같이 선정하여 활용하였다. 모델의 하이퍼파라미터(Hyper-parameter)로 나무 개수는 100, 불순도 측정방식은 ‘Entropy’ 지수로 설정하였다.

(2) Convolutional Neural Networks (CNN)

CNN은 이미지를 직접 학습하고 패턴을 찾아 활용함으로써 공간 정보를 유지한 상태로 이미지 분류를 수행하는 모델이다. CNN에서 Segmentation 알고리즘은 이미지 내의 객체를 픽셀 단위로 구분하여 각 pixel이 어떤 물체의 class 인지 구분하는 알고리즘으로, 객체의 검출과 분류를 동시에 수행할 수 있어 널리 사용되는 기법이다. 본 연구에서는 동일한 객체들끼리는 한 번에 Masking을 수행하는 Semantic Segmentation 알고리즘에 해당하는 U-Net 모델을 활용하였다. U-Net 모델은 Ronneberger et al. (2015) 연구에서 처음 제안된 모델로, 학습을 통해 특징을 추출하는 수축 경로(contracting path)와 탐지한 이미지를 산출하기 위한 확장경로(extracting path)가 결합된 네트워크 구성의 형태가 ‘U’자여서 ‘U-Net’으로 불린다(Jo et al., 2022). 본 연구의 모델에 적용된 하이퍼파라미터(Hyperparameter)는 Table 2와 같다.

Table 2. U-Net hyperparameter

OGCSBN_2022_v38n6_1_1181_t0002.png 이미지

(3) Random Forest + CNN

두 모델은 구름 탐지에 있어 서로 다른 방식으로 수행하기 때문에 서로 다른 특징을 지니고 있고, 이에 따라 각자의 장단점이 존재한다. 따라서 본 연구에서는 두 모델 결과에 대한 상호보완 가능성을 확인하기 위해, RF결과와 CNN결과를 합한 RF+CNN 결과물을 산출하였다. 그리고 해당 결과는 개별 모델들의 구름탐지 개선 가능성이 존재하는지에 대해 분석하기 위해 정성적·정량적 비교 수행 시에 활용하였다.

4) 모델 검증 지수

본 연구에서는 모델별 결과와 Reference 데이터를 검증 지수를 활용하여 각각 정량적 평가를 수행하였다. 활용된 검증 지수로는 Contingency Table을 활용한 검증 방법으로, 카테고리형 자료의 검증(Tran et al., 2019; Wang et al., 2019)에 많이 활용되어지는 지수를 사용하였다. Hit, False, Miss, Cor-reject 지수들을 통해 Probability of Detection (POD), False Alarm Ratio (FAR), Overall Accuracy (OA)를 계산하였다. POD, OA은 1에 가까운 값을 가질수록 모델이 구름을 잘 탐지한 것을 의미하며 FAR은 0에 가까운 값을 가질수록 모델이 구름을 오탐지 하는 경우가 적다는 것을 의미한다.

4. 연구 결과

1) 정성적 결과

본 연구에서는 RF, CNN, RF+CNN 결과를 GK-2A RGB 영상, GK-2A Cloud Mask 및 MODIS Cloud Mask 자료를 활용하여 정성적 평가를 수행하였다(Figs. 4, 5). 모델별 결과들은 Cloud, Transparent Cloud, Clear로 3개의 Flag로 산출이 되지만, 본 연구의 연구목적은 얇은 반투명 구름을 중점적으로 개선시킨 구름탐지이기 때문에 Transparent Cloud는 Cloud로 포함시켜 최종적으로 Cloud, Clear로 2개의 Flag를 가진 결과로 평가를 수행하였다. 먼저 Fig. 4의 경우, RF와 CNN 모두 다양한 형태의 구름 및 반투명 구름까지 잘 탐지한 것을 확인할 수 있다. 빨간 화살표가 위치한 호수 지역의 경우, GK-2A Cloud Mask (b)에서는 구름으로 오탐지하는 경우가 있었으나 RF (d)와 CNN (e)은 오탐지 없이 Clear 영역으로 구분하였다. 그리고 초록 영역의 경우, MODIS Cloud Mask (c)와 (d)에서는 구름인 부분이 잘 채워지지 않고 미탐지 된 것을 확인할 수 있다. 반면에 (e)는 미탐지 없이 잘 탐지되었고, 이에 따라 RF+CNN (f)에서는 (d)의 미탐지부분이 (e)를 통해 보완됨에 따라, 잘 탐지된 결과로 확인할 수 있다.

OGCSBN_2022_v38n6_1_1181_f0004.png 이미지

Fig. 4. Qualitative results comparison (2021.05.22.0150 UTC): (a) GK-2A RGB image, (b) GK-2A cloud mask, (c) MODIS cloud mask, (d) RF result, (e) CNN result, and (f) RF+CNN result.

OGCSBN_2022_v38n6_1_1181_f0005.png 이미지

Fig. 5. Qualitative results comparison (2021.08.23.0120 UTC): (a) GK-2A RGB image, (b) GK-2A cloud mask, (c) MODIS cloud mask, (d) RF result, (e) CNN result, and (f) RF+CNN result.

Fig. 5의 경우 또한 RF (d), CNN (e) 모두 구름을 잘 탐지한 것을 확인할 수 있다. 매우 얇은 반투명 구름이 위치하고 있는 빨간 영역을 보면, 잘 탐지된 모델별 결과와는 달리, GK-2A Cloud Mask (b)에서는 미탐지 되었다. 녹색 영역의 경우 CNN (e)에서 놓친 구름을 RF (d)에서 잘 탐지됨에 따라 RF+CNN (f)에서는 (e)의 미탐지부분이 (d)를 통해 보안되어 잘 탐지된 결과로 확인할 수 있다.

2) 정량적 결과

본 연구는 선정된 검증지표들을 활용하여 모델별 구름탐지 결과물에 대해 정량적 평가를 수행하였다(Table 3). RF의 경우 POD값이 90.88%, FAR은 2.85%, OA는 92.00%를 나타냈다. CNN은 POD값이 94.43%, FAR은 3.18%, OA는 94.11%를 나타냈다. RF와 CNN의 결과물을 합한 RF+CNN의 경우 POD값이 94.61%, FAR은 3.03%, OA는 94.29%를 나타냈다. POD값의 경우 RF+CNN이 94.61%로 제일 높은 값을 보였고, RF가 90.88%로 가장 낮은 값을 보였다. FAR의 경우 RF가 2.85%로 제일 낮은 값을 보였고 CNN이 3.18%로 제일 높은 값을 나타냈다. OA를 기준으로는 RF+CNN이 94.29%로 제일 높은 값을 보였고, RF는 92.00%로 제일 낮은 값을 보였다. 따라서 RF+CNN이 RF보다 POD값이 3.73%, OA값이 2.29%개선된 것을 확인할 수 있었고 FAR값이 CNN보다 0.15%가 개선된 것을 확인할 수 있었다.

Table 3. Quantitative results

OGCSBN_2022_v38n6_1_1181_t0003.png 이미지

5. 요약 및 결론

본 연구는GK-2A/AMI 영상을 활용하여 반투명 구름 개선을 목적으로 머신러닝 모델(Random Forest, CNN)을 통한 구름탐지 연구를 수행하였다. 반투명 구름 개선을 위해 입력 데이터 셋에서의 구름, 반투명 구름, 청천의 비율이 약 1:1:1이 되도록 구성을 하였고 구름과 반투명 구름의 Reference 자료로 MOD35자료의 MODIS Cloud Mask와 Cirrus Mask를 활용하였다. 모델 훈련 및 테스트를 통해 산출된 RF, CNN의 구름탐지 결과와 더불어 두 모델의 결과를 결합한 RF+CNN 결과까지 산출하였고, 모델 결과물들의 정성적 평가 결과, 반투명 구름을 포함한 다양한 구름 형태들을 모두 잘 탐지한 것을 확인하였다. 또한 GK-2A Cloud Mask 및 MODIS Cloud Mask에서 구름을 미탐지, 오탐지하는 경우를 모델 결과에서는 잘 탐지한 것을 확인할 수 있었다. 정량적 평가결과, POD는 RF가 90.88%, CNN은 94.43%, RF+CNN은 94.61%였 으 며 FAR은 RF가 2.85%, CNN은 3.18%, RF+CNN은 3.03%로 POD는 RF+CNN이 높은 탐지율을 보여주었고 FAR은 RF가 낮은 오탐지율을 나타냈다. OA는 RF가 92%, CNN은 4.11%, RF+CNN은 94.29%로 RF+CNN이 높은 전체 정확도를 나타냈다.

본 연구는 반투명 구름을 중점적으로 입력 데이터 세트를 구성하여 MOD35자료의 Cloud Mask 및 Cirrus Mask 자료를 활용한 머신러닝 모델을 구축함으로써 반투명 구름을 개선시킨 구름탐지 결과물을 산출하였다는 것에 의의를 둘 수 있다.

구름탐지 자료는 계절의 영향을 많이 받기 때문에 구름으로 많이 혼동되어지는 적설이 존재하는 겨울과 같이 계절을 고려하는 분석을 수행한다면 더 좋은 결과가 나올 것으로 사료된다.

사사

본 논문은 기상청의 기상관측장비 핵심기술 및 관측 자료 활용기법 개발 연구사업의 일환인 “항공기상 자동 관측 기술개발(연구과제번호: KMI2021-02710)”의 지원으로 수행되었습니다.

References

  1. Ackerman, S., 2010. Discriminating clear-sky from cloud with modis, Journal of Geophysical Research: Atmospheres, 103(D24): 32141-32157. https://doi.org/10.1029/1998JD200032
  2. Ghasemian, N. and M. Akhoondzadeh, 2018. Introducing two Random Forest based methods for cloud detection in remote sensing images, Advances in Space Research, 62(2): 288-303. https://doi.org/10.1016/j.asr.2018.04.030
  3. Gomez-Chova, L., G. Camps-Valls, J. Calpe-Maravilla, L. Guanter, and J. Moreno, 2007. Cloud-screening algorithm for envisat/meris multispectral images, IEEE Transactions on Geoscience and Remote Sensing, 45: 4105-4118. https://doi.org/10.1109/TGRS.2007.905312
  4. Han, H.G., K.S. Lee, S. Choi, M. Seo, D. Jin, N.H. Seong, D. Jung, H. Kim, and K.S. Han, 2019. Comparison of visualization enhancement techniques for himawari-8/ahi-based true color image production, Korean Journal of Remote Sensing, 35(3): 483-489. https://doi.org/10.7780/kjrs.2019.35.3.11
  5. Irish, R.R., J.L. Barker, S.N. Goward, and T. Arvidson, 2006. Characterization of the landsat-7 etm+ automated cloud-cover assessment (ACCA) algorithm, Photogrammetric Engineering & Remote Sensing, 72(10): 1179-1188. https://doi.org/10.14358/PERS.72.10.1179
  6. Jo, W. and K.H. Park, 2022. Deep learning based land cover change detection using u-net, Journal of the Korean Geographical Society, 57(3): 297-306. https://doi.org/10.22776/kgs.2022.57.3.297
  7. Li, X., X. Yang, X. Li, S. Lu, Y. Ye, and Y. Ban, 2022. GCDB-UNet: A novel robust cloud detection approach for remote sensing images, Knowledge-Based Systems, 238: 107890. https://doi.org/10.1016/j.knosys.2021.107890
  8. Liu, C., S. Yang, D. Di, Y. Yang, C. Zhou, X. Hu, and B.J. Sohn, 2022. A machine learning-based cloud detection algorithm for the Himawari-8 spectral image, Advances in Atmospheric Sciences, 39(12): 1994-2007. https://doi.org/10.1007/s00376-021-0366-x
  9. Luo, C., S. Feng, X. Yang, Y. Ye, X. Li, B. Zhang, Z. Chen, and Y. Quan, 2022. LWCDnet: A Lightweight Network for Efficient Cloud Detection in Remote Sensing Images, IEEE Transactions on Geoscience and Remote Sensing, 60: 1-16. https://doi.org/10.1109/TGRS.2022.3173661
  10. Mohajerani, S., T.A. Krammer, and P. Saeedi, 2018. Cloud detection algorithm for remote sensing images using fully convolutional neural networks, arXiv preprint arXiv:1810.05782. https://doi.org/10.48550/arXiv.1810.05782
  11. Ronneberger, O., P. Fischer, T. Brox, 2015. U-net: Convolutional networks for biomedical image segmentation, In: Navab, N., Hornegger, J., Wells, W., Frangi, A. (eds), Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, Springer, Cham, Switzerland, vol. 9351, pp. 234-241. https://doi.org/10.1007/978-3-319-24574-4_28
  12. Shao, Z., Y. Pan, C. Diao, and J. Cai, 2019. Cloud detection in remote sensing images based on multiscale features-convolutional neural network, IEEE Transactions on Geoscience and Remote Sensing, 57(6): 4062-4076. https://doi.org/10.1109/TGRS.2018.2889677
  13. Strabala, K.I., 2005. MODIS cloud mask user's guide, University of Wisconsin-Madison, Madison, WI, USA.
  14. Tran, H., P. Nguyen, M. Ombadi, K.l. Hsu, S. Sorooshian, and X. Qing, 2019. A cloud-free modis snow cover dataset for the contiguous united states from 2000 to 2017, Scientific Data, 6(1): 1-13. https://doi.org/10.1038/sdata.2018.300
  15. Wang, C.X., S. Platnick, S.K. Meyer, Z.B. Zhang, and Y.P. Zhou, 2020; A machine-learning-based cloud detection and thermodynamic-phase classification algorithm using passive spectral observations, Atmospheric Measurement Techniques, 13: 2257-2277. https://doi.org/10.5194/amt-13-2257-2020
  16. Wang, X., M. Min, F. Wang, J. Guo, B. Li, and S. Tang, 2019. Intercomparisons of cloud mask products among fengyun-4a, himawari-8, and modis, IEEE Transactions on Geoscience and Remote Sensing, 57: 8827-8839. https://doi.org/10.1109/TGRS.2019.2923247
  17. Wei, J., W. Huang, Z. Li, L. Sun, X. Zhu, Q. Yuan, L. Liu, and M. Cribb, 2020. Cloud detection for landsat imagery by combining the random forest and superpixels extracted via energy-driven sampling segmentation approaches, Remote Sensing of Environment, 248: 112005. https://doi.org/10.1016/j.rse.2020.112005
  18. Xie, F., M. Shi, Z. Shi, J. Yin, and D. Zhao, 2017. Multilevel cloud detection in remote sensing images based on deep learning, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 10(8): 3631-3640. https://doi.org/10.1109/JSTARS.2017.2686488
  19. Zhang, C., X. Zhuge, and F. Yu, 2019. Development of a high spatiotemporal resolution cloud-type classification approach using Himawari-8 and CloudSat, International Journal of Remote Sensing, 40(16): 6464-6481. https://doi.org/10.1080/01431161.2019.1594438
  20. Zhang, W., S. Jin, L. Zhou, X. Xie, F. Wang, L. Jiang, Y. Zheng, P. Qu, G. Li, and X. Pan, 2022. Multi-feature embedded learning SVM for cloud detection in remote sensing images, Computers and Electrical Engineering, 102: 108177. https://doi.org/10.1016/j.compeleceng.2022.108177
  21. Zhang, Y., B. Guindon, and J. Cihlar, 2002. An image transform to characterize and compensate for spatial variations in thin cloud contamination of landsat images, Remote Sensing of Environment, 82: 173-187. https://doi.org/10.1016/j.compeleceng.2022.108177
  22. Zhu, Z. and C.E. Woodcock, 2012. Object-based cloud and cloud shadow detection in landsat imagery, Remote Sensing of Environment, 118: 83-94. https://doi.org/10.1016/j.rse.2011.10.028