1. 서론
구름은 대기 중에 떠 있는 작은 물방울이나 얼음 알갱이들 또는 두가지가 혼합된 혼합물 등으로 구성되며 지구 표면의 약 2/3를 덮고 있다. 위성영상내에서의 구름은 눈, 얼음, 백색 인공 물체 등과 같은 일부 다른 지상 물체 또는 지표면과 유사한 반사도 특성을 가지기 때문에 구름과 구름이 아닌 영역을 분리하는 구름탐지는 매우 어려운 작업이라고 볼 수 있다(Mohajerani et al., 2018). 구름탐지과정에서는 두꺼운 구름과 균질한 구름은 일반적으로 뚜렷한 특징을 가지기 때문에 쉽게 식별이 가능하지만(Wei et al., 2020) 얇은 구름, 부서진 구름, 구름 그림자 등에서는 여러 한계점들이 존재하였다. 그 중에서 얇은 권운과 같은 반투명(semi-transparent cloud) 구름은 항상 언급되어진 문제로, 위성영상내에서 구름과 배경의 대비가 약하고(Xie et al., 2017) 지표면과 혼합되어져 나타나기 때문에(Shao et al., 2019) 대부분의 구름탐지에서 반투명한 얇은 구름은 쉽게 놓쳐지고 제대로 탐지를 하지 못하며(Xie et al., 2017) 많은 어려움을 주는 대상으로 작용한다.
지금까지 위성영상을 활용한 구름탐지 연구가 많이 수행되었다. 구름탐지 연구에서 경계값 기법은 현업에서도 많이 활용되어지는 전통적인 기법으로, 구름 픽셀을 식별하기 위해 적절한 경계값으로 구름영역을 비구름 영역과 분리한다(Li et al., 2022). Automated Cloud Cover Assessment system (ACCA; Irish et al., 2006), Haze Optimized Transformation (HOT; Zhang et al., 2002), Whiteness (Gomez-Chova et al., 2007), Function of Mask (FMask; Zhu et al., 2012)와 같이 경계값 기반 구름탐지 연구들이 있다. 경계값 기법은 비교적 간단하다는 장점이 있으나, 얇은 구름, 밝은 표면위의 구름과 같은 일부 복잡한 경우에서는 성능이 떨어진다는 한계점이 존재한다(Luo et al., 2022).
최근에는 컴퓨터 기술의 발전으로 머신러닝 기법들이 위성 분야에서도 적용되어지면서, 구름탐지연구에도 많이 활용되어지고 있다. 머신러닝 기반 접근법은 통계적 방법의 데이터 학습과 분석 기능을 향상시키는 머신러닝을 활용하여 구름 영역을 식별하는 방식이며, 경계값 기법의 한계점을 극복하기 위해 다양한 연구들에서 해당 알고리즘을 활용하고 있다(Luo et al., 2022). 실제 머신러닝을 활용한 Wei et al. (2020), Liu et al. (2021) 연구에서는 기존 경계값 기법보다 더 좋은 성능을 보인 것을 확인하였다. 머신러닝 기반 구름탐지 연구에서는 Convolutional Neural Network (CNN; Xie et al., 2017), Random Forest (RF; Ghasemian et al., 2018), Support Vector Machine (SVM; Zhang et al., 2022) 모델 등을 활용한 다양한 연구들이 있다.
따라서 본 연구에서는 최근 많이 활용되어지고 머신러닝 기법을 활용하여 구름탐지의 한계점으로 언급되어지는 얇은 반투명 구름탐지 개선을 위주로 연구를 수행하고자 한다.
2. 연구지역 및 자료
1) 연구지역 및 기간
본 연구의 연구지역은 대한민국을 포함한 동아시아영역(위도 33°N–43°N, 경도 124°N–132°N)으로, 각 계절별로 서로 다른 기단의 영향을 받아 사계절이 뚜렷하다는 특징이 있다. 본 연구에서는 다양한 형태의 구름을 형성시키는 여름의 경우를 위해 해당 지역을 연구지역으로 선정하였다. 연구기간으로는 2021년 4월에서 8월로, 여름을 포함하였다.
Fig. 1. Study area of this study.
2) 연구자료
(1) GeoKompsat-2A (GK-2A)/Advanced Meteorological Imager (AMI) L1B 자료
GK-2A는 대한민국의 정지궤도 위성으로 전구 영역을 10분, 한반도 영역을 2분 단위로 관측하고 있다. 가시채널 4개, 근적외채널 2개, 적외채널 10개로 총 16개의 채널로 구성되어져 있으며 채널별 공간해상도는 0.64 μm는 0.5 km, 적외는 2 km, 그 외는 1 km이다. 본 연구에서 활용된 채널은 Table 1과 같다.
Table 1. GK-2A/AMI Channel Information
(2) GK-2A Cloud Mask 자료
GK-2A 구름 탐지 자료의 공간 해상도는 2 km, 시간 해상도는 전구 영역은 10분, 한반도 영역은 2분으로, 각 픽셀별로 Cloud, Probably Cloud, Clear의 3개의 Flag를 통해 구름 존재 여부를 표현하고 있다. 본 연구에서는 구름 영역과 청천역을 구분하는 것을 목적으로 하고 있기 때문에 Cloud, Probably Cloud의 구분은 불필요하다 판단하여 Probably Cloud를 Cloud Flag로 포함하여 Cloud, Clear 총 2개의 Flag로 활용하였다. 해당자료는 본 연구의 정성적 비교 수행시에 연구 결과와의 비교를 목적으로 활용되었다.
(3) Terra/MOderate Resolution Imaging Spectroradiometer (MODIS) MOD35 자료
본 연구에서는 GK-2A의 구름탐지 자료와 더불어 Terra/MODIS의 구름탐지 자료를 사용하였다. Terra/MODIS는 극 궤도 위성으로 연구 영역을 하루에 한번 관측하며 관측 시간의 경우 UTC 기준 01시와 04시 사이에 한반도 상공을 관측한다. MOD35 자료는 Terra/MODIS 구름탐지 자료로, 공간해상도는 1 km이며 시간 해상도는 1 day로 swath 형태로 제공된다. MOD35 자료는 픽셀당 48 Bit 필드 형식으로 제공되며(Strabala et al., 2005; Ackerman et al., 2010), 본 연구에서는 구름의 Reference 자료로 활용하기 위해 MOD35자료에서 Unobstructed FOV Quality Flag의 Cloudy와 Uncertain을 Cloud로, 나머지는 Clear로 정의하여 활용하였고, 반투명 구름의 Reference 자료로는 Thin Cirrus Detected를 활용하였다.
3. 연구 방법
본 연구는 공간 일치화와 입력 데이터셋 구축 과정 수행 후, 모델별 훈련 및 검증을 통해 산출되어지는 구름탐지 결과들을 정량적, 정성적으로 평가함으로써 연구가 진행된다.
1) 공간 일치화
정지궤도 위성인 GK-2A 자료와 극궤도 위성인 MODIS 자료는 각각 geostationary, swath로 다른 Projection 형태이기 때문에 공간 일치화 과정이 필요하다. 따라서 GK-2A 및 MODIS 위성영상을 Great Circle Distance (GCD)를 활용하여 공간 일치화 과정을 수행하였다. 아래의 식은 임의의 점 P1, P2의 GCD를 구하는 공식이며 R은 지구 반지름, θ은 위도, ø은 경도를 의미한다.
\(\begin{aligned}\begin{array}{l}D=2 \times R \times \sin \varnothing \\ \sqrt{\sin ^{2}\left(\frac{\theta_{1}-\theta_{2}}{2}\right)+\cos \theta_{1} \times \cos \theta_{2} \times \sin \emptyset^{2}\left(\frac{\emptyset_{1}-\emptyset_{2}}{2}\right)} \\\end{array}\\\end{aligned}\)
2) 입력 데이터셋 구축
(1) 반사도 변환
GK-2A는 각 채널별로 관측한 자료를 일련의 전처리 과정을 거쳐 16개의 채널별 L1B 기본영상 자료를 생성한다. L1B자료란 기상센서가 관측한 원시자료(raw data)에서 복사 및 위치보정을 수행하여 사용자가 실제 사용이 가능한 자료를 의미한다. Random Forest 모델의 입력변수로 활용하는 반사도 자료 산출을 위해서는 L1B 자료에서 반사도 변환 과정이 필요하기 때문에, 국가기상위성센터에서 제공해주는 Conversion table을 활용하여 픽셀 값들을 반사도 및 밝기온도로 변환하는 작업을 수행하였다.
(2) RGB 합성
본 연구에서 활용하는 CNN 모델에는 RGB영상이 입력자료로 들어가기 때문에 반사도 변환 과정이 수행된 GK-2A 반사도 자료를 활용하여 RGB 합성영상을 산출하였다. RGB 합성에는 Han et al. (2019)의 연구를 참고하였다.
(3) 자료 샘플링
본 연구에서는 훈련 데이터는 145개, 검증 데이터는 61개, 테스트 데이터는 88개의 scene 설정하여 모델 훈련 및 검증을 진행하였다. 그리고 훈련 데이터 셋에서 구름, 반투명 구름, 청천의 픽셀 분포가 어느 한쪽으로 치우치는 경우를 대비하여, 모델 성능을 높이기 위해 훈련 데이터 픽셀 구성을 구름(Cloud), 반투명 구름(Transparent Cloud), 청천(Clear)이 Fig. 3과 같이 약 1:1:1이 되도록 구성하였다.
Fig. 2. Percentage of pixels in the dataset.
Fig. 3. Random forest feature Importance.
3) Machine Learning
(1) Random Forest (RF)
Random Forest는 의사결정나무를 형성하여 각 트리가 분류한 결과에서 투표를 실시하여 가장 많이 득표한 결과를 최종 분류 결과로 선택하는 방식으로 높은 정확도와 안정성을 보이는 모델이다. 본 연구에서는 RF 입력데이터로 Zhang et al. (2019), Wang et al. (2020), Liu et al. (2021)를 참고하여 GK-2A 채널별 반사도 자료를 선정하였고, Zhu et al. (2012)를 참고하여 Hot Test 지수를 선정하였다. Hot Test는 연무와 얇은 구름에 대한 스펙트럼 반응은 청색 파장과 적색 파장의 차이가 있다는 것을 이용한 기법이다(Zhu et al., 2012). 최종적인 RF 입력 변수를 선정하기 위해 변수 중요도를 산출하였고, 변수 중요도의 결과를 토대로 모델의 최종 입력변수로 Fig. 3과 같이 선정하여 활용하였다. 모델의 하이퍼파라미터(Hyper-parameter)로 나무 개수는 100, 불순도 측정방식은 ‘Entropy’ 지수로 설정하였다.
(2) Convolutional Neural Networks (CNN)
CNN은 이미지를 직접 학습하고 패턴을 찾아 활용함으로써 공간 정보를 유지한 상태로 이미지 분류를 수행하는 모델이다. CNN에서 Segmentation 알고리즘은 이미지 내의 객체를 픽셀 단위로 구분하여 각 pixel이 어떤 물체의 class 인지 구분하는 알고리즘으로, 객체의 검출과 분류를 동시에 수행할 수 있어 널리 사용되는 기법이다. 본 연구에서는 동일한 객체들끼리는 한 번에 Masking을 수행하는 Semantic Segmentation 알고리즘에 해당하는 U-Net 모델을 활용하였다. U-Net 모델은 Ronneberger et al. (2015) 연구에서 처음 제안된 모델로, 학습을 통해 특징을 추출하는 수축 경로(contracting path)와 탐지한 이미지를 산출하기 위한 확장경로(extracting path)가 결합된 네트워크 구성의 형태가 ‘U’자여서 ‘U-Net’으로 불린다(Jo et al., 2022). 본 연구의 모델에 적용된 하이퍼파라미터(Hyperparameter)는 Table 2와 같다.
Table 2. U-Net hyperparameter
(3) Random Forest + CNN
두 모델은 구름 탐지에 있어 서로 다른 방식으로 수행하기 때문에 서로 다른 특징을 지니고 있고, 이에 따라 각자의 장단점이 존재한다. 따라서 본 연구에서는 두 모델 결과에 대한 상호보완 가능성을 확인하기 위해, RF결과와 CNN결과를 합한 RF+CNN 결과물을 산출하였다. 그리고 해당 결과는 개별 모델들의 구름탐지 개선 가능성이 존재하는지에 대해 분석하기 위해 정성적·정량적 비교 수행 시에 활용하였다.
4) 모델 검증 지수
본 연구에서는 모델별 결과와 Reference 데이터를 검증 지수를 활용하여 각각 정량적 평가를 수행하였다. 활용된 검증 지수로는 Contingency Table을 활용한 검증 방법으로, 카테고리형 자료의 검증(Tran et al., 2019; Wang et al., 2019)에 많이 활용되어지는 지수를 사용하였다. Hit, False, Miss, Cor-reject 지수들을 통해 Probability of Detection (POD), False Alarm Ratio (FAR), Overall Accuracy (OA)를 계산하였다. POD, OA은 1에 가까운 값을 가질수록 모델이 구름을 잘 탐지한 것을 의미하며 FAR은 0에 가까운 값을 가질수록 모델이 구름을 오탐지 하는 경우가 적다는 것을 의미한다.
4. 연구 결과
1) 정성적 결과
본 연구에서는 RF, CNN, RF+CNN 결과를 GK-2A RGB 영상, GK-2A Cloud Mask 및 MODIS Cloud Mask 자료를 활용하여 정성적 평가를 수행하였다(Figs. 4, 5). 모델별 결과들은 Cloud, Transparent Cloud, Clear로 3개의 Flag로 산출이 되지만, 본 연구의 연구목적은 얇은 반투명 구름을 중점적으로 개선시킨 구름탐지이기 때문에 Transparent Cloud는 Cloud로 포함시켜 최종적으로 Cloud, Clear로 2개의 Flag를 가진 결과로 평가를 수행하였다. 먼저 Fig. 4의 경우, RF와 CNN 모두 다양한 형태의 구름 및 반투명 구름까지 잘 탐지한 것을 확인할 수 있다. 빨간 화살표가 위치한 호수 지역의 경우, GK-2A Cloud Mask (b)에서는 구름으로 오탐지하는 경우가 있었으나 RF (d)와 CNN (e)은 오탐지 없이 Clear 영역으로 구분하였다. 그리고 초록 영역의 경우, MODIS Cloud Mask (c)와 (d)에서는 구름인 부분이 잘 채워지지 않고 미탐지 된 것을 확인할 수 있다. 반면에 (e)는 미탐지 없이 잘 탐지되었고, 이에 따라 RF+CNN (f)에서는 (d)의 미탐지부분이 (e)를 통해 보완됨에 따라, 잘 탐지된 결과로 확인할 수 있다.
Fig. 4. Qualitative results comparison (2021.05.22.0150 UTC): (a) GK-2A RGB image, (b) GK-2A cloud mask, (c) MODIS cloud mask, (d) RF result, (e) CNN result, and (f) RF+CNN result.
Fig. 5. Qualitative results comparison (2021.08.23.0120 UTC): (a) GK-2A RGB image, (b) GK-2A cloud mask, (c) MODIS cloud mask, (d) RF result, (e) CNN result, and (f) RF+CNN result.
Fig. 5의 경우 또한 RF (d), CNN (e) 모두 구름을 잘 탐지한 것을 확인할 수 있다. 매우 얇은 반투명 구름이 위치하고 있는 빨간 영역을 보면, 잘 탐지된 모델별 결과와는 달리, GK-2A Cloud Mask (b)에서는 미탐지 되었다. 녹색 영역의 경우 CNN (e)에서 놓친 구름을 RF (d)에서 잘 탐지됨에 따라 RF+CNN (f)에서는 (e)의 미탐지부분이 (d)를 통해 보안되어 잘 탐지된 결과로 확인할 수 있다.
2) 정량적 결과
본 연구는 선정된 검증지표들을 활용하여 모델별 구름탐지 결과물에 대해 정량적 평가를 수행하였다(Table 3). RF의 경우 POD값이 90.88%, FAR은 2.85%, OA는 92.00%를 나타냈다. CNN은 POD값이 94.43%, FAR은 3.18%, OA는 94.11%를 나타냈다. RF와 CNN의 결과물을 합한 RF+CNN의 경우 POD값이 94.61%, FAR은 3.03%, OA는 94.29%를 나타냈다. POD값의 경우 RF+CNN이 94.61%로 제일 높은 값을 보였고, RF가 90.88%로 가장 낮은 값을 보였다. FAR의 경우 RF가 2.85%로 제일 낮은 값을 보였고 CNN이 3.18%로 제일 높은 값을 나타냈다. OA를 기준으로는 RF+CNN이 94.29%로 제일 높은 값을 보였고, RF는 92.00%로 제일 낮은 값을 보였다. 따라서 RF+CNN이 RF보다 POD값이 3.73%, OA값이 2.29%개선된 것을 확인할 수 있었고 FAR값이 CNN보다 0.15%가 개선된 것을 확인할 수 있었다.
Table 3. Quantitative results
5. 요약 및 결론
본 연구는GK-2A/AMI 영상을 활용하여 반투명 구름 개선을 목적으로 머신러닝 모델(Random Forest, CNN)을 통한 구름탐지 연구를 수행하였다. 반투명 구름 개선을 위해 입력 데이터 셋에서의 구름, 반투명 구름, 청천의 비율이 약 1:1:1이 되도록 구성을 하였고 구름과 반투명 구름의 Reference 자료로 MOD35자료의 MODIS Cloud Mask와 Cirrus Mask를 활용하였다. 모델 훈련 및 테스트를 통해 산출된 RF, CNN의 구름탐지 결과와 더불어 두 모델의 결과를 결합한 RF+CNN 결과까지 산출하였고, 모델 결과물들의 정성적 평가 결과, 반투명 구름을 포함한 다양한 구름 형태들을 모두 잘 탐지한 것을 확인하였다. 또한 GK-2A Cloud Mask 및 MODIS Cloud Mask에서 구름을 미탐지, 오탐지하는 경우를 모델 결과에서는 잘 탐지한 것을 확인할 수 있었다. 정량적 평가결과, POD는 RF가 90.88%, CNN은 94.43%, RF+CNN은 94.61%였 으 며 FAR은 RF가 2.85%, CNN은 3.18%, RF+CNN은 3.03%로 POD는 RF+CNN이 높은 탐지율을 보여주었고 FAR은 RF가 낮은 오탐지율을 나타냈다. OA는 RF가 92%, CNN은 4.11%, RF+CNN은 94.29%로 RF+CNN이 높은 전체 정확도를 나타냈다.
본 연구는 반투명 구름을 중점적으로 입력 데이터 세트를 구성하여 MOD35자료의 Cloud Mask 및 Cirrus Mask 자료를 활용한 머신러닝 모델을 구축함으로써 반투명 구름을 개선시킨 구름탐지 결과물을 산출하였다는 것에 의의를 둘 수 있다.
구름탐지 자료는 계절의 영향을 많이 받기 때문에 구름으로 많이 혼동되어지는 적설이 존재하는 겨울과 같이 계절을 고려하는 분석을 수행한다면 더 좋은 결과가 나올 것으로 사료된다.
Acknowledgement
본 논문은 기상청의 기상관측장비 핵심기술 및 관측자료 활용기법 개발 연구사업의 일환인 "항공기상 자동관측 기술개발(연구과제번호: KMI2021-02710)"의 지원으로 수행되었습니다.
References
- Ackerman, S., 2010. Discriminating clear-sky from cloud with modis, Journal of Geophysical Research: Atmospheres, 103(D24): 32141-32157. https://doi.org/10.1029/1998JD200032
- Ghasemian, N. and M. Akhoondzadeh, 2018. Introducing two Random Forest based methods for cloud detection in remote sensing images, Advances in Space Research, 62(2): 288-303. https://doi.org/10.1016/j.asr.2018.04.030
- Gomez-Chova, L., G. Camps-Valls, J. Calpe-Maravilla, L. Guanter, and J. Moreno, 2007. Cloud-screening algorithm for envisat/meris multispectral images, IEEE Transactions on Geoscience and Remote Sensing, 45: 4105-4118. https://doi.org/10.1109/TGRS.2007.905312
- Han, H.G., K.S. Lee, S. Choi, M. Seo, D. Jin, N.H. Seong, D. Jung, H. Kim, and K.S. Han, 2019. Comparison of visualization enhancement techniques for himawari-8/ahi-based true color image production, Korean Journal of Remote Sensing, 35(3): 483-489. https://doi.org/10.7780/kjrs.2019.35.3.11
- Irish, R.R., J.L. Barker, S.N. Goward, and T. Arvidson, 2006. Characterization of the landsat-7 etm+ automated cloud-cover assessment (ACCA) algorithm, Photogrammetric Engineering & Remote Sensing, 72(10): 1179-1188. https://doi.org/10.14358/PERS.72.10.1179
- Jo, W. and K.H. Park, 2022. Deep learning based land cover change detection using u-net, Journal of the Korean Geographical Society, 57(3): 297-306. https://doi.org/10.22776/kgs.2022.57.3.297
- Li, X., X. Yang, X. Li, S. Lu, Y. Ye, and Y. Ban, 2022. GCDB-UNet: A novel robust cloud detection approach for remote sensing images, Knowledge-Based Systems, 238: 107890. https://doi.org/10.1016/j.knosys.2021.107890
- Liu, C., S. Yang, D. Di, Y. Yang, C. Zhou, X. Hu, and B.J. Sohn, 2022. A machine learning-based cloud detection algorithm for the Himawari-8 spectral image, Advances in Atmospheric Sciences, 39(12): 1994-2007. https://doi.org/10.1007/s00376-021-0366-x
- Luo, C., S. Feng, X. Yang, Y. Ye, X. Li, B. Zhang, Z. Chen, and Y. Quan, 2022. LWCDnet: A Lightweight Network for Efficient Cloud Detection in Remote Sensing Images, IEEE Transactions on Geoscience and Remote Sensing, 60: 1-16. https://doi.org/10.1109/TGRS.2022.3173661
- Mohajerani, S., T.A. Krammer, and P. Saeedi, 2018. Cloud detection algorithm for remote sensing images using fully convolutional neural networks, arXiv preprint arXiv:1810.05782. https://doi.org/10.48550/arXiv.1810.05782
- Ronneberger, O., P. Fischer, T. Brox, 2015. U-net: Convolutional networks for biomedical image segmentation, In: Navab, N., Hornegger, J., Wells, W., Frangi, A. (eds), Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, Springer, Cham, Switzerland, vol. 9351, pp. 234-241. https://doi.org/10.1007/978-3-319-24574-4_28
- Shao, Z., Y. Pan, C. Diao, and J. Cai, 2019. Cloud detection in remote sensing images based on multiscale features-convolutional neural network, IEEE Transactions on Geoscience and Remote Sensing, 57(6): 4062-4076. https://doi.org/10.1109/TGRS.2018.2889677
- Strabala, K.I., 2005. MODIS cloud mask user's guide, University of Wisconsin-Madison, Madison, WI, USA.
- Tran, H., P. Nguyen, M. Ombadi, K.l. Hsu, S. Sorooshian, and X. Qing, 2019. A cloud-free modis snow cover dataset for the contiguous united states from 2000 to 2017, Scientific Data, 6(1): 1-13. https://doi.org/10.1038/sdata.2018.300
- Wang, C.X., S. Platnick, S.K. Meyer, Z.B. Zhang, and Y.P. Zhou, 2020; A machine-learning-based cloud detection and thermodynamic-phase classification algorithm using passive spectral observations, Atmospheric Measurement Techniques, 13: 2257-2277. https://doi.org/10.5194/amt-13-2257-2020
- Wang, X., M. Min, F. Wang, J. Guo, B. Li, and S. Tang, 2019. Intercomparisons of cloud mask products among fengyun-4a, himawari-8, and modis, IEEE Transactions on Geoscience and Remote Sensing, 57: 8827-8839. https://doi.org/10.1109/TGRS.2019.2923247
- Wei, J., W. Huang, Z. Li, L. Sun, X. Zhu, Q. Yuan, L. Liu, and M. Cribb, 2020. Cloud detection for landsat imagery by combining the random forest and superpixels extracted via energy-driven sampling segmentation approaches, Remote Sensing of Environment, 248: 112005. https://doi.org/10.1016/j.rse.2020.112005
- Xie, F., M. Shi, Z. Shi, J. Yin, and D. Zhao, 2017. Multilevel cloud detection in remote sensing images based on deep learning, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 10(8): 3631-3640. https://doi.org/10.1109/JSTARS.2017.2686488
- Zhang, C., X. Zhuge, and F. Yu, 2019. Development of a high spatiotemporal resolution cloud-type classification approach using Himawari-8 and CloudSat, International Journal of Remote Sensing, 40(16): 6464-6481. https://doi.org/10.1080/01431161.2019.1594438
- Zhang, W., S. Jin, L. Zhou, X. Xie, F. Wang, L. Jiang, Y. Zheng, P. Qu, G. Li, and X. Pan, 2022. Multi-feature embedded learning SVM for cloud detection in remote sensing images, Computers and Electrical Engineering, 102: 108177. https://doi.org/10.1016/j.compeleceng.2022.108177
- Zhang, Y., B. Guindon, and J. Cihlar, 2002. An image transform to characterize and compensate for spatial variations in thin cloud contamination of landsat images, Remote Sensing of Environment, 82: 173-187. https://doi.org/10.1016/j.compeleceng.2022.108177
- Zhu, Z. and C.E. Woodcock, 2012. Object-based cloud and cloud shadow detection in landsat imagery, Remote Sensing of Environment, 118: 83-94. https://doi.org/10.1016/j.rse.2011.10.028