1. 서론
광학 위성 영상은 광범위한 지역에 대하여 주기적인 관찰과 분석이 용이하여 다양한 분야에서 활용되고 있다. 그러나 가시광선 및 적외선 파장은 일반적으로 구름에 의해 상당 부분 차단되어 구름 아래 지표면 정보를 획득하기 어렵게 만든다. 이로 인해 구름과 구름 그림자는 지표면 모니터링 및 분석 과정에서 주요 장애물로 인식되며, 이를 탐지하고 제거하기 위한 연구가 활발히 진행되고 있다. 구름 및 구름 그림자의 경우 사용자가 수동으로 디지타이징(digitizing)한 참값 데이터를 활용하는 것이 정확도 측면에서는 신뢰성이 가장 높다. 하지만 위성 영상 내의 객체를 수동으로 라벨링(labeling)하는 과정은 많은 시간 및 인력이 요구된다. 이러한 문제를 해결하기 위해 지구관측위성위원회(Committee on Earth Observation Satellites, CEOS)는 사용자가 쉽게 접근하고 활용할 수 있는 위성 영상을 제공하고자 분석 준비자료(Analysis Ready Data, ARD)라는 개념을 도입하였으며, 육상 분석준비자료 요구사양인 CEOS ARD of Land를 제시하였다(Committee on Earth Observation Satellites, 2021). CEOS 외에도 미 국 지질조사국(United States Geological Survey, USGS)과 유럽우주국(European Space Agency, ESA) 등 여러 기관 및 기업들도 ARD 데이터를 제공하고 있다. USGS는 Landsat ARD를, ESA는 Sentinel-2ARD를 통해 다양한 지표 분석에 활용할 수 있는 데이터를 제공하고 있다(United States Geological Surcey, 2023; European Space Agency, 2015). ARD는 추가적인 전처리 과정을 생략하고 바로 분석에 활용할 수 있는 사전 처리된 위성 영상 데이터를 포함하며, 여기에는 구름, 구름 그림자, 지형 그림자, 데이터가 없는 영역 등의 존재 여부를 제공하는 사용가능한 데이터 마스크(Usable Data Mask, UDM)가 포함된다. 이러한 UDM의 정확한 구축을 위해서는 구름 및 구름 그림자 탐지 연구가 필수적이다.
기존 연구에서 구름 및 구름 그림자 탐지에 사용한 기법은 크게 임계값 기반 기법과 인공지능 기반 기법 두 가지로 나눌 수 있다. 먼저, 임계값 기반 기법은 특정 임계값을 설정하여 위성영상의 픽셀 값을 비교해 구름의 유무를 구분하는 것을 말한다. 대표적인 임계값 기반 알고리즘으로는 Sentinel-2 Correction (Sen2Cor), Function of mask (Fmask), Landsat Ecosystem Disturbance Adaptive Processing System (LEDAPS)이 있다. Sen2Cor는 Sentinel-2 위성의 Level-1C 데이터를 대기, 지형, 얇은 구름에 대해 보정하여 Level-2A 데이터로 변환하는 알고리즘이다. 이 알고리즘은 대기 보정을 통해 지표 반사율을 정확히 추정할 수 있으며, 에어로졸 광학두께, 수증기, 구름, 눈의 존재 여부를 포함한 다양한 마스크를 생성한다. 그러나 일부 복잡한 표면 반사율과 기상 조건에서는 정확도가 떨어지는 한계점이 존재한다(Main-Knorn et al., 2017). Fmask는 Landsat 위성의 구름, 구름 그림자, 수계 등을 자동으로 감지하는 알고리즘으로 구름의 물리적 특성과 근적외선 밴드에서의 반사 감소 효과를 이용한다. 얇은 저고도 구름 탐지나 고반사율의 저온 지표면에 대해 오인이 발생할 수 있으며, 복잡한 지표 반사율에서의 성능이 저하되는 한계가 있다(Zhu and Woodcock, 2012). LEDAPS는 Landsat 위성 데이터를 대기 보정을 통해 지표 반사율로 변환하는 알고리즘이다. 이 과정에서 구름을 마스킹하여 지표반사율을 보다 정확하게 산출하였다. 그러나 복잡한 대기 조건이나 지표 조건에 따라 보정의 정확도가 영향을 받을 수 있는 한계가 존재한다(Masek et al., 2012). 세 가지 알고리즘을 통해 볼 때, 임계값 기반 알고리즘은 복잡한 지표 반사율이나 기상 조건에서 정확도가 떨어지는 공통적인 한계가 있는 것으로 확인할 수 있다.
두 번째로, 인공지능 기반 기법은 데이터를 바탕으로 모델을 훈련시켜 구름을 탐지하는 방법으로 머신러닝 기반 기법과 딥러닝 기반 기법이 있다. 기술의 발전으로 인해 최근 구름 및 구름 그림자 탐지 분야에서는 임계값 기반 기법보다 인공지능 기반 기법이 더 많이 사용되고 있다. Frazier and Hemingway (2021)는 Sentinel-2 위성영상을 이용해 구름을 탐지하고 마스킹하는 머신러닝 기반 기법을 제안하였다. Support vector machine, 랜덤포레스트(Random forest), 뉴럴 네트워크(Neural network) 등 다양한 알고리즘을 평가한 결과, 머신러닝 기법이 임계값 기반 기법보다 우수한 성능을 보였다. 그러나 이러한 모델들은 복잡성으로 인해 학습 시간이 길어질 수 있으며, 다양한 환경에서 성능 차이가 발생하는 한계가 있다. Zhang et al. (2024)은 Landsat 8/9 Operational Land Imager(OLI) 영상에서 구름과 구름 그림자를 탐지하기 위해 Learning Attention Network Algorithm을 제안하였다. 이 모델은 U-Net 구조에 어텐션 메커니즘(attention mechanism)을 추가하여 더 높은 정확도를 달성했으며, Fmask 및 기존 U-Net 모델보다 우수한 성능을 보였다.
위성 영상 분석에서 고해상도의 UDM을 구축하는 것은 원격탐사 분야에서 위성 영상을 효과적으로 활용하는 데 있어 매우 중요하다. 특히, 구름 및 구름 그림자의 유무는 위성 영상의 품질에 큰 영향을 미치며, 고품질의 UDM 구축은 정확한 구름 및 구름 그림자 탐지를 수행하는 데 필수적이다. 하지만 기존 연구들은 임계값 기반 기법의 경우 대용량 데이터의 처리에 한계가 있으며, 학습기반 기법을 사용한 연구에서도 주로 10 m 이상의 중저해상도 위성영상에 집중되어 있는 경향을 보인다. 따라서 3 m 이하의 국내 고해상도 위성영상의 UDM 구축을 위한 딥러닝 네트워크 개발에 대한 연구가 필요하다.
본 연구에서는 고해상도 위성영상에서 UDM 구축 가능성을 분석하기 위하여, 대용량 데이터 처리에 유리한 딥러닝 모델을 사용하여 구름 및 구름 그림자를 우선적으로 탐지하고자 하였다. 실험을 위해 AI-Hub에서 제공하는 KOMPSAT-3/3A호 영상 기반의 구름 영상과 라벨 데이터를 제공하는 ‘위성 영상 객체 탐지 데이터 셋’과 USGS에서 제공하는 Landsat-8 영상 기반의 Spatial Procedures for Automated Removal of Cloud and Shadow (SPARCS) 데이터 셋, 중국의 우한대학교에서 개발한 Landsat-8 영상 기반의 Wuhan University (WHU) 데이터 셋을 DeepLabV3+ 네트워크 훈련에 사용하였다(Kim and Oh, 2020; Hughes and Hayes, 2014; Ji et al., 2021). 딥러닝 네트워크는 구름, 구름 그림자, 청천의 세 가지 범주를 정확하게 식별하고 분류하는 것을 목표로 한다. 딥러닝 네트워크의 성능을 검증하기 위해 중저해상도인 Landsat-8 및 Sentinel-2 위성영상과 고해상도인 Compact Advanced Satellite 500-1 (CAS500-1) 위성영상을 사용하였다. 위성영상과 함께 제공되는 실제 UDM 데이터와 딥러닝 네트워크를 통해 생성된 구름 및 구름 그림자 마스크의 유사성을 분석하였다. 최종적으로 UDM 데이터가 제공되지 않는 고해상도 위성영상의 UDM 구축 가능성을 확인하기 위해 KOMPSAT-3/3A호 영상에 적용하여 생성된 구름 및 구름 그림자 탐지 결과를 분석하였다.
2. 연구 자료 및 방법
2.1. 구름 및 구름 그림자 탐지를 위한 딥러닝 네트워크
본 연구에서는 다양한 딥러닝 네트워크 중 여러 연구에서 안정성과 높은 성능이 입증된 DeepLabV3+ 네트워크를 구름 및 구름 그림자 탐지에 사용하였다. DeepLabV3+ 네트워크는 인코더-디코더 구조로 설계되었으며, 인코더의 끝에 위치한 Atrous Spatial Pyramid Pooling 모듈을 통해 복잡한 영상에서 정확한 분할을 가능하게 한다. 인코더가 추출한 특징 맵은 디코더를 통해 복원되어 원본 영상의 해상도로 업샘플링되어 최종 분할 맵을 생성한다(Chen et al., 2018). 인코더 부분은 Xception 모듈 대신 ResNet-50을 사용하여 영상의 심층 특징을 추출한다. ResNet-50의 특징은 잔차 연결에 있으며, 이는 깊은 네트워크에서도 효과적인 학습을 가능하게 한다. 이러한 잔차 연결은 학습 과정에서 발생할 수 있는 기울기 소실 문제를 완화하여 깊은 네트워크에서도 안정적인 학습을 가능하게 한다(He et al., 2016).
2.2. 연구 자료
구름과 구름 그림자를 탐지하기 위해 본 연구에서는 AI Hub 데이터 셋, SPARCS 데이터 셋, WHU 데이터 셋을 사용하였다. KOMPSAT 3/3A호 기반으로 제작된 AI Hub 데이터 셋은 6,015 × 5,400 크기의 총 141개의 영상으로 구축되어 있으며, 두꺼운 구름, 얇은 구름, 구름 그림자, 청천 네 가지 클래스로 라벨링된 데이터를 제공한다(Kim and Oh, 2020). Landsat-8 기반으로 제작된 SPARCS 데이터 셋은 1,000 × 1,000 크기의 총 100개의 영상으로 구축되어 있으며, 구름 그림자, 물위의 구름 그림자, 물, 얼음/눈, 육지, 구름, 홍수 지역의 일곱 가지 클래스로 라벨링된 데이터를 제공한다(Hughes and Hayes, 2014). Landsat-8 기반으로 제작된 WHU 데이터 셋은 512 × 512 크기의 총 1,320개의 영상으로 구축되어 있으며, 구름, 구름 그림자, 청천 세 가지 클래스로 라벨링된 데이터를 제공한다(Ji et al., 2021).
본 연구에 사용한 세 가지 구름 탐지 오픈소스 데이터 셋의 제원은 Table 1과 같다. 데이터 일관성을 유지하고 딥러닝 네트워크가 구름과 구름 그림자를 더 정확하게 탐지할 수 있도록 클래스를 재분류하였다. 데이터 셋의 해상도 차이로 인해 얇은 구름과 두꺼운 구름에 대한 라벨 기준이 불분명하기 때문에 AI Hub 데이터 셋에서는 ‘얇은 구름’과 ‘두꺼운 구름’을 하나의 구름 클래스로 통합하여 정답지를 구성하였다. 또한 SPARCS 데이터 셋에서는 ‘구름 그림자’와 ‘물 위의 구름 그림자’로 라벨링된 클래스를 ‘구름 그림자’로 통합하였고, ‘물’, ‘얼음/눈’, ‘육지’, ‘홍수 지역’은 모두 ‘청천’으로 통합하였다. Fig. 1은 AI Hub, SPARCS, WHU 데이터 셋의 구름 영상과 기구축된 라벨링된 영상, 그리고 본 연구를 위해 전처리한 라벨링 영상의 예시를 보여준다.
Table 1. Specifications of cloud and their shadow detection open-source datasets used in this study
Fig. 1. Examples of opensource datasets and pre-processed labeled images used for network training.
또한 대규모 위성 영상 데이터를 효율적으로 관리하고 훈련 데이터의 품질을 향상시키기 위해 데이터 전처리를 수행하였다. 오픈소스 데이터 셋에서 512 × 512 크기의 패치(patch)를 생성하고, TensorFlow 라이브러리를 사용하여 영상 크기 조정, 대비 조정 및 회전을 적용하여 데이터 증강을 수행하였다. 이 과정은 데이터 셋의 다양성을 증가시켜 딥러닝 네트워크가 더 넓은 범위의 조건에서 구름과 구름 그림자를 인식할 수 있게 한다. 각 패치는 구름, 구름 그림자, 청천의 세가지 클래스로 분류하여 영상 크기와 형식의 일관되도록 하였다. 또한 영상 패치의 대비를 향상시키기 위해 영상 데이터 값을 0과 1 사이로 히스토그램(histogram) 정규화를 적용하였다. 본 연구의 실험 설계 단계에서 전체 데이터 셋은 훈련 데이터 셋(56%), 검증 데이터 셋(24%), 테스트 데이터 셋(20%) 비율로 나눴다.
딥러닝 네트워크의 구름 및 구름 그림자 탐지 성능을 평가하기 위해 중저해상도 위성영상인 Landsat-8과 Sentienl-2, 고해상도 위성영상인 CAS500-1 영상에 적용을 통해 생성된 구름 및 구름 그림자 탐지한 결과를 기구축된 UDM 데이터와 비교 분석하였다. 이후 KOMPSAT-3/3A 영상에 적용을 통해 딥러닝 네트워크의 고해상도 위성영상에 대한 UDM 구축 가능성을 평가하였다. Landsat-8과 Sentinel-2의 공간해상도는 각각 30 m, 10 m로 구름과 구름 그림자 UDM 데이터를 제공한다. CAS500-1의 공간해상도는 0.5 m이며 구름 UDM 데이터를 제공하며 구름 그림자 UDM 데이터는 제공하지 않는다. KOMPSAT-3/3A의 공간해상도는 각각 2.2, 2.8 m이며 UDM 데이터를 제공하지 않는다. 실험에 사용한 Landsat-8, Sentinel-2, CAS500-1, KOMPSAT-3/3A 위성 영상의 제원은 Table 2와 같다.
Table 2. Specification of Landsat-8, Sentinel-2, CAS500-1, and KOMPSAT-3/3A
2.3. 연구 방법
본 연구는 딥러닝 네트워크를 사용하여 구름과 구름 그림자를 탐지함으로써 고해상도 위성영상에 대한 UDM 데이터 구축 가능성을 분석하는 것을 목표로 한다. 이를 위해 AI-Hub, SPARCS, WHU 데이터 셋을 통합하여 훈련 데이터 셋을 구축했으며, 이를 기반으로 구름과 구름 그림자를 탐지하기 위한 딥러닝 네트워크를 훈련시켰다. 이후 딥러닝 네트워크를 Landsat-8, Sentinel-2, CAS500-1 영상에 적용을 통해 생성된 탐지 결과를 기구축된 UDM 데이터와 분석함으로써 딥러닝 네트워크의 성능을 검증하였다. Landsat-8 및 Sentinel-2 위성영상은 중저해상도 위성영상으로, 지표면의 복잡성이 고해상도 위성영상보다 낮기 때문에 UDM 구축이 상대적으로 간단하다. 따라서 Landsat-8, Sentinel-2 영상 각각 3장에 대해 실험하여 생성된 탐지 결과와 기구축된 구름 및 구름 그림자 UDM 데이터와의 비교를 통해 딥러닝 네트워크의 성능을 평가하였다. 이후, 고해상도 위성 영상인 CAS500-1 영상 3장에 대해 실험하였다. 구름과 구름 그림자 UDM 데이터를 제공하는 Landsat-8, Sentinel-2와 달리 CAS500-1은 구름에 대한 UDM 데이터만 제공한다. 따라서 Landsat-8, Sentinel-2 영상 적용 결과에 대해서는 구름 클래스, 구름 그림자 클래스, 전체 클래스로 나누어 정량적 정확도를 산출하였고, CAS500-1 영상 적용 결과에 대해서는 구름 클래스에 대해서만 정량적 정확도를 산출하였다. 또한 UDM 데이터를 제공하지 않는 KOMPSAT-3/3A 영상 3장에 대해 실험하여 고해상도 위성영상에 대한 UDM 구축 가능성을 평가하였다.
2.4. 모델 최적화 및 정확도 평가 방법
딥러닝 네트워크의 훈련과정에서 세밀한 가중치를 부여하기 초기 학습률은 0.00005로 설정하였고, 학습 과정에서 3 에포크(epoch)마다 학습률을 절반으로 줄이는 학습률 스케줄러를 적용하였다. 손실함수(loss function)는 Sparse Categorical Cross Entropy (SCCE)를 사용하였고, Root Mean Square Propagation 최적화 알고리즘을 사용하여 딥러닝 네트워크의 가중치를 업데이트하였다. 옵티마이저(optimizer)는 학습의 속도와 안정성을 개선하는 Adaptive Moment Estimation (ADAM)을 사용하였다. 본 연구에서 사용한 딥러닝 네트워크의 주요 초매개변수(hyperparameter)에 대한 설정은 Table 3과 같다.
Table 3. Configuration for deep learning network training
딥러닝 네트워크의 성능을 정량적으로 평가하기 위해 라벨링된 영상과 탐지 결과를 이용하여 혼동 행렬(confusion matrix)을 작성하였다. True positive (TP), true negative (TN), false positive (FP), false negative (FN)를 계산하여 정확도(accuracy), 정밀도(precision), 재현율(recall), F1-score, Mean Intersection over Union (MIoU)을 산출하였다. 정확도는 모든 픽셀 중 라벨링된 영상과 정확히 일치하는 탐지 결과의 픽셀 비율을 의미한다. 정밀도는 탐지 결과 내의 올바른 픽셀 비율을 나타내며 재현율은 라벨링된 영상 내의 올바른 픽셀 비율을 나타낸다. F1-score는 정밀도와 재현율의 조화 평균으로 계산한다. IoU는 라벨링된 영상과 탐지 결과 간의 겹치는 영역을 그들의 합집합 영역으로 나눈 값으로 구하며, MIoU는 IoU의 평균 값을 나타낸다. 이 지표들은 식(1)에서 (6)을 사용하여 계산할 수 있다. 여기서 c는 클래스 수를 나타내고 C는 전체 클래스 수를 의미한다.
\(\begin{align}\text {Accuracy} = \frac{ \text {TP+TN}}{ \text {TP+TN+FP+FN}}\end{align}\) (1)
\(\begin{align}\text {Precision} = \frac{ \text {TP}}{ \text {TP+FP}}\end{align}\) (2)
\(\begin{align}\text {Recall} = \frac{ \text {TP}}{ \text {TP+FN}}\end{align}\) (3)
\(\begin{align}\text {F1 score} =2 \times \frac {{\text {Precision}} \times {\text {Recall}} } { \text {Precision+Recall}}\end{align}\) (4)
\(\begin{align}\text {IoU}_c = \frac{ \text {TP}}{ \text {TP+FP+FN}}\end{align}\) (5)
\(\begin{align}M I o U=\frac{1}{C} \sum_{c=1}^{C} I o U_{c}\end{align}\) (6)
3. 연구 결과 및 토의
3.1. 테스트 데이터에 대한 구름 및 구름 그림자 탐지 결과
딥러닝 네트워크의 성능을 평가하기 위해 테스트 데이터를 사용하여 예측을 수행했다. Fig. 2는 테스트 데이터 패치 한 장의 시각적 결과이다. 딥러닝 네트워크는 일반적으로 라벨링된 영상과 비교했을 때 구름과 구름 그림자를 올바르게 탐지했지만 세부적인 부분의 정확도가 떨어지는 한계가 있다. Table 4는 테스트 데이터에 대한 구름 및 구름 그림자 탐지 정량적 평가 결과이다.
Fig. 2. Example of visual results for test data.
Table 4. Quantitative assessment of test data
3.2. 기구축된 UDM 데이터를 이용한 구름 및 구름 그림자 탐지 결과
딥러닝 네트워크의 예측 성능을 검증하기 위해 Landsat-8, Sentinel-2, CAS500-1 위성영상에서 기구축된 UDM 데이터와 딥러닝 네트워크가 생성한 탐지 결과에 대한 평가를 수행하였다. Figs. 3, 4와 Tables 5, 6은 각각 Landsat-8, Sentinel-2 영상의 구름 및 구름 그림자 탐지 시각적 결과 및 정량적 평가를 나타낸다. Landsat-8과 Sentinel-2는 구름과 구름 그림자 UDM 데이터를 제공하기 때문에 정밀한 분석을 위하여 구름 클래스, 구름 그림자 클래스, 전체 클래스로 나누어 정확도 평가를 진행하였다. Landsat-8과 Sentinel-2의 결과에서 구름 클래스는 모든 평가지표에서 대체로 높은 정확도를 나타냈지만 Fig. 4의 (b), (c)와 같이 얇은 구름이 존재하는 부분에서는 구름을 과탐지하는 경향을 보였다. 또한 구름 그림자 클래스는 accuracy를 제외한 다른 평가지표에서 다소 낮은 값을 보였는데 이는 구름과 구름 그림자 간 경계의 명확성이 부족하고, 구름 그림자와 지표면 간의 유사성에 기인한 것으로 판단된다. 구름 그림자는 지표면과 색상 및 텍스처가 유사하여 탐지 과정에서 혼동될 가능성이 크며, 이로 인해 탐지 정확도가 저하될 수 있다. Fig. 5와 Table 7은 CAS500-1 영상의 구름 및 구름 그림자 탐지 시각적 결과 및 정량적 평가를 나타낸다. CAS500-1 영상은 구름 UDM 데이터만 제공하기 때문에 구름 클래스에 대해서만 정확도 평가를 진행하였다. 기구축된 UDM 데이터보다 딥러닝 네트워크가 생성한 탐지 결과가 구름과 구름 그림자를 더 정확하게 탐지했음을 육안으로 확인하였다.
Fig. 3. Results of cloud and their shadow detection for Landsat-8 images: (a) Scene-1, (b) Scene-2, and (c) Scene-3.
Table 5. Quantitative evaluation for cloud and their shadow detection of Landsat-8 images
Fig. 4. Results of cloud and their shadow detection for Sentinel-2 images: (a) Scene-4, (b) Scene-5, and (c) Scene-6.
Table 6. Quantitative evaluation for cloud and their shadow detection of Sentinel-2 images
Fig. 5. Results of cloud and their shadow detection for CAS500-1 images: (a) Scene-7, (b) Scene-8, and (c) Scene-9.
Table 7. Quantitative evaluation for cloud detection of CAS500-1 images
3.3. KOMPSAT-3/3A 데이터를 이용한 UDM 구축 가능성 평가
고해상도 위성영상에 대한 UDM 데이터 구축 가능성을 평가하기 위해 UDM 데이터를 제공하지 않는 KOMPSAT-3/3A 영상 3장에 대해 실험을 진행하였다. Fig. 6은 KOMPSAT-3/3A 영상의 구름 및 구름 그림자 탐지 시각적 결과를 나타낸다. 전체적으로 구름 및 구름 그림자 탐지에 성공하였으며, (a)와 같이 얇은 구름이 존재함에도 불구하고 과탐지하지 않고 정확하게 탐지하여 고해상도 위성영상에서 UDM 구축이 효과적으로 이루어질 수 있음을 확인하였다.
Fig. 6. Results of cloud and their shadow detection for KOMPSAT-3/3A images: (a) Scene-10, (b) Scene-11, and (c) Scene-12.
4. 결론
본 연구는 AI Hub, SPARCS, WHU 데이터 셋을 활용하여 DeepLabV3+ 네트워크를 기반 구름 및 구름 그림자 탐지를 통해 고해상도 위성영상에 대한 UDM 데이터의 구축 가능성을 분석하였다. 중저해상도 위성영상인 Landsat-8과 Sentinel-2에 대한 실험 결과, 구름 클래스의 경우 대부분의 평가지표에서 우수한 성능을 나타냈으나 구름 그림자 클래스에서는 다소 낮은 정확도를 보였다. 이는 구름과 구름 그림자 간 경계가 명확하지 않아 구름 그림자가 지표면의 일부로 오인될 가능성이 높아지면서 탐지 정확도가 저하된 것으로 판단된다. 고해상도 위성영상인 CAS500-1에 대한 실험에서는 기구축된 UDM 데이터보다 더 정확한 구름 및 구름 그림자 탐지 성능을 보인 것을 확인하였다. UDM 데이터를 제공하지 않는 KOMPSAT-3/3A 영상에 대한 실험 결과, 얇은 구름이 존재하는 부분에서도 구름 및 구름 그림자를 정확히 탐지하였다. 이를 통해 딥러닝 네트워크를 사용한 고해상도 위성영상의 UDM 데이터 구축 가능성을 입증하였다.
사사
이 연구는 서울과학기술대학교 교내연구비 지원으로 수행되었습니다.
Conflict of Interest
No potential conflict of interest relevant to this article was reported.
References
- Chen, L.-C., Zhu, Y., Papandreou, G., Schroff, F., and Adam, H., 2018. Encoder-decoder with atrous separable convolution for semantic image segmentation. In: Ferrari, V., Hebert, M., Sminchisescu, C., Weiss, Y. (eds.), Computer Vision - ECCV 2018, Springer, pp. 833-851. https://doi.org/10.1007/978-3-030-01234-2_49
- Choi, J. W., Han, Y., and Seo, D., 2024. Cloud detection of satellite imagery with high spatial resolution by using HRNet and transformer. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 42(3), 203-211. https://doi.org/10.7848/ksgpc.2024.42.3.203
- Committee on Earth Observation Satellites, 2021. Analysis ready data for land: Product family specification surface reflectance (CARD4L-SR).Available online: https://ceos.org/ard/files/PFS/SR/v5.0/CARD4L_Product_Family_Specification_Surface_Reflectance-v5.0.pdf (accessed on June 27, 2024).
- European Space Agency, 2015. Sentinel-2userhandbook.Availableonline: https://sentinel.esa.int/documents/247904/685211/sentinel-2_user_handbook (accessed on July 22, 2024).
- Frazier, A. E., and Hemingway, B. L., 2021. A technical review of Planet smallsat data: Practical considerations for processing and using PlanetScope imagery. Remote Sensing, 13(19), 3930. https://doi.org/10.3390/rs13193930
- He, K., Zhang, X., Ren, S., and Sun, J., 2016. Deep residual learning for image recognition. In Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, USA, June 27-30,pp. 770-778.https://doi.org/10.1109/CVPR.2016.90
- Hughes, M.J., and Hayes, D.J., 2014.Automated detection of cloud and cloud shadow in single-date Landsat imagery using neural networks and spatial post-processing, Remote Sensing, 6(6), 4907-4926. https://doi.org/10.3390/rs6064907
- Ji, S., Dai, P., Lu, M., and Zhang, Y., 2021. Simultaneous cloud detection and removal from bitemporal remote sensing images using cascade convolutional neural networks. IEEE Transactions on Geoscience and Remote Sensing, 59(1), 732-748. https://doi.org/10.1109/TGRS.2020.2994349
- Kim, B., and Oh, H., 2020. AI training dataset for cloud detection of KOMPSAT images. Geo Data, 2(2), 56-62. https://doi.org/10.22761/dj2020.2.2.008
- Main-Knorn, M., Pflug, B., Louis, J., Debaecker, V., Muller-Wilm, U., and Gascon, F., 2017. Sen2Cor for Sentinel-2. In Proceedings of SPIE 10427, Image and Signal Processing for Remote Sensing XXIII, Warsaw, Poland, Sept. 11-14, pp. 37-48. https://doi.org/10.1117/12.2278218
- Masek, J. G., Vermote, E. F., Saleous, N., Wolfe, R., Hall, F. G., Huemmrich, F., et al., 2012.LEDAPS Landsat calibration, reflectance, atmospheric correction preprocessing code (Version 2). ORNL DAAC. https://doi.org/10.3334/ORNLDAAC/1080
- United States Geological Survey, 2023. Landsat collection 2, U. S., Analysis ready data, Data format control book (Version 4.0). Available online: https://d9-wret.s3.us-west-2.amazonaws.com/assets/palladium/production/s3fs-public/media/files/LSDS-1435_Landsat-C2_US-ARD_Data-Format-Control-Book-v4.pdf (accessed on July 22, 2024).
- Yun, Y., Jung, J., and Han, Y., 2024. Cloud restoration of optical satellite imagery using time-series spectral similarity group. GIScience & Remote Sensing, 61(1). https://doi.org/10.1080/15481603.2024.2324553
- Zhang, H. K., Luo, D., and Roy, D. P., 2024.Improved Landsat Operational Land Imager(OLI) cloud and shadow detection with the Learning Attention Network Algorithm (LANA). Remote Sensing, 16(8), 1321. https://doi.org/10.3390/rs16081321
- Zhu, Z., and Woodcock, C. E., 2012. Object-based cloud and cloud shadow detection in Landsat imagery. Remote Sensing of Environment, 118, 83-94. https://doi.org/10.1016/j.rse.2011.10.028