DOI QR코드

DOI QR Code

Attention Gated FC-DenseNet for Extracting Crop Cultivation Area by Multispectral Satellite Imagery

다중분광밴드 위성영상의 작물재배지역 추출을 위한 Attention Gated FC-DenseNet

  • Seong, Seon-kyeong (Department of Civil Engineering, Chungbuk National University) ;
  • Mo, Jun-sang (Department of Civil Engineering, Chungbuk National University) ;
  • Na, Sang-il (Climate Change Assessment Division, National Institute of Agricultural Sciences, Rural Development Administration) ;
  • Choi, Jae-wan (Department of Civil Engineering, Chungbuk National University)
  • 성선경 (충북대학교 토목공학과) ;
  • 모준상 (충북대학교 토목공학과) ;
  • 나상일 (농촌진흥청 국립농업과학원 기후변화평가과) ;
  • 최재완 (충북대학교 토목공학과)
  • Received : 2021.10.15
  • Accepted : 2021.10.21
  • Published : 2021.10.31

Abstract

In this manuscript, we tried to improve the performance of the FC-DenseNet by applying an attention gate for the classification of cropping areas. The attention gate module could facilitate the learning of a deep learning model and improve the performance of the model by injecting of spatial/spectral weights to each feature map. Crop classification was performed in the onion and garlic regions using a proposed deep learning model in which an attention gate was added to the skip connection part of FC-DenseNet. Training data was produced using various PlanetScope satellite imagery, and preprocessing was applied to minimize the problem of imbalanced training dataset. As a result of the crop classification, it was verified that the proposed deep learning model can more effectively classify the onion and garlic regions than existing FC-DenseNet algorithm.

본 연구에서는 국내 농업지역에 대한 작물재배지역의 분류를 위하여 FC-DenseNet 모델에 attention gate를 적용하여 딥러닝 모델의 성능을 향상시키고자 하였다. Attention gate는 특징맵의 공간/분광적 중요도에 따른 가중치를 추가적으로 학습하여 딥러닝 모델의 학습을 용이하게 하고, 모델의 성능을 향상시킬 수 있다. Attention gate를 FC-DenseNet의 스킵 연결 부분에 추가한 딥러닝 모델을 이용하여 양파 및 마늘 지역의 작물분류를 수행하였다. PlanetScope 위성영상을 이용하여 훈련자료를 제작하였으며, 훈련자료의 불균형 문제를 해결하기 위하여 전처리 과정을 적용하였다. 다양한 평가자료를 이용하여 작물재배분류 결과를 평가한 결과, 제안된 딥러닝 모델은 기존의 FC-DenseNet과 비교하여 효과적으로 양파 및 마늘 지역을 분류할 수 있는 것을 확인하였다.

Keywords

1. 서론

최근 들어, 지구온난화 현상에 따른 이상기후 등으로 인하여 농작물 생산량의 변화는 지속적으로 발생하고 있으며, 이에 따라 식량 생산량에 대한 관리 및 예측은 매우 중요한 문제로 대두되고 있다. 이러한 농작물 생산량 등과 관련한 농림분야에의 문제를 해결하기 위하여 국내에서는 blue, green, red, red-edge, NIR의 분광밴드를 가지고 있는 공간해상도 약 5 m의 차세대중형위성 4호(농림위성)의 발사를 추진하고 있다. 차세대중형 위성 4호는 빠른 주기 안에 한반도 전 지역을 촬영할 수 있기 때문에, 국내 농경지의 작황 상태를 효과적으로 분석할 수 있는 고해상도 위성영상을 사용자들에게 보급할 수 있을 것으로 기대되고 있다. 특히, 차세대중형위성 4호는 1~3일 내에 국내 전 지역을 촬영할 수 있는 재촬영주기를 가지고 있으며, 120 km의 촬영 폭을 지니고 있기 때문에, 국내 작물재배지역에 대한 지속적인 모니 터링을 수행할 수 있을 것으로 판단된다. 또한, 국외에 서도 환경, 농업 등의 분야에 위성영상을 활용하기 위하여 RapidEye, PlanetScope와 같은 red-edge와 NIR 밴드를 포함한 5개의 밴드로 이루어진 위성영상들이 활발하게 사용되고 있다.

다양한 가시광선 밴드를 가지고 있는 위성영상들을 이용하여 작물재배지역을 추출하거나, 해당 지역에 대 한 특성을 분석하기 위한 다양한 연구들이 진행되고 있다(Lee et al., 2017). 국내의 경우, Lee et al. (2014)는 차세 대중형위성 4호와 유사한 특성을 가지는 RapidEye 위성 영상을 이용하여 북한의 논벼 재배지역을 추출한 바 있으며, Kim et al. (2011)은 농촌지역에 대한 토지이용유형별 RapidEye 위성영상의 NDVI(Normalized Difference Vegetation Index)를 분석한 바 있다. 또한, Seong et al.(2020)은 FC-DenseNet(Fully Convolutional Densely Connected Convolutional Network)을 이용하여 RapidEye 위성영상에 대한 작물재배지역 추출의 가능성을 확인한 바 있다. 국외의 경우, 딥러닝 기법을 이용한 다양한 작물재배지역의 추출에 관한 연구가 이루어지고 있다. Zhou et al. (2019)는 다시기 SAR(Synthetic Aperture Radar) 및 고해상도 광학 위성영상을 이용한 딥러닝 모델을 이용하여 필지 단위의 재배지역 추출 알고리즘을 제안하였으며, Ji et al. (2018)은 3D-CNN(3D-Convolutional Neural Networks)을 이용하여 옥수수, 콩 등과 같은 다양한 작물에 대한 분류를 수행하고, 이에 대한 정확도를 검증하였다.

국내·외에서 이루어진 위성영상 기반 작물 분류 및 재배지역 추출에 대한 연구를 분석한 결과, 상대적으로 분석이 용이한 벼에 대한 연구가 진행되었거나, 분광정보를 통하여 분석이 용이한 특정 작물 위주로 연구가 진행되었다. 또한, 딥러닝 모델을 이용한 작물재배면적에 대한 연구들은 시계열 자료를 활용하거나 소규모 필지에 대한 실험을 수행하였기 때문에, 실제 작물재배면적에 대한 평가를 위하여 딥러닝 모델을 활용하기에는 연 방법에 대한 활용성 검증이 미흡한 실정이다. 따라서, 향후 차세대중형위성 4호를 이용한 작물 모니터링의 활용성을 극대화하기 위해서는 차세대중형위성 4호와 유사한 분광특성을 가지는 위성영상을 이용하여 대규모 지역에 대한 작물별 재배면적을 효과적으로 산출하는 방법론을 개발하는 것이 필요하다. 이를 위해서 현재 활발히 진행되고 있는 딥러닝 모델을 이용하여 작물 재배지역 추출에 효과적인 딥러닝 모델을 개발하여 국내지역에 적합한 최적의 모델을 제안하는 것도 농림위성의 활용을 위하여 필수적이라고 판단된다.

이를 위하여 본 연구에서는 차세대중형위성 4호와 유사한 특성을 가지는 PlanetScope 위성영상을 이용하여 양파 및 마늘 재배지역을 추출하기 위한 딥러닝 모델을 제안하였다. 양파 및 마늘 재배지역에 대한 전수 조사를 통하여 해당 지역에 대한 훈련자료를 구축하였으며, FC-DenseNet 모델을 활용하여 딥러닝 모델을 생성하였다. 특히, 양파 및 마늘 재배 시기에 취득된 영상들의 다양한 분광특성의 차이를 딥러닝 모델에 반영하기 위하여 Attention gate를 FC-DenseNet에 추가하여 딥러닝 모델의 성능을 개선하였다. 제안한 딥러닝 모델의 성능을 검증하기 위하여, 훈련자료에 포함되지 않은 지역 및 훈련자료에 포함되지 않은 시기에 취득된 영상을 이용하여 실험을 수행하고, 딥러닝 모델에 의한 작물재배면적 추출 결과를 평가하였다.

2. 실험 지역 및 자료

1) 실험 자료

향후 발사될 차세대중형위성 4호를 이용하여 국내 관심지역의 작물재배지역을 추출하기 위한 알고리즘을 개발하기 위하여, 본 연구에서는 차세대중형위성 4호와 가장 유사한 특성을 가지고 있는 PlanetScope 위성 영상을 이용하여 실험을 수행하였다. PlanetScope 위성 영상은 획득된 위성영상의 특성에 따라서 PS2, PS2.SD, PSB.SD로 구분된다. PS2 및 PS2.SD는 4개의 밴드(blue, green, red, NIR)로 이루어진 영상을 제공하는 반면, PSB. SD는 5개의 밴드(blue, green, red, red-edge, NIR)를 제공하며, 해당 밴드들은 Sentinel-2 위성영상과 유사한 분광 특성을 가진다. PSB.SD 위성영상의 제원은 Table 1과 같다.

Table 1. Specifications of the PSB.SD Satellite Sensor

OGCSBN_2021_v37n5_1_1061_t0001.png 이미지

작물재배지역 추출을 위한 딥러닝 모델의 학습 및 평가를 위하여 합천군 초계면, 적중면 및 청덕면 일대를 대상지역으로 선정하였다. 합천군은 국내 양파 및 마늘의 대표적인 주산지로서 해당작물의 생육시기를 고려하여 2021년 4월 7일, 14일 및 19일의 영상을 선별하여 사용하였다. 이 중, 4월 7일 및 4월 14일의 영상은 딥러닝 모델의 학습에 사용하였으며, 4월 19일에 촬영된 영상은 학습된 모델의 평가를 위하여 파란색 경계상자 부분 지역을 사용하였다. 또한, 4월 7일 및 4월 14일에 촬 영된 영상 중, Fig. 1의 파란색 경계상자 부분도 딥러닝 모델의 평가에 활용하였다. 따라서, 제안된 딥러닝 모델의 성능을 평가하기 위해서 사용된 평가자료는 동일시기에 촬영된 영상 내에 포함된 학습에 사용되지 않은 지역과, 학습에 사용되지 않은 날짜에 촬영된 영상을 모두 활용하여, 학습된 모델이 향후 다른 시기에 촬영된 영상에 적용될 수 있는지를 검증하고자 하였다.

OGCSBN_2021_v37n5_1_1061_f0001.png 이미지

Fig. 1. Study area for training and test of deep learning model (red box : area for generating training dataset, blue box : area for test of trained deep learning model).

2) 훈련자료의 생성

Fig. 1의 지역에 대한 PSB.SD 위성영상을 이용하여 훈련자료를 구성하기 위하여 전처리 과정을 수행하였다. 먼저, 다시기 위성영상을 통합적으로 활용하기 위해서는 지상반사율 자료에 대한 상대방사보정(relative radiometric normalization)이 필요하다. 그러나, 딥러닝 모델의 학습자료를 구성하는 과정에서 실제 지상반사율 값에 대한 절대적인 수치를 활용할 경우, 학습된 딥러닝 모델을 활용함에 있어서 입력자료를 훈련자료의 지상반사율 자료와 동일한 특성을 가지도록 처리하는 것이 어려울 수 있다. 따라서, 본 연구에서는 지상반사율 자료로 획득된 PSB.SD 위성영상에 대하여 2% 선형 명암대비(2% linear stretching) 과정을 통하여 해당 영상들을 8비트(bit) 영상으로 변환하였다. 한편, 실험지역 의 참조자료는 2021년 4월 29일에 해당 현장에 대한 전수조사를 거쳐 해당 지역의 양파 및 마늘 재배지역을 벡터자료로 생성하였다. 최종적인 참조자료는 양파와 마늘 그리고 기타 총 3개의 클래스로 이루어진 래스터자료로 변환하여 구성하였다. 전처리된 위성영상과 참조 자료는 256×256의 크기인 영상 패치(image patch)로 분할하여 학습자료로 사용하였다. 특히, 해당 실험지역의 영상은 상대적으로 작은 면적이기 때문에, 딥러닝 모델의 학습을 위한 충분한 개수의 영상 패치를 생성할 수 없다. 따라서, 영상의 상하/좌우 반전과 회전을 이용 한 자료 증강(data augmentation) 과정을 수행하여 학습 자료의 양을 증가시켰다. 한편, 학습자료의 생성과정에 서 실험지역 전체에 대하여 학습자료를 제작할 경우에는 학습자료 내에 비작물지역이 현저하게 높은 학습자료의 불균형 자료(imbalanced data) 구성의 문제가 발생 한다. 불균형 자료를 이용하여 학습을 수행할 경우, 딥러닝 모델이 관심 클래스를 효과적으로 구분하지 못하는 문제가 발생한다. 따라서, 본 연구에서는 영상 패치 중, 양파 및 마늘 재배지역의 비율이 30%가 넘는 영상만을 영상패치로 사용하였다. 또한, 딥러닝 모델이 산림지역을 작물재배지역으로 오분류하는 것을 방지하기 위하여, 산림지역으로만 이루어진 영상패치를 일부 추가하였다. 최종적으로 PSB.SD 위성영상을 이용하여 1,103개의 학습자료를 생성하였다. 1,048개의 자료를 실제 학습을 위하여 사용하였으며, 55개의 자료는 딥러닝 모델의 학습 과정에서 발생할 수 있는 과적합(overfitting) 문제를 해결하기 위하여 검증자료(validation data)로 사용하였다. Fig. 2는 실험지역의 위성영상 및 참조자료를 이용하여 제작한 영상 패치의 예이며, 앞서 언급한 것과 같이, 재배지역과 비재배지역을 모두 영상패치로 제작하였다.

OGCSBN_2021_v37n5_1_1061_f0002.png 이미지

Fig. 2. Examples of training dataset.

3. 연구방법

본 연구에서는 FC-DenseNet에 Attention gate를 추가하여 작물재배지역의 추출을 위한 최적의 딥러닝 모델을 제안하고자 하였다. 제작한 학습자료를 이용하여 제안한 딥러닝 모델의 훈련을 수행하였으며, 평가자료를 이용하여 제안된 모델의 성능을 평가하였다.

1) Attention gate

일반적인 딥러닝 모델에서 의미론적 분할(semantic segmentation)에 사용되는 CNN(Convolutional Neural Network)의 합성곱 연산(convolution)은 영상에서 추출할 수 있는 특징 맵(feature map)을 생성하기 위하여 적용된다. 그러나, 위성영상은 다양한 분광해상도와 공간 특성을 가지고 있기 때문에, 특징 맵의 생성과정에서 영상의 각 밴드 별 특성 및 공간적인 특성을 반영한다면 딥러닝 모델의 성능을 향상시킬 수 있다. Attention gate 는 딥러닝 모델의 학습 과정에서 생성되는 특징 맵에 가중치를 부여하고, 딥러닝 모델이 해당 부분에 더욱 집중(attention)할 수 있도록 유도하여 딥러닝 모델의 학습과 성능을 향상시킬 수 있는 대표적인 방법이다(Khanh et al., 2020). 따라서, 본 연구에서는 Attention gate를 활용하여 작물재배지역 추출을 위한 딥러닝 모델의 성능을 개선하고자 하였다. Attention gate는 가중치를 부여하기 위한 차원에 따라서 크게 channel attention gate와 spatial attention gate로 구분된다. H×W의 크기를 가지는 C개 밴드로 이루어진 특징 맵에 대하여 channel attention gate는 각 밴드에 대한 가중치를 계산하기 위하여 2종류의 풀링(pooling)연산을 적용하여 1×1×C의 크기로 특징 맵을 축소한다(Fig. 3). 이후 해당 특징 맵에 대한 집약된 정보를 학습하기 위하여 일정 비율(r)로 축소시키고 복원시킨다. 그리고 2종류의 특징 맵을 더하여 최종적으로 1×1×C의 크기를 가지는 밴드 별 정보의 가중치에 대한 특징 맵을 생성한다(Seong and Choi, 2021).

OGCSBN_2021_v37n5_1_1061_f0003.png 이미지

Fig. 3. Structure of channel attention gate

Spatial attention gate는 H×W×C의 크기를 가지는 특징맵의 밴드에 대하여 2종류의 풀링을 적용하여 1개의 밴드를 가지는 특징 맵을 생성한 뒤, 조합된 밴드에 대한 합성곱 연산을 통하여 H×W×1 크기의 특징 맵을 생성한다(Fig. 4). 생성된 특징 맵은 해당 영상 내의 공간적인 가중치를 나타낸다. 일반적으로 channel attention gate 와 spatial attention gate는 통합하여 적용하는 것이 일반적이며, 본 연구에서는 입력되는 특징 맵에 우선적으로 channel attention gate를 적용하여 밴드 별 가중치를 부여한 후에 spatial attention gate를 적용하도록 모델을 구성하였다.

OGCSBN_2021_v37n5_1_1061_f0004.png 이미지

Fig. 4. Structure of spatial attention gate.

2) Attention gate 기반의 FC-DenseNet

본 연구에서는 FC-DenseNet에 Attention gate를 추가하여 작물재배지역의 추출을 위한 최적의 딥러닝 모델을 제안하고자 하였으며, 해당 모델을 attention gated FC-DenseNet 모델로 정의하였다. FC-DenseNet은 의미론적 분할 기법에서 우수한 성능을 보인다고 알려진 대표적인 딥러닝 모델 중 하나이며, 일반적인 CNN과 달리, 모든 층(layer)들의 결과를 통합하여 결과 층을 학습시키는 네트워크이다(Huang et al., 2017; Seong et al., 2020). FC-DenseNet은 DenseBlock을 기반으로 이루어져있으며, DenseBlock은 Fig. 5와 같이, 배치정규화, 활성화 함수층(ReLU), 합성곱층(1×1), 드롭아웃, 그리고 최대 풀링(2×2)로 구성되어 있다. 특히, 각 DenseBlock은 선행층의 특징맵들을 모두 입력자료로 활용하여 딥러닝 모델에 존재하는 파라미터(parameter)의 수를 감소시키면서 모델의 깊이를 증대시킬 수 있는 장점을 지닌다. DenseBlock에서 생성된 특징맵은 Transition Down 과정을 거쳐 특징맵의 크기를 단계적으로 축소시키며, DenseBlock과 Transition Down 과정이 반복되어 적용되는 단계를 인코더(encoder)로 정의한다. 인코더 부분을 통하여 영상 내에 존재하는 핵심적인 정보를 추출할 수 있다. 추출된 영상 내의 정보들의 공간적인 특징은 디코더(decoder) 부분을 통하여 복원하게 되며, 디코더 부분은 DenseBlock과 영상의 크기를 단계적으로 증가시키는 Transition Up 과정으로 구성된다. FC-DenseNet에서 는 인코더 과정에서의 정보를 스킵 연결(skip connection) 기법을 활용하여 디코더 과정에서의 정보로 사용하게 되는데 본 연구에서 제안한 attention gated FC-DenseNet 모델에서는 스킵 연결 과정에서 입력되는 인코더 부분의 특징 맵에 channel attention gate와 spatial attention gate 를 적용하여 해당 특징 맵의 정보를 변형하여 디코더에 적용하였다.

OGCSBN_2021_v37n5_1_1061_f0005.png 이미지

Fig. 5. Architecture of attention gated FC-DenseNet.

3) 손실함수의 구성

다수의 클래스를 포함한 범주형 자료를 위한 CNN 에서 사용되는 대표적인 손실함수는 범주형 교차 엔트 로피(categorical cross-entropy)를 들 수 있다. 그러나, 추출하고자 하는 클래스의 정보의 비율이 배경정보와 비교하여 낮은 비율을 가지는 불균형 자료의 경우에는 딥 러닝 모델이 배경정보에 치우쳐서 학습되는 경향이 발생할 수 있다. 따라서, 본 연구에서는 딥러닝 모델의 학습을 위한 손실함수를 구성함에 있어서 각 클래스의 비율에 대한 가중치 정보를 추가하여 손실함수를 구성하 였으며, 이는 식 (1)과 같다.

\(C C E=-\frac{1}{N} \sum_{j=1}^{N} \sum_{i=1}^{c} \beta_{i} t_{i j} \log \left(y_{i j}\right)\)       (1)

여기서, N은 학습자료의 개수, C는 클래스의 개수, tij는 i번째 클래스에 대한 j번째 학습자료의 참값, yij는 i번째 클래스에 대한 j번째 학습자료의 분류결과, βi는 i번째 클래스의 가중치를 의미한다. βi는 학습자료 내의 클래스에 대한 비율을 활용하여 자동으로 계산할 수 있으나, 작물종류에 따른 클래스의 비율차이는 동일하게 가정하기 위하여, 비작물지역에는 1의 가중치, 작물지역에는 3의 가중치를 부여하여 실험을 진행하였다.

4) 정확도 평가

모델 성능의 분석은 분류하고자 하는 각 작물에 대한 분류결과를 이용하여 정밀도(precision), 재현율(recall), F1-score를 식 (2)~(4)와 같이 계산하였다(Kang et al., 2019).

\(\text { Precision }=\frac{T P}{T P+F P}\)       (2)

\(\text { Recall }=\frac{T P}{T P+F N}\)       (3)

\(F 1-\text { score }=2 \times \frac{\text { Precision } \times \text { Recall }}{\text { Precision }+\text { Recall }}\)       (4)

정밀도, 재현율, F1-score는 이분류 자료에 적용되기 때문에, 각 클래스별 평가결과는 해당 클래스의 분류결과를 1, 배경 및 나머지 클래스에 대한 분류결과를 0으로 변환하여 계산한 후, 각 클래스에 대한 평균값을 계산하여 도출하였다.

4. 실험결과 및 분석

본 연구에서 제안한 Attention gated FC-DenseNet의 성능을 평가하기 위하여 학습자료를 이용한 딥러닝 모델의 학습을 수행하였으며, 다양한 평가 자료를 활용하여 모델의 성능을 검증하였다.

1) 모델 학습 및 결과

본 연구에서 제안한 딥러닝 모델의 훈련은 아래의 Table 2에 제시된 하이퍼파라미터(hyperparameter)를 이용하여 수행하였다. Table 2에서 batch size는 딥러닝 모델 훈련시에 사용한 배치크기, patch size는 학습자료의 크기, epochs는 모델 훈련의 전체반복횟수를 의미한다. 딥러닝 모델 훈련에 있어서 최적화 함수는 Adam을 사용하였으며, 학습률(learning rate)는 0.0001로 설정하였다. 실험에서 사용한 하이퍼파라미터들은 기존의 딥러닝 연구사례들을 이용하여 일반적으로 사용하는 값을 이용하였다. 본 연구에서는 제안한 모델의 성능을 검증하기 위하여 attention gate가 추가되지 않은 FC-DenseNet 과의 비교평가를 수행하고자 하였으며, FC-DenseNet 모델의 학습에도 동일한 하이퍼파라미터를 사용하였다. 딥러닝 모델의 학습은 Pytorch를 활용하였으며 Linux 환경에서 python을 이용하여 실험을 수행하였다.

Table 2. hyperparameter for training

OGCSBN_2021_v37n5_1_1061_t0003.png 이미지

2) 딥러닝 모델의 적용 결과 및 평가

본 연구에서 제안한 Attention gated FC-DenseNet의 성능을 평가하기 위하여 학습자료를 이용한 딥러닝 모델의 학습을 수행하였으며, 다양한 평가 자료를 활용하여 모델의 성능을 검증하였다. 첫번째로, 학습시에 사용한 위성영상 내에서 실제 학습자료에는 포함되지 않은 지역에 대한 결과는 Fig. 6과 Table 3와 같다. Fig. 6에서 확인할 수 있는 것과 같이, 대부분의 양파 및 마늘 재배 지역은 효과적으로 추출된 것을 확인할 수 있었으며, 제안한 딥러닝 모델은 기존의 FC-DenseNet과 비교하여, 두 개의 영상에 대하여 정밀도를 제외한 재현율 및 F1- score 결과에서 모두 우수한 성능을 보이는 것을 확인할 수 있었다. 특히, 재현율이 각각의 실험영상에서 0.08, 0.16정도 향상된 결과가 나타났는데, 이는 제안된 모델이 실제 참조자료에 포함된 재배지역을 효과적으로 검출되었음을 의미한다. 제안된 딥러닝 모델의 정밀도가 일부 감소된 것은 일부 비작물지역에 대한 과대추정에 의한 결과로 추정되며, 이는 전체적인 F1-score의 우수성을 고려할 때, 큰 차이는 없는 것으로 판단하였다. 한편, 참조자료와 비교하였을 때, 일부 필지의 작물이 타작물로 오 분류되는 현상도 존재하였다. 그러나, 해당 시기의 양파 및 마늘 재배지역의 전체적인 특성이 유사하며, 이는 원 위성영상에서도 쉽게 판독하기 어려운 점을 미루어 볼 때, 전반적으로 학습자료에 포함된 정보들과 유사한 특성을 가지는 자료의 경우에는 효과적으로 분류를 수행할 수 있음을 확인하였다.

OGCSBN_2021_v37n5_1_1061_f0006.png 이미지

Fig. 6.  Results of crop cultivation area classification of 1st test datasets (red color : garlic, green color : onion) : (a) PSB.SD image(2021/04/07), (b) PSB.SD image(2021/04/14), (c) reference data, (d) result by FC-DenseNet(2021/04/07), (e) result by proposed model(2021/04/07), (f) result by FC-DenseNet(2021/04/14), (g) result by proposed model(2021/04/14).

Table 3. Evaluation results of 1st datasets

OGCSBN_2021_v37n5_1_1061_t0004.png 이미지

두 번째로, 학습자료 제작에 사용되지 않은 4월 19일 영상을 이용하여 평가를 수행한 결과는 Fig. 7 및 Table 4와 같다. 첫 번째 실험결과와 비교하였을 때, 전체적인 정밀도는 저하된 것을 확인할 수 있었으며, 특히 기존의 FC-DenseNet에 의한 결과는 작물재배면적이 크게 줄어들면서 정확도가 낮아진 것을 확인할 수 있었다. 이는 현재 학습에 사용된 자료와 동일한 날짜에 촬영된 영상이 아니기 때문에, 일부 작물의 성장과정에서 분광정보의 차이가 발생하였으며, FC-DenseNet은 이를 반영 하지 못하기 때문으로 판단된다. 그러나, Attention gate 를 이용할 경우에는 이러한 문제점들이 개선된 것을 볼 수 있었으며, 전반적인 작물재배지역의 경향은 효과적으로 추출한 것을 확인할 수 있었다. 또한, 첫 번째 실험 결과와 마찬가지로 제안한 딥러닝 모델 기법이 기존의 FC-DenseNet에 의한 결과와 비교하여 재현율 및 F1- score는 크게 증가하였다. 정밀도는 일부 감소된 것을 확인하였는데, 이는 첫번째 실험결과와 마찬가지로 일부 영역에서 작물 재배지역의 과대추정으로 인한 결과로 판단된다. 그럼에도 불구하고, 재현율 및 F1-score가 0.2정도 증가하였으며, 이를 통해 제안된 딥러닝 모델이 기존의 FC-DenseNet과 비교하여 작물재배지역을 효과적으로 추출할 수 있음을 확인하였다.

OGCSBN_2021_v37n5_1_1061_f0007.png 이미지

Fig. 7. Results of crop cultivation area classification of 2nd test datasets (red color : garlic, green color : onion) : (a) PSB.SD image (2021/04/19), (b) reference data, (c) result by FC-DenseNet (2021/04/19), (d) result by proposed model (2021/04/19).

Table 4. Evaluation results of 2nd dataset

OGCSBN_2021_v37n5_1_1061_t0005.png 이미지

5. 결론

본 연구에서는 향후 발사될 차세대중형위성 4호의 활용을 위하여 딥러닝 모델을 이용한 작물재배지역 추출에 대한 실험을 수행하였다. 이를 위하여, 기존의 FCDenseNet에 attention gate를 추가한 attention gated FCDenseNet을 제안하였으며, 이를 PSB.SD 위성영상에 적용하였다. 특히, 다양한 날짜에 취득된 영상의 활용성을 검증하기 위하여, 학습자료에 포함된 날짜 및 학습자료에 포함되지 않은 날짜에 촬영된 영상을 이용하여 딥러닝 모델의 적용 및 이에 따른 작물재배지역 추출 결과를 분석하였다. 실험결과, 기존의 FC-DenseNet과 비교하여 제안한 딥러닝 모델이 효과적으로 작물재배지역을 추출하는 것을 확인하였으며, 영상의 촬영날짜에 대한 오차도 감소할 수 있음을 확인하였다. 이를 통하여, 향후 차세대중형위성 4호의 운영 및 활용에 있어서 농작물 모니터링 및 작물재배지역 추출에 딥러닝 모델의 활용성을 확인할 수 있었다. 또한, 딥러닝 모델의 학습 자료를 더욱 다양하게 제작한다면 딥러닝 모델의 성능을 향상시킬 수 있을 것으로 판단된다.

사사

본 연구는 농촌진흥청 공동연구사업(과제번호: PJ014787022021) 및 과학기술정보통신부 및 정보통신산업진흥원의 ‘2021년 고성능 컴퓨팅 지원’ 사업의 지원에 의해 이루어진 결과로 이에 감사드립니다.

References

  1. Huang, G., Z. Liu, L. Van Der Maaten, and K.Q. Weinberger, 2017. Densely connected convolutional networks, Proc. of the IEEE conference on computer vision and pattern recognition, Honolulu, HI, USA, Jul. 21-26, pp. 4700-4708.
  2. Ji, S., C. Zhang, A. Xu, Y. Shi, and Y. Duan, 2018. 3D convolutional neural networks for crop classification with multi-temporal remote sensing images, Remote Sensing, 10(1): 75. https://doi.org/10.3390/rs10010075
  3. Kang, W., Y. Xiang, F. Wang, and H. You, 2019. EUNet: An efficient fully convolutional network for building extraction from optical remote sensing images, Remote Sensing, 11(23): 2813. https://doi.org/10.3390/rs11232813
  4. Khanh, T.L.B., D. Dao, N. Ho, H. Yang, E. Baek, G. Lee, S. Kim, and S. Yoo, 2020. Enhancing U-Net with spatial-channel attention gate for abnormal tissue segmentation in medical imaging, Applied Sciences, 10(17): 5729. https://doi.org/10.3390/app10175729
  5. Kim, H., J. Yeom, and Y. Kim, 2011. The multi-temporal characteristics of spectral vegetation indices for agricultural land use on RapidEye satellite imagery, Korea Aerospace Research Institute, 10(1): 149-155 (in Korean with English abstract).
  6. Lee, K., C. Park, S. Na, M. Jung, and J. Kim, 2017. Monitoring on crop condition using remote sensing and model, Korean Journal of Remote Sensing, 33(5-2): 617-620. (in Korean with English abstract). https://doi.org/10.7780/KJRS.2017.33.5.2.1
  7. Lee, S.H., Y.G. Park, N.Y. Park, S.H. Lee, and J.Y. Choi, 2014. Extraction of paddy field Jaeryeong, North Korea by object-oriented classification with RapidEye NDVI imagery, Journal of the Korean Society of Agricultural Engineers, 56(3): 55-64. (in Korean with English abstract). https://doi.org/10.5389/KSAE.2014.56.3.055
  8. Seong, S., S. Na, and J. Choi, 2020. Assessment of the FC-DenseNet for crop cultivation area extraction by using RapidEye satellite imagery, Korean Journal of Remote Sensing, 36(5): 823-833. (in Korean with English abstract). https://doi.org/10.7780/kjrs.2020.36.5.1.14
  9. Seong, S. and J. Choi, 2021. Semantic segmentation of urban buildings using a high-resolution network (HRNet) with channel and spatial attention gates, Remote Sensing, 13(16): 3087. https://doi.org/10.3390/rs13163087
  10. Zhou, Y., J. Luo, L. Feng, and X. Zhou, 2019. DCN-based spatial features for improving parcel-Based crop classification using high-resolution optical images and multi-temporal SAR data, Remote Sensing, 11(13): 1619. https://doi.org/10.3390/rs11131619