DOI QR코드

DOI QR Code

Deep Learning-based Forest Fire Classification Evaluation for Application of CAS500-4

농림위성 활용을 위한 산불 피해지 분류 딥러닝 알고리즘 평가

  • Cha, Sungeun (Forest ICT Research Center, National Institute of Forest Science) ;
  • Won, Myoungsoo (Forest ICT Research Center, National Institute of Forest Science) ;
  • Jang, Keunchang (Forest ICT Research Center, National Institute of Forest Science) ;
  • Kim, Kyoungmin (Forest ICT Research Center, National Institute of Forest Science) ;
  • Kim, Wonkook (Department of Civil and Environmental Engineering, Pusan National University) ;
  • Baek, Seungil (Department of Civil and Environmental Engineering, Pusan National University) ;
  • Lim, Joongbin (Forest ICT Research Center, National Institute of Forest Science)
  • 차성은 (국립산림과학원 산림ICT연구센터) ;
  • 원명수 (국립산림과학원 산림ICT연구센터) ;
  • 장근창 (국립산림과학원 산림ICT연구센터) ;
  • 김경민 (국립산림과학원 산림ICT연구센터) ;
  • 김원국 (부산대학교 사회환경시스템공학과) ;
  • 백승일 (부산대학교 사회환경시스템공학과) ;
  • 임중빈 (국립산림과학원 산림ICT연구센터)
  • Received : 2022.12.08
  • Accepted : 2022.12.19
  • Published : 2022.12.31

Abstract

Recently, forest fires have frequently occurred due to climate change, leading to human and property damage every year. The forest fire monitoring technique using remote sensing can obtain quick and large-scale information of fire-damaged areas. In this study, the Gangneung and Donghae forest fires that occurred in March 2022 were analyzed using the spectral band of Sentinel-2, the normalized difference vegetation index (NDVI), and the normalized difference water index (NDWI) to classify the affected areas of forest fires. The U-net based convolutional neural networks (CNNs) model was simulated for the fire-damaged areas. The accuracy of forest fire classification in Donghae and Gangneung classification was high at 97.3% (f1=0.486, IoU=0.946). The same model used in Donghae and Gangneung was applied to Uljin and Samcheok areas to get rid of the possibility of overfitting often happen in machine learning. As a result, the portion of overlap with the forest fire damage area reported by the National Institute of Forest Science (NIFoS) was 74.4%, confirming a high level of accuracy even considering the uncertainty of the model. This study suggests that it is possible to quantitatively evaluate the classification of forest fire-damaged area using a spectral band and indices similar to that of the Compact Advanced Satellite 500 (CAS500-4) in the Sentinel-2.

최근 기후변화로 인해 중대형 산불이 빈번하게 발생하여 매년 인명 및 재산피해로 이어지고 있다. 원격탐사를 활용한 산불 피해지 모니터링 기법은 신속한 정보와 대규모 피해지의 객관적인 결과를 취득할 수 있다. 본 연구에서는 산불 피해지를 분류하기 위해 Sentinel-2의 분광대역, 정규식생지수(normalized difference vegetation index, NDVI), 정규수역지수(normalized difference water index, NDWI)를 활용하여 2022년 3월 발생한 강릉·동해 산불 피해지를 대상으로 U-net 기반 convolutional neural networks (CNNs) 딥러닝 모형을 모의하였다. 산불 피해지 분류 결과 강릉·동해 산불 피해지의 경우 97.3% (f1=0.486, IoU=0.946)로 분류 정확도가 높았으나, 과적합(overfitting)의 가능성을 배제하기 어려워 울진·삼척 지역으로 동일한 모형을 적용하였다. 그 결과, 국립산림과학원에서 보고한 산불 피해 면적과의 중첩도가 74.4%로 확인되어 모형의 불확도를 고려하더라도 높은 수준의 정확도를 확인하였다. 본 연구는 농림위성과 유사한 분광대역을 선택적으로 사용하였으며, Sentinel-2 영상을 활용한 산불 피해지 분류가 정량적으로 가능함을 시사한다.

Keywords

1. 서론

최근 온실가스 배출로 인해 고온·건조한 기후변화 현상으로 초대형 산불이 빈번하게 발생하고 있으며, 이로 인해 배출되는 이산화탄소는 다시 기후변화를 촉진하는 자기증폭 현상을 보이고 있다(Djalante, 2019). 우리나라는 봄철에 남고북저의 기압배치로 인해 서풍 계열의 강한 바람이 형성되는 특징이 있다. 특히 동해안 지역은 백두대간이 남북으로 길게 위치해 좁은 공기순환통로에 바람이 몰리면서 푄현상에 의한 간헐적 강한 바람이 생성된다. 이러한 원인으로 봄철에는 강원 영동지역이 타 지역에 비해 대형산불 위험성이 높은 실정이다. 특히 2021년 12월부터 2022년 2월까지 겨울철 강수량이 1973년 이후 가장 적은 양인 13.3 mm에 그쳤기 때문에 강릉·동해, 울진·삼척 지역에는 2022년 3월 20,000 ha가 넘는 산림자원이 소실된 대형 산불이 발생하였다. 더 큰 문제는 2010년대 초만 하더라도 산불은 주로 3~4월 중순, 봄철에 집중되었지만, 최근 5~6월 산불발생건수가 늘어나고(1990년대: 25건, 2010년대: 84건), 산불조심 기간 외에도 산불발생 비율이 증가하고 있다는 것이다 (1990년대: 11.6%, 2010년대: 21.2%) (NIFoS, 2022).

우리나라 산불의 발생 원인은 낙뢰(번개), 나무 간 마찰, 유기물 발효와 같은 자연현상에 의한 산불은 드물고, 약 90% 이상이 사람에 의한 실화로 발생하고 있다(NIFoS, 2022). 이 산불은 대부분 지표화에서 점차 수 관화로 번져 비화를 일으키는 특징이 있다. 이러한 특성으로 산불은 위성과 같은 원격탐사체로부터 산불 전후의 환경조건들을 광역적으로 관측하여 평가하는데 활용되어 왔다. 특히 다중 분광영상을 이용한 연구는 신속하고 비용적인 효과가 큰 측면에서 산불을 모니터링하고 평가하는데 효과적으로 적용되고 있다(Lentil et al., 2006). 산불로 인한 피해지 분류 연구는 정규식생지수 (normalized difference vegetation index, NDVI), 정규수역지수(normalized difference water index, NDWI), 정규탄화지수(Normalized Burn Ratio, NBR)를 포함한 다양한 분광대역들의 조합에 의한 지수의 형태로 수행되어 왔다(Won et al., 2007; Escuin et al., 2008; Stankova and Nedkov, 2015; Jung and Kim, 2020; Sim et al., 2020). 특히 NDVI와 NDWI는 습도를 관측하는데 유용한 단파장적외선(shortwave infrared, SWIR) 대역을 사용하지 않아도 산출이 가능하다는 특성이 있다. 위성영상과 같이 방대한 데이터를 분석하기 위해 위성을 활용한 산불의 예측 및 감지와 관련된 연구는 최근 몇 년 동안 머신러닝과 딥러닝 방법과 함께 활용되어 개선되었다(Zhang et al., 2016; Song et al., 2018; Jain et al., 2020; Liu et al., 2020; Guede-Fernández et al., 2021). MLC, SVM, random forest 등 전통적인 머신러닝 기법은 연구자가 데이터의 특성을 이해하고 특징을 추출하는 과정이 필요하다. 하지만, 딥러닝 알고리즘은 인공신경망을 이용해 데이터 분석에 필요한 특징을 컴퓨터가 스스로 추출하는 ‘종단간(end-to-end)’ 학습을 수행한다. 분석에 사용되는 데이터의 양과 복잡도가 증가할수록 딥 러닝의 강점이 극대화 되므로, 고해상도의 위성영상과 같은 방대한 데이터를 활용하여 넓은 면적의 분석을 수행하는데 적합하다. 특히 이미지 분석에 특화되어 있는 Convolutional Neural Networks(CNNs)는 AlexNet(Krizhevsky et al., 2017), VGGNet(Simonyan et al., 2014), GoogLeNet(Szegedy et al., 2015), ResNet(He et al., 2016)과 같이 다양한 모델이 개발되어 있다. 그러나 많은 모델들이 필요한 시공간 범위를 광범위하게 정의하는 계산 문제를 갖고 있거나, 입력자료가 동일한 크기여야만 한다는 한계가 있다. 또한, 입력자료가 fully connected layer를 거치며 입력 영상에 대한 정보가 손실되는 문제를 가지고 있다(LeCun et al., 2015). 따라서 본 연구에서는 semantic segmentation의 일종인 U-net 기반 CNNs을 활용하였다. Semantic segmentation은 단순히 분류를 수행할 뿐만 아니라 분류 대상의 관련 경계를 결정하기 위해 분할(delineation) 기법을 적용한다.

딥러닝을 기반으로 데이터에서 특징을 학습하고 산불 피해지 분류를 위한 방법론을 개발하는 연구는 국내에서 수행되고 있으나 충분히 수행되지 않았다. 2025년 발사될 농림위성의 1일 단위로 산출되는 방대한 양의 위성영상 분석을 위해서는 딥러닝을 통한 산불 피해지 분류 알고리즘 개발이 시급하다. 따라서 본 연구에서는 위성의 다중 분광대역을 활용한 산불 피해지 분류 딥러닝 알고리즘 개발에 초점을 맞췄으며, 2022년 발생한 강릉·동해, 울진·삼척 산불 피해지를 대상으로 향후 개발될 농림위성의 활용을 고려해 피해 전후 Sentinel 위성영상 자료를 사용하여 산불 피해지 분류 모형을 모의 및 평가하고자 한다.

2. 연구자료 및 방법

1) 연구지역

연구지역은 2022년 3월 5일부터 3월 8일까지 산불이 발생한 강릉·동해 지역(128°59′E–129°70′E, 37°31′N–37°36′N)과 2022년 3월 4일부터 13일까지 산불이 발생한 울진·삼척 지역(129°11′E–129°27′E, 36°59′N–37°10′N)이다(Fig. 1). 우리나라 소나무림은 백두대간의 우측인 강원 영동, 경북 지역과 경남, 전남 및 해안지역에 주로 분포하고 있다(NIFoS, 2022). 강릉·동해, 울진·삼척 지역은 모두 우리나라 동해안에 근접하고 있으며, 특히 울진 지역은 오랫동안 소나무림이 집중적으로 보전·관리·이용되어 온 중요 지역이다. 이 지역들은 양간지풍에 의해 봄철 매우 건조해지는 특성이 있으며, 임상은 주로 소나무와 같은 발화 물질이 포함된 침엽수로 이루어져 있다.

OGCSBN_2022_v38n6_1_1273_f0001.png 이미지

Fig. 1. Study area with false color imageries.

2) 산불 피해지 현장조사 자료

산불 피해지 분류 모형의 참고자료(reference data)를 구축하기 위해 산림청 산림자원과에서 2022년 3월 23일까지 강릉과 동해지역을 중심으로 수행한 현장피해 조사자료를 활용하였다. 조사 항목으로는 지번 주소, 지목, 소유유형(사유림/국유림), 지적(ha), 피해면적(ha), 피해수종, ha당 본수, ha당 재적(m3), 피해적용비율(심/중/경), 피해 조사결과 재적, 피해액 등으로 구성되어 있다. 산림청은 공식적으로 산불 피해 면적을 강릉·동해 4,221 ha, 울진·삼척 16,302 ha로 보고하였다. 현장피해 조사자료에 따르면 강릉·동해 지역의 산불로 인한 피해 재적은 약 483,080 m3이며, 피해액은 약 180억이다. 피해면적이 지번으로 조사된 부분을 참고하여 조사시기에 발표된 지적도 상 전체 면적을 피해 받은 지역을 추출하여 공간화 하였다. 그러나, 지적도 상 지목이 ‘임’인 지역의 실제 토지피복은 산림이 아닐 수 있어서 산림피복(forest cover) 면적 집계 시 불확실성이 존재한다. 따라서 2021년 갱신된 1:5,000 수준 임상도를 활용하여 산불 피해를 받은 실제 산림의 경계를 추출하였다.

3) 위성영상 전처리 및 식생지수 산출

Sentinel-2는 코페르니쿠스 지구 관측 프로그램의 일환으로 유럽우주국(European Space Agency, ESA)에서 개발된 지구 관측 위성이며 2015년 6월 발사되었다. Sentinel-2는 농업 및 임업 분야의 관측 등 특수 목적이 있는 위성으로, 농림위성(CAS500-4)의 위성 제품의 설계에 참조하기에 가장 적합한 위성 중 하나이다. 특히, 농림위성에서 탑재 예정인 5가지의 분광대역 Red, Green, Blue, Red edge, Near Infrared (NIR)의 중심 분광대역은 Sentinel-2를 참고하여 설계되었기 때문에 Sentinel의 유사 분광대역을 활용한 연구는 농림위성의 기반 연구로서 적합하다(Table 1).

Table 1. Comparison and information of satellites’ specification

OGCSBN_2022_v38n6_1_1273_t0001.png 이미지

* Acquisition date of Sentinel-2 imageries: 2022.02.23., 2022.03.15., 2022.04.04.

본 연구에서는 EarthExplorer (https://earthexplorer.usgs.gov)에서 산불 발생 전 2022년 2월 23일, 발생 후 2022년 3월 15일, 4월 4일에 해당하는 Sentinel-2 L1C 영상을 수집한 뒤, Sen2Cor 대기보정 알고리즘을 이용하여 L2A 지표반사도 영상으로 변환하였다(Main-Knorn et al., 2017). 지표반사도 영상 중 10 m 해상도를 가진 Blue (490 nm), Green (560 nm), Red (665 nm), NIR (842 nm)의 영상과, 20 m 해상도를 가진 SWIR (1,610 nm)의 영상을 10 m 해상도로 변환한 뒤, 지형보정 기법을 적용하여 지형에 의한 효과를 보정하였다. 산림청에서 제공하는 임상도를 이용하여 산림지역에 해당하는 화소만 추출하였고, 대기보정 알고리즘의 산출물인 영상화소분류지도(scene classification map, SCM)를 이용하여 눈, 구름 등의 화소를 추가적으로 제거하였다. 지형보정 기법은 SCS+C 기법을 이용하였고, 식은 아래와 같다(Soenen et al., 2005).

\(\begin{aligned}\rho_{c}=\rho \cdot \frac{\cos \left(\theta_{s}\right) \cos \left(\theta_{g}\right)+c}{\cos (i)+c}\\\end{aligned}\)       (1)

ρc는 지형보정 후의 반사도, ρ는 지형보정 전의 반사도, θs는 태양 천정각, θg는 경사도 cos(i)=cos(θs) cos(θg) + sin(θs)sin(θg)cos(a–a′)이며, 태양의 입사각을 나타낸 값이다. a와 a′은 각각 태양 방위각, 지표의 경사향이다. c는 cos(i)와 ρ의 상관관계 식인 ρ=a·cos(i)+b 중 a와 b를 이용하여 구한다. 경사도와 경사향을 계산하기 위해 사용한 수치표고모델(digital elevation model, DEM)은 국토지리정보원에서 제작한 5 m 해상도의 DEM을 10 m 해상도로 변환하여 사용하였다. 기계학습의 입력자료는 대기보정, 지형보정이 수행된 지표반사도 영상이며, 산불이 발생하기 전후의 분광대역의 차이를 학습자료로 활용하기 위해 2월과 3월, 2월과 4월 분광대역별 변위를 산출하고, 분광대역별 reflectance와 normalized reflectance를 모두 입력자료로 활용하였다.

산불 발생 전후의 식생의 활력도와 지표의 수분 함양의 변화는 산불을 탐지하는데 중요한 입력변수이다. 따라서 본 연구에서는 농림위성 분광대역으로 산출이 가능한 NDVI와 NDWI를 구축하였다(Rouse et al., 1974; Gao, 1996).

\(\begin{aligned}NDVI=\frac{B_{NIR}-B_{Red}}{B_{NIR}+B_{Red}}, \; NDWI=\frac{B_{Green}-B_{NIR}}{B_{Green}+B_{NIR}}\end{aligned}\)       (2)

산불이 발생하기 전후의 지수의 차이를 학습자료로 활용하기 위해 2월과 3월, 2월과 4월 NDVI와 NDWI 변위를 산출하였으며, 지수 고유의 값과 normalized NDVI, normalized NDWI를 모두 입력자료로 활용하였다.

4) U-net 기반 Convolutional Neural Networks (CNNs)

U-net 기반 CNNs는 일반적인 CNNs 구조에서 일부 확장된 구조를 가진 신경망이다. U-net은 분류를 수행할 뿐만 아니라 분류 대상의 관련 경계를 결정하기 위해 분할(delineation) 기법을 적용한다. 전통적인 딥러닝에서 epoch는 전체 데이터 세트를 교육에 한 번 전달하는 것을 의미한다. 그러나 U-net 기반 CNNs에서는 대상 특징을 나타내는 픽셀이 희박한 경우를 고려하여 inverse translation sampling 기법을 적용하여 feature-pixel-dense patch를 모형이 빈번하게 선택하도록 설계하였다. 따라서 레이블 래스터(raster)에서 patch를 지능적으로 추출하므로 훈련 시작 시 특징 픽셀의 밀도가 높은 영역이 밀도가 낮은 영역보다 더 빈번하게 표시된다 (Yamashita et al., 2018).

OGCSBN_2022_v38n6_1_1273_f0002.png 이미지

Fig. 2. The architecture of U-net based CNNs.

본 연구의 CNNs 구조는 5개의 level과 27개의 convolution layers로 구성하였다. CNNs 구조는 크게 축소 경로와 확장 경로로 구성된다. 두 경로는 convolution network의 일반적인 구조를 따르고, 2개의 3 × 3 Convolution이 rectified linear unit (ReLU)에 의해 반복 적용된다. 각 downsampling 단계(2 × 2 convolution)에서는 feature channel을 두 배로 확장시키며, 반대로 upsampling 단계(2 × 2 convolution)에서는 feature channel을 절반으로 줄인다. 각 convolution에서 테두리 픽셀이 손실되기 때문에 cropping 기법의 적용이 필요하다. 따라서 마지막 layer에서 1 × 1 convolution을 사용하여 각 구성 요소의 특징 벡터를 원하는 수의 클래스로 매핑하는 알고리즘을 활용하였다(Ronneberger et al., 2015).

5) 정확도 평가

정확도 평가를 위해 True Positive (TP), True Negative (TN), False Positive (FP), False Negative (FN)을 산출하였다. 현장조사자료에서 산불이 발생한 것이면서 CNNs 모형 결과로 산불 피해지로 분류된 지역은 TP, 현장조사와 분류 결과 모두 산불 피해지가 아닌 것으로 확인된 경우는 FN이다. TP, TN, FP, FN 값을 활용하여 accuracy, precision, recall, f1 score, Intersection over Union (IoU)을 계산하였다.

\(\begin{aligned}Accuracy=\frac{TP+TN}{TP+TN+FP+FN}\end{aligned} \)       (3)

\(\begin{aligned}Precision=\frac{TP}{TP+FP}\end{aligned}\)       (4)

\(\begin{aligned}Recall=\frac{TP}{TP+FN}\end{aligned}\)        (5)

\(\begin{aligned}f_1\;score=\frac{Precision*Recall}{Precision+Recall}\end{aligned}\)        (6)

\(\begin{aligned}IoU=\frac{Precision*Recall}{Precision+Recall-(Precision*Recall)}\end{aligned}\)        (7)

정확도(accuracy)는 입력자료의 불균형 정도에 따라 특정 class의 accuracy에 지나치게 의존적일 수 있지만, 관련 객체만 식별하는 모델의 성능을 나타내는 정밀도(precision)와 모든 관련 사례를 찾는 모델의 성능인 재현율(recall)은 이를 평균 취함으로써 그 의존성을 줄여주게 된다. f1 score는 정밀도나 재현율 중 하나의 값이 높아서 정확도가 높아지는 것을 방지하고자 고안되었다. 따라서 f1 score는 정밀도와 재현율의 조화 평균을 산출한 값이다. 아울러, IOU는 객체 탐지(object detection)에서 개별 객체(object)에 대한 검출(detection)이 성공하였는지 결정하는 지표로 전체 영역에서 중복 영역의 비율을 계산한다.

일반적으로 머신러닝 수행 시 초기 학습률은 대상지의 크기와 사용한 입력자료의 해상도를 고려하여 다르게 설정한다. 최적의 학습률을 설정하는 연구는 수행되고 있으나(Cha et al., 2022), 탐지 대상과 대상지에 따라 객관적으로 어느 정도의 학습률을 가져야 정확한 모델인지를 판별하려면 별도의 분석이 필요하다. 본 연구에서는 구축한 CNNs 알고리즘을 바탕으로 현장조사 자료 기반 산불 피해지를 전체 면적 중 70% 비율로 학습하여 모델링하였으며, 나머지 30%는 위성영상과 식생 지수의 조합만을 입력자료로 검증과 테스트를 수행하였다.

3. 연구결과 및 토의

1) 강릉·동해 산불 피해지 분류 모형 구축 결과

강릉·동해 산불 피해지 분류를 위해 산림청에서 조사한 현장조사 자료와 Sentinel-2의 분광 대역 및 지수를 활용하여 U-net 기반 CNNs 모형을 구축하였다.

CNNs 모형에서는 patch size, patches per image, epoch, class weight, loss weight, blur distance 등 여러 매개변수가 존재하며, 각 매개변수를 조정하여 우리나라 산불 피해지 분류에 가장 적합한 매개변수의 조합을 찾아야 한다. 특히 patch size와 epoch는 분류 결과에 큰 영향을 미친다. Training은 한 번에 patch를 학습하지 않고, 여러 patch가 반복적으로 동시에 사용되며 training patch는 일반적으로 TensorFlow 모형을 훈련할 때 동일한 확률로 선택한다. Patch size가 증가할수록 feature 픽셀을 oversampling하여 과적합을 방지하고 모형을 더 일반적으로 만들 수 있다. 대상지의 규모를 고려했을 때 patch size는 304에서 784까지 실험하였으며, epoch당 loss를 보았을 때 patch size 512가 가장 적합함을 확인하였다. Patches per image는 epoch에 따라 50에서 350사이에 50단위로 가감하였다.

산불 발생 면적과 현장조사(reference)의 범위에 따라 학습이 편향되지 않도록 class weight을 설정해 bias를 조정할 수 있다. Class weight의 최적 값을 찾기 위해 각 값을 변경하며 모형을 반복 구동하였으며, class weight 0부터 5사이일 때 loss가 가장 안정적으로 감소하였다. Loss weight이 0으로 설정할 경우 모형에서는 background 픽셀보다 산불이라 의심되는 픽셀을 정확하게 식별하려 노력한다. 하지만, 0일 경우 보수적인 결과를 얻을 수 있으므로 입력자료와 대상지의 특성을 고려하여 이 값을 조정해야 경미한 산불도 탐지할 수 있을 것이다. Loss weight을 0부터 5까지 반복 실험한 결과, loss weight 2.5에서 학습률이 가장 높게 기록되었다. Blur distance의 조정을 통해 영상 edge에 대한 학습량을 조정할 수 있지만, 최대값이 과하게 설정되면 전체적인 분석 결과가 보간되어 손실될 수 있다. 따라서 blur distance의 값을 0부터 100까지 반복 구동을 5단위로 실험하였으며, 0~80 범위에서 edge에 대한 학습량이 고르게 분포하며, 결과물의 손실이 적음을 확인하였다.

모형은 20~50회 사이 10회 단위로 구동하였고, epoch가 증가할수록 모형의 정밀도(precision)와 재현율(recall)이 높아짐을 확인하였다. 하지만, 50회를 초과하더라도 정확도의 차이가 ±0.3으로 적어 모형의 최대 구동 횟수는 50회로 설정하였다(Fig. 3).

OGCSBN_2022_v38n6_1_1273_f0003.png 이미지

Fig. 3. Graphs for epoch validation statistics of CNNs (x-axis: epoch, y-axis: R2 ).

강릉·동해 산불 피해지 분류에 대한 사용자 정확도는 epoch 20회 93.7%(f1=0.468, IoU= 0.879), 30회 94.9%(f1=0.474, IoU=0.902), 40회 96.4%(f1=0.482, IoU=0.929), 50회 97.3%(f1=0.486, IoU=0.946)로 상당히 높은 정확도를 보였다(Table 2, Fig. 4(a)). f1 score는 모든 경우에서 0.46 이상으로, 구축한 모형의 정밀도와 재현율이 균형적으로 높음을 확인하였다. 이는 데이터 분류 클래스가 균일한 것을 의미한다. 또한, 학습 및 테스트를 수행한 지역을 제외하고 현장조사 시 일부 면적이 소실된 경우도 탐지하는 경향을 보였다(Fig. 4(b)). IoU 값을 통해서는 산불 피해지 분류에 대해 구축한 CNNs 모형의 정확도가 최대 0.94 이상으로 상당히 높음을 확인하였다. 하지만, blur distance를 충분히 주었음에도 영상의 경계 부분에는 일부 오탐지 되는 경향을 보였다. 이는 경계부에 대한 설명이 가능한 입력자료 추가와 더불어 매개변수 조절이 필요할 것으로 판단된다.

Table 2. The results of epoch validation statistics at the last epoch of CNNs

OGCSBN_2022_v38n6_1_1273_t0002.png 이미지

OGCSBN_2022_v38n6_1_1273_f0005.png 이미지

Fig. 4. Result of CNNs model comparing with forest fire area by field survey in Donghae region.

2) 울진·삼척 산불 피해지 분류 적용

강릉·동해 산불을 대상으로 구축한 U-net 기반 CNNs은 상당히 높은 정확도로 모형이 개발되었지만, 여전히 강릉·동해 지역을 대상으로 모형이 과적합(overfitting) 되었을 수 있으므로 추가적인 산불 발생지에 대한 검증이 필요하다. 따라서 강릉·동해 산불로 개발한 U-net 기반 CNNs 모형을 유사시기에 발생한 울진·삼척 산불에 적용하였다.

강릉·동해 산불과 동일한 조건으로 50번 구동한 결과, 모델 자체의 정확도는 95.1%(f1=0.470, IoU=0.899)로 여전히 높은 예측 정확도를 확보하였다. 본 연구진이 보유한 울진 지역의 현장조사 자료는 극히 일부 지역으로 한정되어 있어 직접적인 검증을 수행하기는 어려운 부분이 있다. 따라서 산불 발생 당시 국립산림과학원에서 보고한 자료를 활용하여 간접적인 검증을 수행하였다. 국립산림과학원에서 보고한 자료는 산불 전문 부서에서 개발한 알고리즘과 산불 진화 헬리콥터를 통해 현장에서 디지타이징(digitizing)한 자료를 바탕으로 작성되었다(Won et al., 2007). 사용한 알고리즘은 산불 전후 NBR의 변위를 가지고 모형을 구동하여 산불 발생의 임계점으로부터 표준편차를 가감하여 산불피해의 정도(심, 중, 경)를 구분하였다. 본 연구에서 구축한 CNNs 모형 결과와 국립산림과학원 보고 자료와의 직접 비교결과, 산불 발생 면적이 74.4% 일치하였다(Fig. 5). 총 산불 발생 면적 분석 결과는 16,774 ha로, 산림청에서 발표한 면적인 16,302 ha와의 차이가 있다. 이는 국립산림과학원은 산불 피해지 범위 임상도 상 산림으로 제한했다는 점, 학습으로 활용된 현장조사자료와 활용 위성영상과의 시점이 다르다는 점, 분석 시 활용한 지수가 다른 점 등으로 인한 영향으로 해석된다. 추가적인 알고리즘 보완을 위해서는 산불 발생 시 현장에 대한 전수조사가 동반되어야 하며, 이러한 데이터가 누적되어야 산불 피해지 분류 모형의 정확도를 향상시킬 수 있을 것으로 판단된다.

OGCSBN_2022_v38n6_1_1273_f0004.png 이미지

Fig. 5. Results of Gangneung and Donghae CNNs model applied to Uljin and Samchuk area comparing to forest fire area reported by NIFoS.

4. 결론

본 연구는 Sentinel-2 영상에서 농림위성과 유사한 분광대역을 활용하여 산불 피해지 분류 가능성을 검증하고 평가하기 위해 수행되었다. 현재 Sentinel 영상을 활용한 분석은 5일 단위로 가능하지만, 이 또한 대상지 관측을 위한 운량 등의 기상 조건이 갖추어질 경우에 해당한다. 향후 농림위성이 발사되어 일 단위의 영상을 확보되어 추가적인 알고리즘 개선이 된다면, 산불이 발생 후 일자별 면적 산출이 높은 정확도로 탐지될 수 있을 것으로 기대된다. 본 연구를 통해 U-net 기반 CNNs은 위성영상에서 산불의 전후 영향으로 인한 특징을 학습할 수 있으며, 종단간 학습 기능은 광범위한 전처리를 단순화시키는데 용이한 것으로 확인되었다. 이는 위성영상으로 산불 탐지를 할 수 있는 긍정적인 면을 전망하지만, 여전히 위성영상만으로 산불을 탐지하는 것은 한계가 있다. 정확도 높은 분류 모형을 만들기 위해서는 산불 피해지에 대한 정밀한 현장조사자료의 누적이 필요하다. 또한, 우리나라 전역에 적용하기 위해 현재 시도하지 못한 최적의 매개 변수 조합을 찾아야 할 과제가 남아있다. 향후 산불피해지역의 신속하고 정확한 피해지 구획, 임상별 피해강도 평가 등 다양한 경관평가를 위해서는 추가적으로 넓고 촘촘한 분광대역을 가진 위성영상 뿐만 아니라 LiDAR, RADAR, 지형, 기후요인 등의 입력 변수를 추가하여 방법론을 더욱 개선하고 보다 정확한 추정 모형을 구축할 필요가 있다. 아울러, 농림위성 영상이 산림 정책에 활용될 수 있는 수준으로 제공되기 위해 정부, 지방자치단체, 대학, 기업, 일반 국민 등으로 세분화하여 주체 간 직접 활용이 가능한 형태의 산불 정보를 연계하는 과정이 필요하다. 본 연구는 농림위성을 통해 생산된 자료의 이용에 대한 명확한 기준을 수립하여 산림관리기준을 개선하기 위한 기초 자료로서 의미가 있다.

사사

본 연구는 산림청 국립산림과학원 “농림위성정보 수신·처리·ARD 표준화 및 지능형 산림정보 플랫폼 개발(과제번호: FM0103-2021-01-2022)” 과제의 일환으로 수행되었으며, 산림청(한국임업진흥원) 산림과학기술 연구개발사업(FTIS 2020179A00-2222-BB01)의 지원을 받아 수행되었습니다.

References

  1. Cha, S., H.W. Jo, M. Kim, C. Song, H. Lee, E. Park, J. Lim, D. Schepaschenko, A. Shvidenko, and W.K. Lee, 2022. Application of deep learning algorithm for estimating stand volume in South Korea, Journal of Applied Remote Sensing, 16(2): 024503. https://doi.org/10.1117/1.JRS.16.024503
  2. Djalante, R., 2019. Key assessments from the IPCC special report on global warming of 1.5 ℃ and the implications for the Sendai framework for disaster risk reduction, Progress in Disaster Science, 1: 100001. https://doi.org/10.1016/j.pdisas.2019.100001
  3. Escuin, S., R. Navarro, and P. Fernandez, 2008. Fire severity assessment by using NBR (Normalized Burn Ratio) and NDVI (Normalized Difference Vegetation Index) derived from LANDSAT TM/ETM images, International Journal of Remote Sensing, 29(4): 1053-1073. https://doi.org/10.1080/01431160701281072
  4. Gao, B.C., 1996. NDWI-A normalized difference water index for remote sensing of vegetation liquid water from space, Remote Sensing of Environment, 58(3): 257-266. https://doi.org/10.1016/S0034-4257(96)00067-3
  5. Guede-Fernandez, F., L. Martins, R.V. de Almeida, H. Gamboa, and P. Vieira, 2021. A deep learning based object identification system for forest fire detection, Fire, 4(4): 75. https://doi.org/10.3390/fire4040075
  6. He, K., X. Zhang, S. Ren, and J. Sun, 2016. Deep residual learning for image recognition, Proc. of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, USA, Jun. 27-30, pp. 770-778. https://doi.org/10.1109/cvpr.2016.90
  7. Jain, P., S.C. Coogan, S.G. Subramanian, M. Crowley, S. Taylor, and M.D. Flannigan, 2020. A review of machine learning applications in wildfire science and management, Environmental Reviews, 28(4): 478-505. https://doi.org/10.1139/er-2020-0019
  8. Jung, M. and Y. Kim, 2020. Analysis on Topographic Normalization Methods for 2019 Gangneung-East Sea Wildfire Area Using PlanetScope Imagery, Korean Journal of Remote Sensing, 36(2): 179-197 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2020.36.2.1.7
  9. Krizhevsky, A., I. Sutskever, and G.E. Hinton, 2017. Imagenet classification with deep convolutional neural networks, Communications of the ACM, 60(6): 84-90. https://doi.org/10.1145/3065386
  10. LeCun, Y., Y. Bengio, and G. Hinton, 2015. Deep learning, Nature, 521(7553): 436-444. https://doi.org/10.1038/nature14539
  11. Lentile, L.B., Z.A. Holden, A.M.S. Smith, M.J. Falkowski, A.T. Hudak, P. Morgan, S.A. Lewis, P.E. Gessler, and N.C. Benson, 2006. Remote sensing techniques to assess active fire characteristics and post-fire effects, International Journal of Wildland Fire, 15(3): 319-345. https://doi.org/10.1071/WF05097
  12. Liu, Z., K. Zhang, C. Wang, and S. Huang, 2020. Research on the identification method for the forest fire based on deep learning, Optik, 223: 165491. https://doi.org/10.1016/j.ijleo.2020.165491
  13. Magdalena, M.K., P. Bringfried, L. Jerome, D. Vincent, M.W. Uwe, and G. Ferran, 2017. Sen2Cor for Sentinel-2, Proc. of SPIE; International Society for Optics and Photonics, Bellingham, WA, USA, Oct. 4, vol. 10427, pp. 37-48. https://doi.org/10.1117/12.2278218
  14. NIFoS (National Institute of Forest Science), 2022. Occurrence and Damage of Forest Fire, National Institute of Forest Science, Seoul, Korea, p. 20.
  15. Ronneberger, O., P. Fischer, and T. Brox, 2015. October. U-net: Convolutional networks for biomedical image segmentation, In: Navab, N., Hornegger, J., Wells, W., Frangi, A. (eds), Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, Springer, Cham, Switzerland, vol. 9351, pp. 234-241. https://doi.org/10.1007/978-3-319-24574-4_28
  16. Rouse Jr, J.W., R.H. Haas, D.W. Deering, J.A. Schell, and J.C. Harlan, 1974. Monitoring the vernal advancement and retrogradation (green wave effect) of natural vegetation, No. E75-10354, Texas A&M University Remote Sensing Center, College Station, TX, USA.
  17. Sim, S., W. Kim, J. Lee, Y. Kang, J. Im, C. Kwon, and S. Kim, 2020. Wildfire Severity Mapping Using Sentinel Satellite Data Based on Machine Learning Approaches, Korean Journal of Remote Sensing, 36(5-3): 1109-1123 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2020.36.5.3.9
  18. Simonyan, K. and A. Zisserman, 2014. Very deep convolutional networks for large-scale image recognition, arXiv preprint arXiv:1409.1556.50. https://doi.org/10.48550/arXiv.1409.1556
  19. Soenen, S.A., D.R. Peddle, and C.A. Coburn, 2005. SCS+ C: A modified sun-canopy-sensor topographic correction in forested terrain, IEEE Transactions on Geoscience and Remote Sensing, 43(9): 2148-2159. https://doi.org/10.1109/TGRS.2005.852480
  20. Song, A., J. Choi, Y. Han, and Y. Kim, 2018. Change detection in hyperspectral images using recurrent 3d fully convolutional networks, Remote Sensing, 10(11): 1827. https://doi.org/10.3390/rs10111827
  21. Stankova, N. and R. Nedkov, 2015. Monitoring forest regrowth with different burn severity using aerial and Landsat data, Proc. of 2015 IEEE International Geoscience and Remote Sensing Symposium (IGARSS), Milan, Italy, Jul. 26-31, pp. 2166-2169. https://doi.org/10.1109/IGARSS.2015.7326233
  22. Szegedy, C., W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, 2015. Going deeper with convolutions, Proc. of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, MA, USA, Jun. 7-12, pp. 1-9. https://doi.org/10.1109/cvpr.2015.7298594
  23. Won, M.S., K.S. Koo, and M.B. Lee, 2007. An Quantitative Analysis of Severity Classification and Burn Severity for the Large Forest Fire Areasusing Normalized Burn Ratio of Landsat Imagery, Journal of the Korean Association of Geographic Information Studies, 10(3): 80-92 (in Korean with English abstract).
  24. Yamashita, R., M. Nishio, R.K.G. Do, and K. Togashi, 2018. Convolutional neural networks: an overview and application in radiology, Insights into Imaging, 9(4): 611-629. https://doi.org/10.1007/s13244-018-0639-9
  25. Zhang, Q., J. Xu, L. Xu, and H. Guo, 2016, Deep convolutional neural networks for forest fire detection, Proc. of the 2016 International Forum on Management, Education and Information Technology Application, Guangzhou, China, Jan. 30-31, pp. 568-575. https://doi.org/10.2991/ifmeita16.2016.105