DOI QR코드

DOI QR Code

Automatic Classification by Land Use Category of National Level LULUCF Sector using Deep Learning Model

딥러닝모델을 이용한 국가수준 LULUCF 분야 토지이용 범주별 자동화 분류

  • Park, Jeong Mook (Human Resources Development Center for Convergence of Advanced Technologies in Forest Industry, Kangwon National University) ;
  • Sim, Woo Dam (Department of Forest Management, Kangwon National University) ;
  • Lee, Jung Soo (Department of Forest Management, Kangwon National University)
  • 박정묵 (강원대학교 산림산업 첨단융합기술 전문인력 양성센터) ;
  • 심우담 (강원대학교 산림경영학과) ;
  • 이정수 (강원대학교 산림경영학과)
  • Received : 2019.11.15
  • Accepted : 2019.12.10
  • Published : 2019.12.31

Abstract

Land use statistics calculation is very informative data as the activity data for calculating exact carbon absorption and emission in post-2020. To effective interpretation by land use category, This study classify automatically image interpretation by land use category applying forest aerial photography (FAP) to deep learning model and calculate national unit statistics. Dataset (DS) applied deep learning is divided into training dataset (training DS) and test dataset (test DS) by extracting image of FAP based national forest resource inventory permanent sample plot location. Training DS give label to image by definition of land use category and learn and verify deep learning model. When verified deep learning model, training accuracy of model is highest at epoch 1,500 with about 89%. As a result of applying the trained deep learning model to test DS, interpretation classification accuracy of image label was about 90%. When the estimating area of classification by category using sampling method and compare to national statistics, consistency also very high, so it judged that it is enough to be used for activity data of national GHG (Greenhouse Gas) inventory report of LULUCF sector in the future.

신기후체제에 대응하여 정확한 탄소흡수 및 배출량을 산정하기 위해 토지이용 범주별 통계량 산출은 활동자료로서 매우 중요한 자료이다. 본 연구는 효과적인 토지이용 범주별 판독을 위하여 산림항공사진(이하 FAP)에 딥러닝모델을 적용하여 토지이용 범주별 자동화 판독 분류를 한 후 샘플링기법을 통해 국가단위 통계량을 산출하였다. 딥러닝모델에 적용한 데이터세트(이하, DS)는 국가산림자원조사 고정표본점 위치 기반 FAP의 이미지를 추출하여 훈련데이터세트(이하, 훈련DS)와 시험데이터세트(이하, 시험 DS)로 구분하였다. 훈련 DS는 토지이용 범주별 정의에 따라 이미지별 레이블을 부여하였으며, 딥러닝모델을 학습하고 검증하였다. 검증 시 모델의 학습정확도는 학습 횟수 1500회에서 정확도가 약 89%로 가장 높았다. 학습된 딥러닝모델을 시험DS에 적용한 결과, 이미지 레이블의 판독 분류정확도는 약 90%로 높았다. 샘플링기법을 통해 범주별 분류 결과에 대해 면적을 추정하여 국가통계와 비교한 결과 정합성 또한 높아 향후 LULUCF(Land Use, Land Use Change, Forestry)분야 국가 온실가스 인벤토리 보고서의 활동자료로 활용하기에 충분하다고 판단된다.

Keywords

1. 서론

LULUCF(Land Use, Land Use Change, Forestry) 분야의 토지이용 및 토지피복 통계량 산출은 국토를 관리하고 국토계획을 작성함에 있어 중요하다(Kim, 2016). 특히, LULUCF 분야는 매년 온실가스 배출량 및 흡수량이 변화하기 때문에 체계적인 모니터링이 필요한 상황이다(Garciaoliva and Masera, 2004). IPCC에서는 LULUCF 분야 온실가스 배출 및 흡수량 산정의 활동자료 구축방법으로 Sampling method(샘플링방법)과 Wall to Wall 방법을 제시하고 있으며, 특히 샘플링방법은 국가단위 토지 이용 범주별 면적량과 토지이용변화 모니터링에 비용 효율적인 방법으로 제시되었다(Achard et al., 2008). 국내 LULUCF분야에 대한 연구는 Yu et al.(2015)가 위성영상 자료와 KLIS(Korea Land Information System), 토지피복 자료를 이용하여 과거 10년간의 시 · 군단위 토지이용변화를 분석하였으며, Park et al.(2017)은 이용하여 표본강도에 따라 토지이용을 구분하고 이에 대한 불확실성 평가를 하였다. 또한, Park et al.(2016)은 IPCC(Intergovernmental Panel on Climate Change) 단일 범주에 대해서 가이드라인에 따라 온실가스 배출량 및 흡수량을 산정하였다.

국가수준 토지피복변화 및 분류에 관한 연구는 2000년대 초부터 QuickBird·IKONOS·KOMPSAT2와 같은 고해상도 영상을 사용하여 진행되었다(Oh et al., 2010; Li and Shao, 2013). 과거 원격탐사 자료의 영상분류방법은 픽셀기반 분류방법과 객체기반 분류방법이 주로 사용되었다(Myint et al., 2011; Ke et al., 2010). 픽셀기반 분류방법은 개별 픽셀의 분광정보가 픽셀의 각각의 분광 특성을 표현하지 않기 때문에 파장대의 정보가 혼합되어 분류의 부정확함을 유발한다(Lee et al., 2010; Welh and Riggan, 2010). 반면, 객체기반 분류방법은 객체의 모양과 분광정보를 활용하여 인접 픽셀을 객체로 병합하여 객체를 분류 단위로 정하여 분류를 시행한다(Johnsson, 1994; Lee and Wamer, 2006). 하지만, 픽셀기반과 객체기반 분류방법은 인간에 의해 수동적으로 선정된 각각의 피처를 알고리즘에 따라 분류하기 때문에 정확도 향상에 영향을 미치는 한계가 있다.

딥러닝은 2006년 사용된 이후 영상인식, 패턴인식 등의 부분에서 유용하게 사용되었으며, 최근 딥러닝 기반의 영상분류에 관한 연구가 활발히 진행되고 있다(Lee and Kim, 2019). 딥러닝모델은 인공신경망이라는 인공 지능분야의 모형이 발전된 형태로 데이터세트에서 자동으로 피처를 학습한다는 장점이 있다. 특히, CNN(Convolutional Neural Networks)은 생물의 시각처리과정을 모방하여 구축된 아키텍처(architecture)로 최근 이미지 분류에 관한 연구에서 사용되는 모델이다(Chung et al., 2017). 딥러닝모델 중 Inception 모듈은 TensorFlow의 모델 중 하나로 신경망 차원의 개수를 증가시켜 많은 이미지의 특징 찾는 장점이 있으며, SENet은 모델의 매개변수를 강화시켜 정확도를 향상시키는 과정으로 모델의 분류결과를 강화시키기 위하여 사용된다(Kim, 2019; Xia et al., 2019).

국가수준의 토지이용지도를 구축하거나 현장조사를 통하여 통계량을 산출하는 것은 시간적 및 비용적 효율성이 낮기 때문에 딥러닝모델을 적용한 LULUCF 분야 토지이용 범주별 자동화 판독 분류 모델을 개발하는 것이 필요하다. 따라서 본 연구는 국가산림자원조사(National Forest Inventory, 이하 NFI) 위치 기반 산림항공사진(Forest Aerial Photography, 이하 FAP) 이미지에 딥러닝모델을 적용하여 국가수준 토지이용 범주에 따라 자동화 판독 분류하였다. 또한, 샘플링기법을 통해 추정된 토지이용 범주별 면적을 국가통계와 비교 · 분석하여 신기후체제에 대응하기 위한 국가 온실가스 인벤토리 보고서(National Inventory Report, 이하 NIR)의 활동자료로서의 활용 가능성을 입증하였다.

2. 연구대상지 및 방법

1) 연구대상지

연구대상지는 위도 33°~38°, 경도 125°~131°에 위치한 대한민국 전국으로 선정하였다. 국내 행정구역은 1개 특별시, 1개 특별자치시, 6개 광역시, 8개 도, 1개 특별자치도로 구분되며, 전체 국토 면적은 2019년 지적통계 기준, 약 10,038 천ha이다. 전체 국토 면적 중 임야는 약 63%(6,371 천ha)로 가장 많은 면적을 차지하고 있으며, 농경지(전, 답, 과수원) 약 19%(1,945 천ha) 순으로 분포 하고 있다(Ministry of Land, Infrastructure and Transport, 2019)(Fig. 1).

OGCSBN_2019_v35n6_2_1053_f0002.png 이미지

Fig. 1. Republic of Korea map.

2) 연구자료

딥러닝모델 적용을 위한 영상자료는 FAP를 이용하였다. FAP는 산림청에서 NFI를 수행하기 전에 임분의 사전정보를 취득하기 위하여 사용하는 자료이며, 본 연구는 전용된 토지의 토양탄소가 안정화되는 기간인 20년을 고려하여 1996년부터 2005년에 촬영된 4차 FAP을 이용하였으며, 4차 FAP는 흑백영상으로 전국 단위 산림항공사진을 토지이용 범주에 따라 분류하고자 사용하였다(IPCC, 2019). FAP는 샘플링기법을 적용하기 위하여 영상 일부분의 이미지를 추출하였으며, 이미지 추출의 기준이 되는 위치는 제6차 NFI 고정표본점 자료를 이용하였다. NFI는 산림자원의 변화를 주기적으로 파악하기 위해 전 국토에 표본강도 4 km단위(전국) 또는 표본강도 2 km단위(광역시 및 제주도)의 일정한 간격으로 표본점을 배치하는 계통추출법(Systematic sampling)을 적용한 표본점 자료이다(Korea Forest Service, 2017; Korea Forest Service, 2019)(Fig. 2). 또한, 토지이용 범주별 면적 추정 결과와의 정합성 비교를 위한 국가통계는 지적통계, 임업통계연보, 농업면적조사 자료를 이용하였다. 공간분석과 딥러닝 분석 프로그램은 각각 ArcGIS Pro와 Pycharm을 활용하였다.

OGCSBN_2019_v35n6_2_1053_f0001.png 이미지

Fig. 2. NFI_4 km map and 4th Forest Aerial Photography.

3) 연구방법

본 연구에 적용된 딥러닝모델은 Inception-V4 및 SENet의 아키텍처 기반으로 구축하였다. 딥러닝모델 적용을 위한 데이터세트(Dataset, 이하 DS)는 NFI고정 표본점 위치 기반 2km 표본점을 생성하여 표본점 위치 기반 FAP의 이미지를 추출하였다. DS는 딥러닝모델을 훈련시키기 위한 훈련DS(4 km 위치 기반 이미지)와 훈련된 딥러닝모델을 적용하는 시험DS(2 km 위치 기반 이미지)로 구성하였다. 훈련DS는 토지이용 범주에 따라 육안판독에 의해 레이블을 정의하고, 학습과 검증을 통하여 딥러닝모델 최적의 학습횟수를 선정하였다. 마지막으로 학습과 검증을 통해 평가된 딥러닝모델을 시험DS에 적용하여 추출된 이미지에 대한 토지이용 범주별 레이블을 예측하였다. 또한, 샘플링기법을 이용하여 토지이용 범주별 면적을 추정하여 국가통계와 비교·분석하였다(Fig. 3).

OGCSBN_2019_v35n6_2_1053_f0003.png 이미지

Fig. 3. Study method.

(1) 딥러닝모델

딥러닝모델의 아키텍처는 Google社에서 개발한 Inception-V4와 2017년 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)에서 우수한 성능을 보인 SENet의 아키텍처를 활용하였다. Inception모델은 독립적인 4개의 층(Stem, Inception-A, Inception-B, InceptionC)으로 구성된 다층 네트워크로, 그 중 3개의 층은 합성 곱층(Convolution Layer)과 활성화 함수로 구성되며, 마지막 층은 합성곱층과 풀링층(pooling Layer)으로 구성 된다. Inception모델은 일반적인 딥러닝 모델보다 깊은 네트워크망으로 구성 되어있기 때문에 기본구조는 병렬 형태로 구성되며, 1×1 크기의 합성곱층을 통해 매개 변수(Parameter)의 양을 줄여 이미지 연산량을 감소시키고, 분석결과의 과적합(Overfitting)문제를 완화시킨다(Szegedy et al., 2017; Spanhol et al., 2016)(Fig. 4).

OGCSBN_2019_v35n6_2_1053_f0004.png 이미지

Fig. 4. General deep learning and Basic construction of Inception.

SENet은 Alexnet, VGGnet 등 일반적인 딥러닝 모델과는 달리, Block 형태의 구조로 구성되며, 합성곱층의 연산결과를 바탕으로, 가중치를 조절하는 역할을 수행한다. SENet의 장점은 딥러닝 아키텍처 내의 어떤 층에도 유연하게 적용할 수 있으며, 추가적인 계산량에 비해 정확도 증가량이 높다는 장점이 있다(Hu et al., 2018).

토지이용 범주별 분류정확도를 향상시키기 위해서는 다른 알고리즘의 장점을 결합하여 모델을 구축하는 것이 필요하다(Chitroub, 2010). 본 연구는 국가수준의 FAP 데이터를 사용하기 때문에 Inception-V4 모델을 활용하여 딥러닝모델의 네트워크망을 깊게 구성하고 학습의 수준을 높였으며 분석결과의 과적합 문제를 해결 하였다. 또한 Inception 네트워크 내 4개의 층에 각각 SEBlock을 결합하여 SE-Inception모델을 구축하여 활용하 였다. 딥러닝모델의 입력이미지는 DS 이미지의 크기 (160 m×160 m), 공간해상도(80 cm), 흑백(gray scale)이미지임을 고려하여 이미지크기와 채널 수를 ‘200×200×1’로 변경하여 적용하였다(Fig. 5).

OGCSBN_2019_v35n6_2_1053_f0005.png 이미지

Fig. 5. Deep learning model.

(2) 데이터세트 구축

DS에서 FAP 위치의 기반이 되는 표본점은 NFI 고정표본점을 이용하였으나 표본강도 2 km의 고정표본점은 광역시 및 제주도에만 배치되어 있기 때문에, 추가적으로 표본강도 2 km단위 표본점 22,119개를 생성(NFI_2 km+)하였다. 생성된 NFI_2 km+ 위치를 기반으로 FAP 이미지를 추출하여 DS를 구축하였으며, 표본강도에 따라 훈련DS와 시험DS로 구성하였다.

(3) 훈련DS의 학습 및 검증

훈련DS는 토지이용 범주별로 레이블 정의가 필요하며, Murray et al.(2018)은 Landsat TM 및 SPOT 위성영상 이미지를 육안으로 판독하여 토지피복 지도를 구축 하였다. 따라서, 훈련DS는 표본강도 4 km 위치 기반 FAP에서 추출한 이미지를 구글지도를 참조하여 육안으로 판독하고 토지이용 범주별 레이블을 부여하였다 (Rwanga and Ndambuki, 2017). 표본강도 4 km단위 이미지는 전체 6,260개 이미지 중 민간인통제선 이북 지역과 군사시설 등 육안판독이 불가한 이미지와 기하학적으로 오차가 발생한 이미지 1,247개를 필터한 5,013개의 이미지를 사용하였다. 토지이용 범주의 정의는 IPCC 기준(IPCC, 2001; IPCC, 2019) 및 주요 선진사례와 국내 국가통계자료 및 공간주제도의 토지이용 범주별 정의를 참조하고, 국내 토지이용 특성에 적합하도록 범주별 정의를 정립하였다(Table 1).

Table 1. Land use category

OGCSBN_2019_v35n6_2_1053_t0001.png 이미지

딥러닝모델을 적용한 훈련DS는 일관성 있는 평가를 위하여 훈련DS_A(2,507개)와 훈련DS_B(2,506개)로 구분하였으며, 각각의 DS에 대하여 학습과 검증을 실시하였다. 훈련DS는 DS_A와 B로 번갈아 선정하여 DS_A와 B로 구분하였으며 DS_A와 B의 정확도를 비교한 후 이를 학습에 사용하였다. 딥러닝모델 학습 시 학습횟수는 학습정확도와 학습시간을 고려하여 딥러닝모델이 최적화되는 시기로 선정하였다. 학습된 딥러닝모델의 검증은 토지이용 범주별 정밀도(Precision), 포괄성(Recall), F₁(F-score), 정확성(Accuracy)의 산출식을 이용하였다(Rouhi et al., 2015; Huang and Rust, 2018)(Eq. (1), (2), (3), (4)). 정밀도는 딥러닝모델로 1개 범주를 예측했을 경우 육안판독 분류 결과와 일치의 정도를 판단하는 지표이며, 포괄성은 육안판독 분류 결과를 딥러닝모델 분류 결과가 어느 정도 추정하는지를 보여주는 지표이다(Li, 2016).

\(Precision =\frac{T N}{T N+F P}\)       (1)

\(Recall =\frac{T P}{T P+F N}\)       (2)

\(F_{1}=\frac{2 \times \text { Precision } \times \text { Recall }}{\text { Precision }+\text { Recall }}\)       (3)

\(\text { Accuracy }=\frac{T P+T N}{T P+T N+F P+F N}\)       (4)

Table 2. Deep learning interpretation and visual interpretation confusion matrix

OGCSBN_2019_v35n6_2_1053_t0002.png 이미지

(4) 시험DS의 분류 및 분류정확도 평가

시험DS는 표본강도 NFI_2 km+ 위치 기반 FAP에서 추출한 이미지로 전체 25,098개 이미지 중, 훈련DS와 마찬가지로 영상미제공 지역과 기하오차가 발생한 이미지 2,979개를 제외한 22,119개의 이미지를 사용하였다. 시험DS는 검증된 딥러닝모델을 적용하여 토지이용 범주별 레이블을 자동화 판독 분류하였다. 자동화 판독 분류결과의 분류정확도는 4 km 단위 위치 기반 이미지를 대상으로 육안판독 분류 결과와 혼동행렬을 이용하여 비교 · 분석하였으며, 오분류 사례를 검토하여 딥러닝모델의 적용시 개선점을 파악하였다.

(5) 토지이용 범주별 면적 추정 및 국가통계와의 정합성 평가

딥러닝모델을 이용하여 분류된 토지이용 범주별 면적은 샘플링기법을 이용하여 추정하였으며, 추정면적의 불확실성은 표준오차 및 상대표준오차로 평가하였다. 면적 추정에 사용된 총 면적은 4차 FAP 촬영의 마지막 연도인 2005년을 기준으로 지적통계의 국토 면적을 사용하였다(Statistics Finland, 2019; Ministry of Land, Infrastructure and Transport, 2019). 불확실성은 국가단위 토지이용 면적을 추정할 시, 추정면적의 표준오차에 의하여 추정치를 신뢰할 수 있는 확률로 수치가 낮을수록 추정된 면적이 정확함을 의미하며, Eq. (5)와 Eq. (6)을 이용하여 산출하였다(Yim et al., 2015).

\(s\left(A_{h}\right)=\frac{\sqrt{p_{h}\left(1-p_{h}\right)}}{n-1}\)       (5)

\(Relative standard error (\%)=\frac{s\left(A_{h}\right)}{A_{h}} \times 100 \)       (6)

\(A_{n}: Estimated area of land-use category h\)

샘플링기법을 이용하여 추정된 범주별 면적은 국가 온실가스 인벤토리 MRV 지침(GIR)에 따라 국가통계 자료(지적통계, 임업통계연보, 농업면적조사)를 이용하여 정합성을 분석하여 신기후체제에 대응하기 위한 NIR의 활동자료로서의 가능성을 판단하였다.

3. 결과 및 고찰

1) 딥러닝 모델의 학습 및 검증

훈련DS_A와 DS_B를 이용한 딥러닝모델 학습은 학습횟수를 2,000회로 제한하여 관찰하였다. 훈련DS의 학습정확도와 학습시간을 고려하여 딥러닝모델이 최적화되는 학습횟수를 경험적으로 선정한 결과, 1,500번 의 학습을 진행하였을 때 학습정확도는 두 훈련DS 모두 평균 약 89%로 딥러닝모델의 성능이 유지되어 학습을 종료하였다(Fig. 6).

OGCSBN_2019_v35n6_2_1053_f0006.png 이미지

Fig. 6. The accuracy of training dataset.

딥러닝모델의 범주별 F₁은 훈련DS_A의 경우 산림지 96.4%, 농경지 80.3%, 습지 76.6%, 정주지 57.1% 초지 10.6% 순으로 높았으며, 훈련DS_B의 경우 산림지 94.8%, 농경지 88.5%, 정주지 86.3%, 습지 51.1%, 초지 48.7% 순으로 높았다(Table 3). F₁이 낮은 습지와 초지의 학습정확도는 Jo et al.(2019)의 연구결과와 유사하게 학 습정확도가 낮았다. 범주별 학습정확도는 범주별 훈련 DS의 이미지 개수가 다른 범주에 비해 상대적으로 적기 때문에 데이터의 불균형이 발생하여 정확도가 낮은 것으로 판단된다(Wang et al., 2016).

Table 3. Precision, Recall, F1 of Deep learning model

OGCSBN_2019_v35n6_2_1053_t0003.png 이미지

2) 딥러닝모델을 적용한 토지이용 범주별 자동화 판독 분류

4 km단위 위치 기반 FAP의 육안판독 분류결과와 딥러닝모델을 적용한 자동화 판독분류 결과와의 전체 정확도는 89.8%로 선행연구보다 7.9% 낮았지만, 이는 딥러닝모델의 입력이미지 채널 개수와 아키텍처 구성의 차이로 인하여 전체 정확도가 낮게 나타난 것으로 판단 된다(Scott et al., 2017)(Table 4).

Table 4. DS_A+B Verification

OGCSBN_2019_v35n6_2_1053_t0004.png 이미지

범주별 정확도는 학습정확도와 동일하게 산림지와 농경지가 각각 95.3%, 84.5%로 타 범주에 비해 높았으며, 초지와 습지가 각각 42.6%, 64.2%로 낮았다(Table 4). 초 지와 습지의 경우 본 연구가 우리나라 전체 지역을 대상으로 토지이용 범주별 분류를 하였기에 초지와 습지의 분류정확도가 낮았다. 이러한 점을 보완하기 위하여 차후 훈련DS 개수가 부족한 초지와 습지의 데이터를 추가하여 토지이용분류를 해야하며, 데이터 변조 및 증대 기법을 적용한 추가적인 연구를 통해 개선할 수 있을 것으로 판단된다(Perez and Wang, 2017).

한편, 딥러닝모델을 적용한 범주별 자동화 판독 분류에서 육안판독 분류결과와 비교하였을 때 딥러닝모델이 오판독한 사례는 대부분 산림지와 정주지를 농경지로 분류한 경우와 농경지를 습지로 분류한 경우이다 (Fig. 7). 농경지의 과수원과 산림지는 분광특성이 유사하며, 시험DS의 이미지가 농경지의 과수원과 산림지가 혼합되어 있는 경우 오판독 되었으며, 특히, 영상촬영 시기의 영향을 받는 논의 경우 물을 댄 논이 습지로 혼동하여 오판독 된 것으로 사료된다(Yeam et al., 2011). 이러한 문제점 해결을 위해서는 다양한 분광범위를 가진 다중분광 영상 자료가 필요하며(Song, 2017), 훈련DS 구성 시 토지이용 범주별로 데이터를 충분히 확보하고 하위범주를 세분화해야 한다(Lee and Kim, 2019; Bergado et al., 2016). 본 연구는 NIR의 활동자료로서 활용하기 위하여 딥러닝모델을 20년전 확보할 수 있는 1채널 흑백 FAP에 적용하였지만, 추후 현재 연도에 대한 자동화 판독 분류 연구 시 고해상도 다중분광 이미지에 적용할 수 있기 때문에 분류 정확도를 향상시킬 수 있을 것으로 기대된다.

OGCSBN_2019_v35n6_2_1053_f0007.png 이미지

Fig. 7. Visual interpretation-Deep learning.

3) 토지이용 범주별 면적 추정 및 국가통계와의 정합성 평가

토지이용 범주별 자동화 판독 분류 결과를 샘플링기법을 이용하여 면적을 추정한 결과, 산림지 6,159 천ha (61.8%), 농경지 2,340 천ha(23.5%), 정주지 852 천ha(8.5%), 습지 421 천ha(4.2%), 초지 192 천ha(1.9%) 순으로 높았으며, 불확실성은 산림지 0.5%, 농경지 1.1%, 정주지 2.5%, 습지 4.3%, 초지 6.8% 순으로 낮았다. 추정면적이 넓은 산림지와 농경지는 불확실성이 0.5%와 1.1%로 다른 범주에 비해 낮은 반면, 추정면적이 적은 습지와 초지는 4.3%와 6.8%로 불확실성이 높았다. 한편, 핀란드의 경우 산림지는 불확실성이 1.0%로 가장 낮았으며, 농경지, 정주지, 초지는 평균 약 10% 이내, 습지는 17.6%로 불확실성이 가장 높아 본 연구결과의 경향과 유사하였다(Statistics Finland, 2019)(Table 5).

Table 5. 2 km_NFI result applied deep learning model

OGCSBN_2019_v35n6_2_1053_t0005.png 이미지

샘플링기법을 이용하여 추정된 면적을 국가통계 자료와 비교한 결과, 추정면적은 지적통계보다 산림지 -322 천ha(-3.2%), 습지 -162 천ha(-1.6%)는 과소 추정되었으며, 농경지는 306 천ha(+2.8%), 초지 135 천ha(+1.4%), 정주지 73 천ha(+0.7%)는 과대 추정되었지만, 범주별 면적 비율 대비 평균 약 5% 이내 차이를 보여 자동화 판독 분류의 정확도를 입증하였다. 산림지의 경우 추정면 적은 임업통계연보보다 235 천ha 과대 추정되었으며, 농경지의 경우 추정면적은 농업면적조사보다 -516 천ha 과소 추정되었다. 이는 이미지 분류 시 토지이용 범주의 경계 부분에 인접하여 부정합되었으며, 특히 농로와 경지에 경계에 인접한 하천 등을 모두 경지에 포함하여 차이가 발생한 것으로 판단된다(Cai et al., 2019; Statistics Korea, 2019)(Table 6).

Table 6. Comparison of deep learning model and national statistics

OGCSBN_2019_v35n6_2_1053_t0006.png 이미지

4. 결론

본 연구는 NFI 위치 기반 FAP에 딥러닝모델을 적용하여 새로운 국가수준의 통계산출 방법과 신기후체제에 대응하기 위한 NIR의 활동자료로서의 활용 가능성을 입증하고자 하였다. 딥러닝모델은 훈련DS를 이용하여 학습하였으며, 학습된 딥러닝 모델을 시험DS에 적용하여 토지이용 범주별 자동화 판독 분류하였다. 도출된 결과와 육안판독 결과를 비교하여 분류 정확도를 평가하고, 국가통계와 정합성을 비교·분석하였다. 본 연구의 결과를 토대로 두가지의 결론이 도출되었다. 첫째, 토지이용 범주별 자동화 판독 분류한 결과의 전체 분류 정확도는 89.8%이었으며, 범주별 분류 정확도는 산림지 96.1%, 농경지 84.9%, 정주지 71.1%, 습지 64.2%, 초지 42.6% 순이었다. 초지 및 습지는 타 토지이용 범주에 비해 면적이 작기 때문에 데이터의 불균형이 발생하여 분류 정확도가 낮았으나, 딥러닝모델 적용 시 DS에 다중 분광해상도를 적용하고 DS의 충분한 데이터확보, 범주별 하위범주의 세분화 학습을 통한 연구를 진행한다면, 분류 정확도를 개선할 수 있을 것으로 판단되었다. 둘째, 자동화 판독 분류결과에 샘플링기법을 이용하여 추정한 면적은 산림지, 농경지, 정주지, 습지, 초지 순으로 분포하였다. 습지와 초지 항목에서 딥러닝모델의 성능이 낮음에도 불구하고, 추정된 면적의 비율은 국가통계의 면적비율과 5% 이내의 차이를 보여 국가단위 토지이용 통계산출에서의 활용 가능성을 입증하였다.

본 연구는 국가단위 FAP와 NFI자료의 활용 가능성을 파악하였으며, 딥러닝모델을 적용하여 육안판독보다 신속히 토지이용의 현황을 파악할 수 있다는 점에서 효율 적이었다. 하지만 습지와 초지의 경우 산림지, 농경지, 정주지에 비해 데이터가 적어 정확도가 현저하게 떨어졌으며 흑백 영상을 사용하여 분류의 한계가 있었다. 향후 진행될 연구는 습지와 초지의 데이터 비율 증가를 증가시키고 다중분광영상을 활용하여 딥러닝모델에 적용한 다면 분류정확도를 높여 분류의 신뢰성을 높일 것이라 판단된다. 특히 다중분광영상 분류는 흑백영상에 비하여 토지이용 범주별 차이를 명확하게 나타내 분류정확도를 향상시킬 것이다. 아울러 국가수준의 토지이용에 대한 효율적인 모니터링을 위한 기초적인 자료제공 및 NIR의 LULUCF분야의 활동자료로도 활용될 것으로 기 대된다.

사사

이 논문은 산림청(한국임업진흥원) 산림과학기술 연구개발사업(2017045A00-1919-BB01)의 지원에 의하여 이루어진 것입니다.

References

  1. Achard, F., G. Grassi, M. Herold, M. Teobaldelli, and D. Mollicone, 2008. Use of satellite remote sensing in LULUCF sector, Proc. of the IPCC Expert Meeting, Jena, Germany, May 13-15, vol. 33, pp. 1-25
  2. Bergado, J.R., C. Persello, J. Ray, and C. Gevaert, 2016. A deep learning approach to the classification of sub-decimetre resolution aerial images, Proc. of 2016 IEEE International Geoscience and Remote Sensing Symposium (IGARSS), Beijing, China, Jul. 10-15, pp. 1516-1519.
  3. Chitroub, S., 2010. Classifier combination and score level fusion: concepts and practical aspects, International Journal of Image and Data Fusion, 1(2): 113-135. https://doi.org/10.1080/19479830903561944
  4. Chung, Y. J., S.M. Ahn, J.H. Yang, and J.J. Lee, 2017. Comparison of Deep Learning Frameworks: About Theano, Tensorflow, and Cognitive Toolkit, Journal of Intelligence and Information Systems, 23(2): 1-17 (in Korean with English abstract). https://doi.org/10.13088/jiis.2017.23.1.001
  5. Cai, G., H. Ren, L. Yang, N. Zhang, M. Du, and C. Wu, 2019. Detailed Urban Land Use Land Cover Classification at the Metropolitan Scale Using a Three-Layer Classification Scheme, Sensors, 19(14): 3120. https://doi.org/10.3390/s19143120
  6. Garciaoliva, F. and O.R. Masera, 2004. Assessment and measurement issues related to soil carbon sequestration in land-use, land-use change, and forestry (LULUCF) projects under the Kyoto Protocol, Climatic Change, 65(3): 347-364. https://doi.org/10.1023/B:CLIM.0000038211.84327.d9
  7. Hu. J., L. Shen, and G. Sun, 2018. Squeeze-and-Excitation Networks, Proc. of the IEEE conference on computer vision and pattern recognition, Salt Lake City, USA, Jun. 18-22, pp. 7132-7141.
  8. Huang, M.H. and R.T. Rust, 2018. Artificial Intelligence in Service, Journal of Service Research, 21(2): 155-172. https://doi.org/10.1177/1094670517752459
  9. IPCC, 2009. Good Practice Guidance and Uncertainty Management in National Greenhouse Gas Inventories, vol. 4, IPCC, Geneva, Switzerland.
  10. IPCC, 2019. 2019 Refinement to the 2006 IPCC Guidelines for National Greenhouse Gas Inventories, vol. 4, IPCC, Geneva, Switzerland.
  11. Jo, W.H., W.H. Lim, and K.H. Park, 2019. Deep learning based Land Cover Classification Using Convolutional Neural Network: a case study of Korea, The Korean Geographical Society, 54(1): 1-16 (in Korean with English abstract).
  12. Johnsson, K., 1994. Segment-Based Land-Use Classification from SPOT Satellite Data, Photogrammetric Engineering and Remote Sensing, 60(1): 47-54.
  13. Ke, Y., L.J. Quackenbush, and J. Im, 2010. Synergistic use of QuickBird multispectral imagery and LIDAR data for object-based forest species classification, Remote Sensing of Environment, 114(6): 1141-1154. https://doi.org/10.1016/j.rse.2010.01.002
  14. Kim, C. M., 2016. Land use classification and land use change analysis using satellite images in Lombok Island, Indonesia, Forest Science and Technology, 12(4): 183-191. https://doi.org/10.1080/21580103.2016.1147498
  15. Kim, Y. H., 2019. Age Estimation Method based on Comparative Convolutional Neural Network using Inception Module, Master's thesis, Kyungpook National University, Daegu, Korea (in Korean with English abstract).
  16. Korea Forest Service, 2017. 7th National Forest Resource Survey and Forest Health and Vitality Survey Guideline, Korea Forest Service, Daejeon, Korea.
  17. Korea Forest Service, 2019. 4th Forest Aerial Photography, http://www.forest.go.kr/newkfsweb/html/HtmlPage.do?pg=/fgis/UI_KFS_5003_010300.html&mn=KFS_02_04_03_04_08&orgId=fgis/, Accessed on Mar. 5, 2019.
  18. Lee, H.J., J.H. Ru, and Y.G. Yu, 2010. Extracting High Quality Thematic Information by Using High-Resolution Satellite Imagery, Journal of the Korean Society for Geospatial Information Science, 18(1): 73-81 (in Korean with English abstract).
  19. Lee, J.Y. and T.A. Warner, 2006. Segment based image classification, International Journal of Remote Sensing, 27(16): 3403-3412. https://doi.org/10.1080/01431160600606866
  20. Lee, S.H. and J.S. Kim, 2019. Land Cover Classification Using Sematic Image Segmentation with Deep Learning, Korean Journal of Remote Sensing, 35(2): 279-288 (in Korean with English abstract). https://doi.org/10.7780/KJRS.2019.35.2.7
  21. Li, W., H. Fu, L. Yu, and A. Cracknell, 2017. Deep learning based oil palm tree detection and counting for high resolution remote sensing image, Remote Sensing, 9(1): 22 https://doi.org/10.3390/rs9010022
  22. Li, X. and G. Shao, 2013. Object-based urban vegetation mapping with high-resolution aerial photography as a single data source, International Journal of Remote Sensing, 34(3): 771-789. https://doi.org/10.1080/01431161.2012.714508
  23. Ministry of Land, Infrastructure and Transport, 2019 Cadastral Statistics yearbook, SeJong, Korea.
  24. Murray, N.J., D.A. Keith, D. Simpson, J.H. Wilshire, and R.M. Lucas, 2018. An online remote sensing application for land cover classification and monitoring, Methods in Ecology and Evolution, 9(9): 2019-2027. https://doi.org/10.1111/2041-210X.13043
  25. Myint, S.W., P. Gober, A. Brazel, S. Grossman-Clarke, and Q. Weng, 2011. Per-pixel vs. object-based classification of urban land cover extraction using high spatial resolution imagery, Remote Sensing of Environment, 115(5): 1145-1161. https://doi.org/10.1016/j.rse.2010.12.017
  26. Oh, C.Y., S.Y. Park, H.S. Kim, and C.U. Choi, 2010. Comparison of Landcover Map Accuracy Using High Resolution Satellite Imagery, The Korean Association of Geographic Information Studies, 13(1): 89-100 (in Korean with English abstract).
  27. Park, J.W., H.S. Na, and J.S. Yim, 2017. Comparison of Land-use Change Assessment Methods for Greenhouse Gas Inventory in Land Sector, Journal of Climate Change Research, 8(4): 329-337 (in Korean with English abstract). https://doi.org/10.15531/ksccr.2017.8.4.329
  28. Park, S.J., C.H. Lee, M.S. Kim, S.G. Yun, Y.H. Kim, and B.G. Ko, 2016. Calculation of GHGs Emission from LULUCF-Cropland Sector in South Korea, Korean Society of Soil Science and Fertilizer, 49(6): 826-831 (in Korean with English abstract). https://doi.org/10.7745/KJSSF.2016.49.6.826
  29. Perez, L. and J. Wang, 2017. The Effectiveness of Data Augmentation in Image Classification using Deep Learning, arXiv preprint arXiv:1712.04621.
  30. Rouhi, R., M. Jafari, S. Kasaei, and P. Keshavarzian, 2015. Benign and malignant breast tumors classification based on region growing and CNN segmentation, Expert Systems with Applications, 42(3): 990-1002. https://doi.org/10.1016/j.eswa.2014.09.020
  31. Rwanga, S. and J.M. Ndambuki, 2017. Accuracy Assessment of Land Use/Land Cover Classification Using Remote Sensing and GIS, International Journal of Geosciences, 8(4): 611-622. https://doi.org/10.4236/ijg.2017.84033
  32. Scott, G.J., M.R. England, W.A. Starms, R.A. Marcum, and C.H. Davis, 2017. Training Deep Convolutional Neural Networks for Land-Cover Classification of High-Resolution Imagery, Geoscience and Remote Sensing Letters, 14(4): 549-553. https://doi.org/10.1109/LGRS.2017.2657778
  33. Statistics Finland, 2019. Greenhouse Gas Emissions in Finland 1990 to 2017, Statistics Finland, Helsinki, Finland.
  34. Song, A.R. and Y.I. Kim, 2017. Deep Learning-based Hyperspectral Image Classification with Application to Environmental Geographic Information Systems, Korean Journal of Remote Sensing, 33(6): 1061-1073 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2017.33.6.2.3
  35. Spanhol, F.A., L.S. Oliveira, C. Petitjean, and L. Heutte, 2016. Breast cancer histopathological image classification using Convolutional Neural Networks, Proc. of 2016 International Joint Conference on Neural Networks, Vancouver, Canada, Jul. 24-29, pp. 2560-2567.
  36. Statistics Korea, 2019. Agricultural Area Survey in 2018, Statistics Korea, Daejeon, Korea.
  37. Szegedy, C., S. Loffe, V. Vanhoucke, and A.A. Alemi, 2017. Inception-v4, inception-resnet and the impact of residual connections on learning, Proc. of Thirty-First AAAI Conference on Artificial Intelligence, San Francisco, USA, Feb. 4-9.
  38. Wang, S., W. Liu, J. Wu, L. Cao, Q. Meng, and P.J. Kennedy, 2016. Training deep neural networks on imbalanced data sets, Proc. of 2016 International Joint Conference on Neural Networks, Vancouver, Canada, Jul. 24-29, pp. 4368-4374.
  39. Welh, R.C. and N.D. Riggan, 2010. Object-based classification vs. pixel-based classification: comparative importance of multi-resolution imagery, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 38(4): C7.
  40. Xia, X., Y. Wu, Q. Lu, and C. Fan, 2019. Experimental study on crop disease detection based on deep learning, IOP Conference Series: Materials Science and Engineering, 569(5): 052034. https://doi.org/10.1088/1757-899X/569/5/052034
  41. Yeom., J.H., J.H. Lee, D.J. Kim, and Y.I. Kim, 2011. Hierarchical Land Cover Classification using IKONOS and AIRSAR Images, Korean Journal of Remote Sensing, 27(4): 435-444 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2011.27.4.435
  42. Yim., J.S., R.H. Kim, S.J. Lee, and Y.M. Son, 2015. Land-use Change Assessment by Permanent Sample Plots in National Forest Inventory, Journal of Climate Change Research, 6(1): 33-40 (in Korean with English abstract). https://doi.org/10.15531/ksccr.2015.6.1.33
  43. Yu, S.C., W. Ahn, and J.A. Ok, 2015. A Study on Construction Plan of the Statistics for National Green House Gas Inventories (LULUCF Sector), Journal of Korean Society for Geospatial Information Science, 23(3): 67-77 (in Korean with English abstract). https://doi.org/10.12672/ksis.2015.23.3.067