DOI QR코드

DOI QR Code

A Study on Pre-evaluation of Tree Species Classification Possibility of CAS500-4 Using RapidEye Satellite Imageries

농림위성 활용 수종분류 가능성 평가를 위한 래피드아이 영상 기반 시험 분석

  • Kwon, Soo-Kyung (Division of Global Forestry, National Institute of Forest Science) ;
  • Kim, Kyoung-Min (Division of Global Forestry, National Institute of Forest Science) ;
  • Lim, Joongbin (Division of Global Forestry, National Institute of Forest Science)
  • 권수경 (국립산림과학원 국제산림연구과) ;
  • 김경민 (국립산림과학원 국제산림연구과) ;
  • 임중빈 (국립산림과학원 국제산림연구과)
  • Received : 2021.04.02
  • Accepted : 2021.04.16
  • Published : 2021.04.29

Abstract

Updating a forest type map is essential for sustainable forest resource management and monitoring to cope with climate change and various environmental problems. According to the necessity of efficient and wide-area forestry remote sensing, CAS500-4 (Compact Advanced Satellite 500-4; The agriculture and forestry satellite) project has been confirmed and scheduled for launch in 2023. Before launching and utilizing CAS500-4, this study aimed to pre-evaluation the possibility of satellite-based tree species classification using RapidEye, which has similar specifications to the CAS500-4. In this study, the study area was the Chuncheon forest management complex, Gangwon-do. The spectral information was extracted from the growing season image. And the GLCM texture information was derived from the growing and non-growing seasons NIR bands. Both information were used to classification with random forest machine learning method. In this study, tree species were classified into nine classes to the coniferous tree (Korean red pine, Korean pine, Japanese larch), broad-leaved trees (Mongolian oak, Oriental cork oak, East Asian white birch, Korean Castanea, and other broad-leaved trees), and mixed forest. Finally, the classification accuracy was calculated by comparing the forest type map and classification results. As a result, the accuracy was 39.41% when only spectral information was used and 69.29% when both spectral information and texture information was used. For future study, the applicability of the CAS500-4 will be improved by substituting additional variables that more effectively reflect vegetation's ecological characteristics.

기후변화나 여러 환경문제들로부터 지속 가능한 산림자원 관리 및 모니터링을 위해 임상도의 지속적인 갱신은 필수적이다. 따라서 효율적이고 광역적인 산림 원격탐사의 필요성에 따라 차세대 중형위성 4호의 사업이 확정되어 2023년 발사 예정에 있다. 농림위성(차세대 중형위성 4호)는 5 m급 공간해상도와 Blue, Green, Red, Red Edge, Near Infra Red 총 5개 밴드를 가진다. 본 연구는 농림위성의 발사 및 활용에 앞서 농림위성과 유사한 사양을 가지는 RapidEye를 이용하여 위성 기반 수종분류의 가능성을 모의 평가하기 수행되었다. 본 연구는 춘천 선도산림경영단지를 연구 대상지로 하였으며, RapidEye 위성 영상기반 모의 수종분류는 생육기 영상으로부터 추출한 분광정보와 생육기와 비생육기의 NIR 밴드로부터 추출한 GLCM 질감특성 정보가 활용되었고, 이를 입력데이터로 하여 랜덤 포레스트(Random Forest) 기법을 적용하였다. 본 연구에서는 침엽수종 3종(소나무, 잣나무, 낙엽송), 활엽수종 5종(신갈나무, 굴참나무, 자작나무, 밤나무, 기타활엽수), 침활혼효림 총 9종으로 임상을 분류하였다. 분류 정확도는 임상도와 분류 결과를 대조하여 산출하였으며, 분류 정확도는 분광정보만 사용한 경우 39.41%, 분광정보과 질감정보를 모두 사용한 경우 69.29%의 정확도를 보였으며, 다중시기 분광정보 및 질감정보의 활용을 통해 5 m 해상도의 위성영상으로부터 수종분류의 가능성이 있음을 확인하였다. 향후 식생의 생태적 특성을 더욱 효과적으로 반영한 추가 변수를 대입하여 농림위성 활용 가능성을 제고하고자 한다.

Keywords

1. 서론

우리나라 국토 면적의 약 63%는 산림으로 이루어져 있다. 기후변화 대응에 있어서 유일한 탄소 흡수원인 산림은 복지 서비스, 고용 창출의 측면에서 연간 174조 원의 경제적·공익적 가치를 국민에게 제공하는 등 중요한 역할을 수행한다(Korea Forest Service, 2017). 특히 요즈음 기후변화로 인해 산림생태계는 빠르게 변화하고 있기 때문에, 산림에 대한 지속적인 모니터링과 관리는 필수적이다(Lee et al., 2017). 산림청은 1972년부터 산지 관리, 산림경영, 재해방지 및 환경영향 평가 등 다양한 가치 창출을 위해 임상도를 제작해왔다(Kim, 2015).

산림조사는 항공사진 육안판독과 현지 조사 대조를 통해 이루어지며, 현재 5년 주기로 디지털 대축척 임상도 갱신 사업이 진행되고 있다(Lee et al., 2008). 기존의 현장 조사나 항공사진 판독의 경우 접근 불가능 지역이 존재하며, 인력 소요가 많아 시간과 비용이 많이 요구되는 한계가 존재한다(Kent, 2011). 현재 국토지리정보원의 항공사진 촬영 계획에 맞춰 전국을 5구역으로 분할하여 임상도 현행화가 진행된다. 이에 따라 동일지역의 임상도 는 사유림의 경우 5년 주기, 국유림의 경우 1년 주기로 현황 화가 진행된다. 국유림의 경우 산림경영과 같은 사업내역의 연동으로 1년 주기 현행화가 가능한 반면 사유림의 경우 사업내역의 관리가 어렵기 때문에 임상도 사업에 의존하여 현행화를 진행해야 한다. 이러한 시기적 차이는 산림재해와 같은 국가 재난 방지 대책에 있어 큰 영향을 줄 수 있다. 현재 임상도 는 산불 확산 예측 모델의 주요 입력 자료이며 임상 도의 현행화 정도에 따라 산불 확산 예측의 정확도가 달라지는데, 이는 인명피해 혹은 재산피해로 이어질 수 있어 임상도 갱신 주기의 시의적절성이 논의되고 있다.

한편, 항공사진 판독의 경우 임상도 수종분류를 위한 항공사진 판독 매뉴얼에서 제시하고 있는 임상판독 기준이 정성적으로 표현되어 있어 판독 자의 숙련도에 따라 다르게 판독될 수 있는 한계를 지닌다(Kim et al., 2009). 따라서 산림조사에 위성 원격탐사 자료를 도입하여 현행화 시기를 단축하고 연구 지속성과 효율성, 광역성을 높이는 것이 요구됨에 따라 국정과제 34-2(항공, 우주 등 첨단기술 산업 육성을 위한 R&D 지원) 및 ‘제3차 우주개발진흥 기본계획(2018)’에 따라 차세대 중형 위성 2단계 개발사업 및 산림-농림의 상황 관측을 위한 농림 위성 (차세대 중형위성 4호)의 사업이 확정되었다 (Kim et al., 2016; Kim et al., 2018; Kim et al., 2020).

2023년 발사 예정인 5 m급 공간 해상도의 농림 위성 (차세대 중형위성 4호)는 주요 임무로 한반도 산림 광역모니터링을 수행하며, 5 m의 공간 해상도를 가지고 5개의 관측 파장 대역을 가진다. 재촬영 주기가 1~3일로 짧기 때문에 한반도 광역 모니터링이 가능한 장점이 있다. 본 연구에서는 농림 위성의 발사 및 활용에 앞서, 농림 위성과 공간 해상도와 분광해 상도가 유사한 사양을 가지는 RapidEye를 이용해 농림 위성 기반 수종분류의 가능성을 모의 평가하기 위해 수행되었다.

2. 연구 지역 및 사용 데이터

본 연구에서는 수종 분류 지도를 생성하기 위해 RapidEye 위성영상을 활용하였다. RapidEye는 독일 우주국(German Space Agency, DLR)의 지원을 받아 개발이 시작되어 2008년 8월 29일 최초 발사되었으며 총 5개의 위성이 5~6일 주기로 지구를 관측하는 위성으로 Planet 社에서 데이터 소스를 제공한다. RapidEye의 제원은 아래 Table 1과 같으며, 총 다섯 가지의 밴드를 가지고 공간 해상도가 5 m인 점에서 농림 위성을 이용한 수종 분류의 모의평가 대상으로 적절하기 때문에 선정되었다. Table 2는 농림 위성 제원(안)으로, RapidEye의 사양과 유사함을 알 수 있다. 농림 위성은 짧은 재촬영 주기와 넓은 촬영 폭을 가지며 3일에 한 번 한반도 전체를 촬영 하기 때문에 한반도 내의 시계열적 변화를 탐지할 수 있는 장점이 있다. 한 편, 농림 위성은 틸트를 수행하는 위 성으로 이에 대한 보정이 필요하기 때문에 검 보정 기술 개발이 필수적으로 요구된다.

Table 1. Specification of RapidEye

OGCSBN_2021_v37n2_291_t0001.png 이미지

Table 2. (Proposal) Specification of CAS500-4 (The agriculture and forestry satellite)

OGCSBN_2021_v37n2_291_t0006.png 이미지

본 연구에서는 수종분류를 위해 연구 대상지인 강원도 춘천 선도산림경영단지에 대해 두 시기의 RapidEye 영상과 임상도를 사용하였다(Fig. 1). 먼저 Fig. 1. (a)는 생육 시기의 RapidEye 영상으로 2019년 5월 26일에 촬영되었으며 분광 정보 및 질감 정보를 추출하기 위해 활용되었다. 생육기 영상의 경우 수종 간 광학적 특징이 비교적 두드러지는 시기, 즉 분광분리도가 높은 시기(Lim et al., 2019)이므로 이를 사용하였다. Fig.1. (b)는 비생육기의 RapidEye 영상으로 2019년 4월 7일에 촬영되었다. 비생육기의 영상은 활엽수와 침엽수의 차이가 잎의 유 무로 인해 광학적으로 확연히 드러난다. Fig.1. (c)는 연구 대상지에 대한 임상 도로, 춘천시에서 2020년 제작한 1:7000 정밀 임상도이다. 본 연구의 수종분류 대상은 우리 나라에 주로 분포하고 있는 수종들로 구성하였으며, 소나무, 잣나무, 낙엽송을 포함한 침엽수종, 신갈나무, 굴참나무, 자작나무, 밤나무, 기타 활엽수를 포함한 활엽 수종, 침활혼효림 총 9종으로 분류하였다.

OGCSBN_2021_v37n2_291_f0008.png 이미지

Fig. 1. (a) Growing Season Image of RapidEye (2019.05.26) (b) Non-Growing Season Image of RapidEye (2019.04.07), (c) Forest Type Map of Study Site (Chuncheon-si).​​​​​​​

3. 연구 방법

Fig. 2는 본 연구의 전체적인 흐름을 나타낸 연구 흐름도이다. 우리나라에서 전국적인 산림의 현황을 파악하기 위한 산림조사 방법인 디지털 항공 사진 판독법에 따르면, 상록침엽수종은 비생육기 영상을 통해 활엽수 종과 구분하여 확인할 수 있으며 분광 정보(색조), 질감, 수목의 형태(수관 특성)와 수고 정보 등을 통해 수종을 분류할 수 있다(Kwon et al., 2007; Lee et al., 2017; Moon and Kim, 2015; Park et al., 2018). 따라서 본 연구에는 생육기 영상으로부터 추출한 산림의 색조 즉 ‘분광 정보’를 입력 데이터로 활용하고, 생육기와 비생육기 각각의 영상으로부터 산림의 ‘질감 정보’를 추출하여 이를 입력데이터로 머신러닝 기법 중 하나인 ‘랜덤 포레스트 (Random Forest)’에 적용하여 강원도 춘천 선도산림경영단지 지역의 수종분류 지도를 제작하였다.

OGCSBN_2021_v37n2_291_f0001.png 이미지

Fig. 2. Flow Chart of the Study.

본 연구는 두 가지 케이스로 진행이 되었는데, 먼저 케이스 1은 RapidEye 생육기 영상을 이용하여 분광정보 를 추출하여 랜덤 포레스트를 이용해 수종분류 지도를 제작하였다. 케이스 2는 RapidEye 생육기 영상으로부터 분광 정보와 질감 정보를, 비생육기 영상으로부터 질감 정보를 추출하여 이를 입력데이터로 하여 랜덤 포레스트를 통해 수종분류 지도를 제작하였다.

1) RapidEye 위성 영상 전처리 및 분광 정보 추출

위성영상으로부터 분광 정보를 추출하는데 있어서, 대기 보정 등의 전처리 과정은 필수적이다. 광학 위성 영상의 경우 태양으로부터 입사한 빛이 센서로 들어오기까지 대기를 두 번 통과하며 산란, 흡수, 반사 등 대기에 의한 영향을 받게 되고, 원격탐사 영상 처리에 있어서 이러한 영향을 고려하여 대기 효과를 보정해 주어야 한다. 본 연구에서 활용하는 RapidEye 영상은 배포 시 Level 1B의 값으로 제공되며, 이는 전처리 단계 중 방사 보정과 기하 보정만 수행된 상태이다. 분광 분석을 위해서 본 연구에서는 L3HARRIS 社에서 제공하는 원격탐사 영상 처리 및 분석 프로그램인 ENVI 5.5.3을 이용하여 대기 보정을 수행하였다. ENVI에서 제공하는 대기 보정 툴 중 QUAC (Quick Atmospheric Correction)은 다른 대기 보정 기법과 달리 센서의 물리적인 특성과 촬영 당시 사전정보 등을 요구하지 않고 영상 자체의 특성과 분광 반사율을 이용하여 간편하며 효과적이라고 알려져 있기 때문에 본 연구에서도 이 방식을 활용하였다(Park et al., 2014). RapidEye는 Blue, Green, Red, Red Edge, NIR(Near Infra Red) 총 5개 밴드로 구성되어 있으며, 각각 대기 보정한 5개 밴드를 입력 데이터로 적용하였다.

2) 질감 정보 추출(GLCM)

머신러닝을 이용한 수종분류에 있어서, 질감 정보는 정확도를 향상시키는데 도움이 될 수 있다(Dian et al., 2015; Lee et al., 2005). 본 연구에서는 항공사진을 통한 수종 판독 매뉴얼 중 수관 특성의 질감을 수치적으로 반영할 수 있는 원격탐사 기법인 GLCM(Gray-Level Cooccurrence Matrix) 기법을 활용한다(Hall-Beyer, 2000). GLCM은 화소들 사이의 관계를 고려해 질감 영상을 제 작하는 방법 중 하나로 잘 알려진 기법으로 Haralick et al. (1973)에 의해 제안되었으며 텍스쳐를 활용한 수 종분 류 및 토지 피복 분류에 활용되고 있는 기술 중 하나이 다(Lee et al., 2019; Lim et al., 2019; Wallner et al., 2015).

Rodriques-Galiano et al. (2012)는 다중시기 Landsat TM 위성영상으로부터 GLCM 질감 데이터를 활용하여 광학 데이터만을 사용한 방식보다 10% 이상(최대 30%) 향상된 토지 피복 분류를 수행하였다. Lim et al. (2019)는 Sentinel-2 위성영상으로부터 광학 데이터를 활용하고 Planet Scope 위성영상으로부터 GLCM 질감 정보를 생성하여 광릉 지역의 수종을 분류하고 GLCM 데이터의 분리도를 평가하였다. 이처럼 GLCM 기법을 통해 생성한 질감 정보는 수종분류에 도움이 되며 본 연구에서는 통계 소프트웨어인 R에서 제공하는 GLCM 패키지를 이용하였다. 방향에 따라 7가지의 GLCM 질감 정보를 추출하였으며,R에서 제공하는 mean, variance, homogeneity, contrast, dissimilarity, entropy, second moment 총 7종을 추출하였다. GLCM은 M×N 크기의 영상에서 거리(d)와 방향(ø)에 대한 그레이 레벨(i, j)을 가지는 해당 화소 쌍이 나타나는 빈도수를 표시하는 행렬 P[i, j]로,mean, variance는 통계적 특성과 관련이 있으며, contrast, dissimilarity, homogeneity는 밝기의 대조 및 동질성과 관련이 있으며, entropy, second moment는 규칙성과 관련이 있다.

3) 머신 러닝(Random Forest)을 통한 수종분류

본 연구에서 수종분류를 위해 사용된 머신 러닝 툴은 랜덤 포레스트(Random Forest)로 다수의 의사결정 나무 (Decision Tree)가 생성되어 관심변수와 관심변수 간 공간적 관계를 설명하기 위해 구성되는 학습 기법이다. 다중 의사결정 나무를 구성한 후 각 나무(Tree)의 클래스를 계산하는 것을 분류(Classification), 평균 예측값을 결과값으로 가지는 것을 회귀(Regression)라고 한다. 본 연구에서 활용한 통계 소프트웨어인 R은 패키지 형태로 랜 덤 포레스트 코드가 구현되어 있으며, 이를 활용하였다.

1)과 2)의 과정을 통해 추출한 분광정보와 질감정보를 랜덤 포레스트에 대한 입력 데이터로 하여 수종분류를 수행하였다. Fig. 3은 위성영상 상에서 육안으로 확인할 수 있는 산림의 모습이다. 생육기 RapidEye 영상에 서는 침엽수림의 경우 수관 층이 붉은색을 지니며 활엽수림의 경우보다 녹색을 띠는 것을 알 수 있다. 비생육기 영상에서는 활엽수의 잎이 존재하지 않아서 침엽수림을 육안으로 구분할 수 있다. 임상도를 기준으로 하여 총 아홉 가지 수종에 대해 500개의 랜덤 포인트를 자동 생성하였다(Fig. 4). 이 중 70%의 포인트를 트레이닝 데이터(학습 데이터)로 랜덤 샘플링 하였고 나머지 30%를 검증 데이터로 하여 정확도를 평가하였다

OGCSBN_2021_v37n2_291_f0002.png 이미지

Fig. 3. Comparison of Forest map and Satellite Imageries.

OGCSBN_2021_v37n2_291_f0003.png 이미지

Fig. 4. Random Points for Random Forest Training.

4. 연구 결과 및 고찰

대기 보정을 수행한 RapidEye 생육기 영상으로부터 추출한 분광 정보 데이터 5종(Blue, Green, Red, Red Edge, NIR)을 케이스 1의 입력 데이터로 적용하였고, RapidEye의 생육기, 비생육기 영상의 NIR 밴드로부터 각각 추출한 GLCM 질감 정보 데이터 총 14종 데이터를 5종의 분광 정보 데이터와 함께 케이스 2의 입력데이터로 적용하였다. 아래 1)에서는 수종별 분광 분리도를 살펴보았으며 2)에서는 GLCM 질감 정보 분석을 위한 window size를 선정하였다. 3), 4) 에서는 두 케이스의 차이를 비교하였다.

1) 수종별 분광 분리도 차이 결과

Fig. 5은 수종별 분광 분리도의 차이를 나타낸다. 수종 별 분광 밴드에 따른 평균값을 0-1로 정규화하여 그래프로 나타낸 것으로, 바 그래프는 각 수종에 대한 최 대값-최소값 분포를 의미한다. 실제로는 생육기의 분리도 폭이 비생육기 영상의 변화 폭보다 크다. 그래프를 보면, 생육기(Fig. 5. (a))의 NIR 밴드에서 특히 수종 간 분리도가 큰 것을 알 수 있으며, 수종별 분광 특성의 차이도 나타남을 알 수 있다. 이처럼 NIR 대역은 식생 영 역에 있어 반사도의 차이가 가장 민감하고 수종 간 분리 도가 가장 큰 파장 대역이다(Lim et al., 2019). 따라서 본 연구에서는 생육기·비생육기 영상의 NIR 밴드로부터 GLCM을 생성하였다. GLCM 결과에 대해서는 다음 세션에서 설명한다.

OGCSBN_2021_v37n2_291_f0004.png 이미지

Fig. 5. Mean value graph with error bar of RapidEye multi spectral bands by species. (a) Growing season image, (b) Non-growing season image.

2) GLCM 분석을 위한 window size 선정

GLCM 데이터는 무빙 윈도우(moving window)기법 으로 생성되기 때문에, GLCM 데이터를 생성하기 위해 서는 분석 대상을 고려한 윈도우 사이즈(window size)에 대한 설정이 필수적이며 window size에 따라 GLCM 데이터의 변화가 크다. 본 연구에서는 적절한 window size의 선정을 위해 3 by 3 (pixel) 사이즈부터 4 pixel 씩 증가 시켜 103 by 103까지 GLCM 윈도우 사이즈에 따른 수종에 대한 GLCM 영향 분석 실험을 수행하였다(Fig. 6, Fig. 7). Fig. 7는 각 수종에 대한 GLCM input data window size에 따른 분산을 0-1의 범위로 표준화하여 나타낸 것이다. 따라서 그래프에서 나타나는 값이 작을수록 수종 별 픽셀값 유사도가 높다는 것을 의미한다. 그래프상에서 window size가 작을 때 수종 내 픽셀별 유사도가 낮은 것을 확인할 수 있다. window size가 증가할수록 수종별 픽셀 유사도가 높아지지만 Fig. 6에서 확인할 수 있듯이 window size가 증가할수록 데이터에 padding이 커지기 때문에 원 데이터의 손실이 생기고, 영상 질감이 과하게 부드러워져서 수종 간 차이를 확인하기 어렵다. 본 연구에서는 실험을 통해 window size 39 by 39 이상으로는 전체 정확도에 큰 영향을 주지 않으면서 데이터 손실이 적은 것으로 판단되어 window size 39를 선정하였다.

OGCSBN_2021_v37n2_291_f0005.png 이미지

Fig. 6. Difference of GLCM window size. (a) 3 by 3, (b) 39 by 39, (c) 75 by 75, (d) 103 by 103 (*Pink Line : boundary of target area.).

OGCSBN_2021_v37n2_291_f0006.png 이미지

OGCSBN_2021_v37n2_291_f0007.png 이미지

Fig. 7. Variability graph of GLCM input data. (a) ‘mean’ Variability (Growing Season Image; G), (b) ‘mean’ Variability (Non-Growing Season Image; NG), (c) ‘variance’ Variability (G), (d) ‘variance’ Variability (NG), (e) ‘variance’ Variability (G), (f) ‘variance’ Variability (NG), (g) ‘contrast’ Variability (G), (h) ‘contrast’ Variability (NG), (i) ‘dissimilarity’ Variability (G), (j) ‘dissimilarity’ Variability (NG), (k) ‘entropy’ Variability (G), (l) ‘entropy’ Variability (NG), (m) ‘second moment’ Variability (G), (n) ‘second moment’ Variability (NG).

3) Case 1 : 수종별 분광 정보를 활용한 분석 결과 비교

2019년 5월 26일 춘천 선도산림경영단지를 촬영한 영상을 기반으로 분광 정보만을 활용한 분석을 수행하였을 때(Fig. 8) 분석 및 검증 결과 39.41%의 전체 분류 정확도를 보였으며 임상도와 대조했을 때 전반적으로 오분류가 많이 발생했음을 알 수 있다. Table 3은 케이스 1의 에러 매트릭스로, 행은 추정치(분류 결과)이고 열은 참조 데이터(임상도)이다. 각 숫자는 랜덤 포인트로 생성한 검증 자료의 개수를 의미하며 잣나무, 낙엽송, 기타 활엽수, 자작나무에서는 약 50%에 준하는 분류 정확도가 나왔으나 이외의 수종에서는 낮은 정확도가 나왔다. 특히 활엽수의 경우는 5개 밴드 (B, G, R, RE, NIR)의 분광정보만을 통해서는 수종별 분류 정확도가 매우 낮은 결과를 보였다. 이 결과는 분광 정보만을 입력데이터로 활용하는 것은 수종분류에 있어 유효하지 않다는 한계점을 시사하며, 수종별 특성을 반영할 수 있는 추가 지표가 필요함을 대변한다.

OGCSBN_2021_v37n2_291_f0009.png 이미지

Fig. 8. (a) Forest Type Map, (b) Result of Forest Classification (Case 1).

Table 3. Error Matrix of Random Forest Classification Case 1

OGCSBN_2021_v37n2_291_t0002.png 이미지

OGCSBN_2021_v37n2_291_t0003.png 이미지

4) Case 2 : 수종별 분광 및 질감 정보를 활용한 분석 결과 비교

케이스 2에서는 수종별 특성을 반영하여 케이스 1의 결과를 보완하기 위해 GLCM 질감 정보 총 14종을 랜덤 포레스트 입력변수에 추가하여 수종분류를 진행하였다. 2019년 4월 7일 촬영된 비생육기 RapidEye 영상과 2019년 5월 26일 촬영된 생육기 RapidEye 영상의 NIR 밴드로부터 질감 정보를 생성하였으며, 생육기 분광 정보와 함께 생육기와 비생육기 질감 정보를 융합하여 수종분류를 수행하였다. 분석 결과 69.29%의 상대적으로 높은 분류 정확도를 보였으며, 질감 정보의 투입이 약 30%의 분류 정확도 상승효과로 이어진다는 것을 확인하였다. 임상도와 직접 비교를 해 보았을 때 전반적으로 유사한 형태의 분류 결과를 보이고 있다(Fig. 9).

OGCSBN_2021_v37n2_291_f0010.png 이미지

Fig. 9. (a) Forest Type Map, (b) Result of Forest Classification (Case 2).

Table 4는 케이스 2의 에러 매트릭스로, 신갈나무와 침활혼효림에 있어 특히 정확도가 낮게 나타난 것을 알 수 있다. 춘천 선도산림경영단지 임상도 데이터베이스를 살펴보았을 때, 해당 지역에서 신갈나무가 가장 많은 면적을 차지하는 것으로 나타났다. 면적에 비례하여 트레이닝 및 검증 포인트를 임의 선정하는 경우 신 갈나무가 아닌 다른 수종을 선택할 가능성이 다른 수종에 비해 높아 발생한 오차라 생각된다. 또한 침활혼효림의 경우 침엽수종과 활엽수종으로 오분류가 산발적으로 발생한 것을 알 수 있는데, 침활혼효림은 침엽수와 활엽수 중 수관 점유면적이 75% 이상의 우점종이 없이 섞여 있는 산림이므로 해당 클래스를 배제하고 다른 수종으로 편입 시켜 분류하는 방안의 모색도 필요할 것으로 판단된다.

Table. 4. Error Matrix of Random Forest Classification Case 2

OGCSBN_2021_v37n2_291_t0004.png 이미지

케이스 1과 케이스 2 결과를 토대로 5개 분광 밴드 정보만을 가지고는 수종분류에 한계가 있음을 확인할 수 있었다. 그러나 케이스 2에서는 생육기의 분광 정보와 함께 식물의 시계열적 특성 및 수관 층의 특성을 반영할 수 있는 두 시기 질감 정보를 활용하여 약 70%의 정확도를 확보하였다. 이를 토대로 향후 다중시기 영상을 활용하여 목표 수종의 시계열적 분광 반사 특성과 시계열적 질감 변화 정보를 추가로 반영한다면 보다 높은 정확도를 확보할 수 있을 것으로 기대된다.

Table 5는 케이스 1과 케이스 2의 사용자 정확도와 생산자 정확도를 수종 별로 대조한 표이다. Case 1과 Case 2의 User ACC는 사용자 정확도를, Prod ACC는 생산자 정확도를 각각 뜻하며, Variance는 케이스 1에서 질감 정보가 투입됐을 때(케이스 2)의 변화량을 나타낸다. 질감 정보의 투입을 통해 전체 정확도가 29.88% 증가한 것을 확인할 수 있다. 사용자 정확도와 생산자 정확도도 전 체적으로 증가하였고, 특히 활엽수(밤나무, 굴참나무) 에서 정확도가 크게 증가한 것을 알 수 있다.

Table. 5. Accuracy comparison or Case 1 and Case 2

OGCSBN_2021_v37n2_291_t0005.png 이미지

5. 결론

본 연구는 2023년 발사 예정인 농림 위성의 수종분류 가능성을 모의 평가하기 위해 수행되었다. 기존 항공사 진을 통한 수종분류 방법론에 적용되는 색조, 질감을 랜덤 포레스트 기법에 입력데이터로 적용하여, 색조 정보 (분광 정보)만 적용했을 경우 39.41%의 전체 정확도를, 색조 정보와 질감 정보를 모두 투입했을 경우 69.29%의 전체 정확도를 얻었다.

기존 임상도 제작을 위한 수종분류 방식인 항공사진 육안 판독과 달리 RapidEye 위성영상을 활용한 수종분류는 해상도가 5 m로 항공사진보다 낮아 질감 판독에 있어 정밀하지 못한 한계를 지니며, 지형이나 태양 입 사각으로 인해 발생한 그림자가 수종분류에 영향을 미치는 한계를 지닌다. 수종 질감 정보의 유사도 평가에 대한 기존 연구(Lim et al., 2019)에 따르면 추출한 GLCM에 대한 유사도 평가 결과, 이를 통해 수종을 분류할 수 있을 만큼 특별한 패턴을 보이지 않는다는 한계를 지닌다는 연구 결과가 있으나, 본 연구에서 랜덤 포레스트에 입력 데이터로 질감 정보를 투입했을 때 30% 이상 정확도 상승이라는 결과를 얻은 것을 통해 질감 데이터는 그 자체로는 특별한 패턴을 보이지 않지만, 수종분류에 있어 유의미함을 알 수 있다.

마지막으로 본 연구에서는 경험적 방법에 의해 window size를 결정하였다. 향후 연구로 수관 폭이나 임분 크기 등 식생의 생장 특성을 반영하는 적정 window size의 크기를 찾고, 다중시기 영상의 활용을 통해 목표 수종의 시계열적 분광·질감 및 생장 특성과, 토양이나 일조량 등 환경적 요소를 입력 데이터로 적용한다면 분광데이터–질감 데이터–생태학적 특성의 상관관계를 파악하여 더욱 높은 정확도의 분류 결과를 얻을 수 있을 것으로 기대한다.

References

  1. Dian, Y., Z. Li, and Y. Pang, 2015. Spectral and Texture Features Combined for Forest Tree species Classification with Airborne Hyperspectral Imagery, Journal of the Indian Society of Remote Sensing, 43(1): 101-107. https://doi.org/10.1007/s12524-014-0392-6
  2. Hall-Beyer, M., 2000. GLCM texture: a tutorial, National Council on Geographic Information and Analysis Remote Sensing Core Curriculum, 3: 75.
  3. Haralick, R.M., K. Shanmugam, and I. Dinstein, 1973. Textural features for images classification, IEEE Transactions on Systems, Man, and Cybernetics, SMC-3(6): 610-621. https://doi.org/10.1109/TSMC.1973.4309314
  4. Kent, M., 2011. Vegetation description and analysis: a practical approach, John Wiley & Sons, Chichester, UK.
  5. Kim, E.S., B.R. Lee, and J.H. Lim, 2018. Prospects of using satellite big data in the forest sector: Production and utilization of world-wide observation information from foreign satellite, National Institute of Forest Science, Seoul, KOR (in Korean).
  6. Kim, K.M., 2015. Analysis of domestic and foreign forest type map and development plan research, National Institute of Forest Science, Seoul, KOR (in Korean).
  7. Kim, K.M., G.S. Moon, J.H. Lee, C.M. Kim, and J.H. Lim, 2016. A study on the use of remote sensing data for advanced forest type map, National Institute of Forest Science, Seoul, KOR (in Korean).
  8. Kim, K.M., M.K. Kim, M.S. Won, J.W. Chun, E.S. Kim, J.S. Lim, D.A. Kwak, C.S. Woo, D.W. Sim, J.T. Kang, and J.B. Lim, 2020. Implementation plans for technology development and infrastructure construction for the Forestry Satellite, National Institute of Forest Science, Seoul, KOR (in Korean).
  9. Kim, M., M. Madden, and T.A. Warner, 2009. Forest type mapping using object-specific texture measures from multispectral Ikonos imagery, Photogrammetric Engineering & Remote Sensing, 75(7): 819-829. https://doi.org/10.14358/PERS.75.7.819
  10. Korea Forest Service, 2018. The 6th National Forest Plan (2018-2037), Korea Forest Service, Daejeon, KOR (in Korean).
  11. Kwon, S.D., J.S. Gong, S.H. Kim, J.S. Kim, and S.A. Seo, 2007. Forest aerial photography interpretation system and manual for digital forest cover type mapping, National Institute of Forest Science, Seoul, KOR (in Korean).
  12. Lee, J.S., E.S. Kim, G.E. Park, and J.H. Lim, 2017. Aerial photograph three-dimensional interpretation manual for producing forest species distribution map, National Institute of Forest Science, Seoul, KOR (in Korean).
  13. Lee, K., S.H. Jeon, and B.D. Kwon, 2005. Implementation of GLCM/GLDV-based texture algorithm and its application to high resolution imagery analysis, Korean Journal of Remote Sensing, 21(2): 121-133 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2005.21.2.121
  14. Lee, S.H., H.K. Cho, K.M. Kim, J.H. Jung, S.H. Kim, J.C. Kim, J.S Kim, S.A. Seo, W.B. Sim, J.H. Ryu, S.D. Kwon, S.C. Jang, and B.O. Yoo, 2008. Guideline for the 1:5,000 Forest Type Map, National Institute of Forest Science, Seoul, KOR (in Korean).
  15. Lee, Y.S., W.K. Baek, and H.S. Jung, 2019. Forest Vertical Structure Classification in Gongju City, Korea from Optic and RADAR Satellite Images Using Artificial Neural Network, Korean Journal of Remote Sensing, 35: 447-455 (in Korean with English abstract). https://doi.org/10.7780/KJRS.2019.35.3.8
  16. Lim, J., K.M. Kim, and M.K. Kim, 2019. The Development of Major Tree Species Classification Model using Different Satellite Images and Machine Learning in Gwangneung Area, Korean Journal of Remote Sensing, 35(6-2): 1037-1052 (in Korean with English abstract) https://doi.org/10.7780/kjrs.2019.35.6.2.2
  17. Moon, G.S. and K.M. Kim, 2015. High-resolution 3D satellite image analysis manual for construction of height of the stand of forest type map, National Institute of Forest Science, Seoul, KOR (in Korean).
  18. Park, H.L., J.W. Choi, and S.K. Choi, 2014. Impervious surface mapping of cheongju by using rapideye satellite imagery, Journal of Korean Society for Geospatial Information System, 22(1): 71-79 (in Korean with English abstract). https://doi.org/10.7319/KOGSIS.2014.22.1.071
  19. Park, J.W., K.M. Kim, and J.B. Lim, 2018. Library of landcover interpretation ver 1.0, National Institute of Forest Science, Seoul, KOR (in Korean).
  20. Rodriguez-Galiano, V.F., M. Chica-Olmo, F. Abarca-Hernandez, P.M. Atkinson, and C. Jeganathan, 2012. Random Forest classification of Mediterranean land cover using multi-seasonal imagery and multi-seasonal texture, Remote Sensing of Environment, 121: 93-107. https://doi.org/10.1016/j.rse.2011.12.003
  21. Wallner, A., A. Elatawneh, T. Schneider, and T. Knoke, 2015. Estimation of forest structural information using RapidEye satellite data, Forestry: An International Journal of Forest Research, 88(1): 96-107. https://doi.org/10.1093/forestry/cpu032

Cited by

  1. 심층신경망을 이용한 KOMPSAT-3/3A/5 영상으로부터 자연림과 인공림의 분류 vol.37, pp.6, 2021, https://doi.org/10.7780/kjrs.2021.37.6.3.5