DOI QR코드

DOI QR Code

Estimating the Stand Level Vegetation Structure Map Using Drone Optical Imageries and LiDAR Data based on an Artificial Neural Networks (ANNs)

인공신경망 기반 드론 광학영상 및 LiDAR 자료를 활용한 임분단위 식생층위구조 추정

  • Cha, Sungeun (PhD Candidate, Department of Environmental Science and Ecological Engineering, Korea University) ;
  • Jo, Hyun-Woo (Combined MS/PhD Student, Department of Environmental Science and Ecological Engineering, Korea University) ;
  • Lim, Chul-Hee (Research Professor, Institute of Life Science and Natural Resources, Korea University) ;
  • Song, Cholho (Research Professor, OJEong Resilience Institute (OJERI), Korea University) ;
  • Lee, Sle-Gee (Postdoctoral Researcher, OJEong Resilience Institute (OJERI), Korea University) ;
  • Kim, Jiwon (PhD Student, Department of Environmental Science and Ecological Engineering, Korea University) ;
  • Park, Chiyoung (Deputy General Manager, Geomatics Research Institute, Saehan Aero Survey Co., Ltd.) ;
  • Jeon, Seong-Woo (Professor, Department of Environmental Science and Ecological Engineering, Korea University) ;
  • Lee, Woo-Kyun (Professor, Department of Environmental Science and Ecological Engineering, Korea University)
  • 차성은 (고려대학교 환경생태공학과 박사수료생) ;
  • 조현우 (고려대학교 환경생태공학과 석·박사과정생) ;
  • 임철희 (고려대학교 생명자원연구소 연구교수) ;
  • 송철호 (고려대학교 오정에코리질리언스 연구교수) ;
  • 이슬기 (고려대학교 오정에코리질리언스 박사후연구원) ;
  • 김지원 (고려대학교 환경생태공학과 박사과정생) ;
  • 박치영 (새한항업(주) 지오메틱스연구소 차장) ;
  • 전성우 (고려대학교 환경생태공학부 정교수) ;
  • 이우균 (고려대학교 환경생태공학부 정교수)
  • Received : 2020.06.26
  • Accepted : 2020.07.20
  • Published : 2020.10.31

Abstract

Understanding the vegetation structure is important to manage forest resources for sustainable forest development. With the recent development of technology, it is possible to apply new technologies such as drones and deep learning to forests and use it to estimate the vegetation structure. In this study, the vegetation structure of Gongju, Samchuk, and Seoguipo area was identified by fusion of drone-optical images and LiDAR data using Artificial Neural Networks(ANNs) with the accuracy of 92.62% (Kappa value: 0.59), 91.57% (Kappa value: 0.53), and 86.00% (Kappa value: 0.63), respectively. The vegetation structure analysis technology using deep learning is expected to increase the performance of the model as the amount of information in the optical and LiDAR increases. In the future, if the model is developed with a high-complexity that can reflect various characteristics of vegetation and sufficient sampling, it would be a material that can be used as a reference data to Korea's policies and regulations by constructing a country-level vegetation structure map.

지속가능한 산림 발전을 위해 식생층위구조를 파악하는 것은 산림 자원 관리에 중요한 요소이다. 최근 기술의 발달로 드론, 딥러닝 등 신기술을 산림 부문에 접목한 활용이 늘어났으며, 이를 이용한 식생층위구조 추정이 가능해졌다. 본 연구에서는 드론-광학 및 LiDAR 영상을 융합하여 공주, 삼척, 서귀포 지역에 대해 식생층위구조를 파악하였으며, 각 92.62%(Kappa value: 0.59), 91.57%(Kappa value: 0.53), 86.00%(Kappa value: 0.63)의 정확도를 확인하였다. 딥러닝을 활용한 식생층위구조 분석 기술은 광학 및 LiDAR의 정보량이 많아질수록 모델의 성능을 높일 수 있을 것으로 기대된다. 향후, 식생의 다양한 특성이 반영될 수 있는 복잡도 높은 모델과 충분한 샘플링을 통한 학습자료 구축이 동반되어 모델의 완성도가 높아진다면, 전국단위의 식생층위구조 지도를 구축하여 우리나라 정책·제도의 참고자료로 활용될 수 있을 것이다.

Keywords

1. 서론

숲은 인간의 지속가능한 삶을 위해 중요하기 때문에, 산림 자원은 여러 가지 형태로 조사되어 왔다. 최근에는 산림자원의 가치와 환경에 미치는 영향이 진화하면서 산림 자원에 대한 관점이 달라졌으며, 지속가능한 산림경영(Sustainable Forest Management; SFM)이라는 새로운 패러다임이 등장하였다(Wang, 2004). 현재 산림 자원은 건전한 산림 생태계 유지, 지구환경 보전 및 보호, 지속가능한 개발 촉진이라는 목표를 달성하는데 유용한 정보를 제공하기 위해 개발되고 있는 실정이다(Griggs et al., 2013).

식생층위구조는 숲을 활력도를 나타내는 여러 요소들 중 하나로 산림 자원의 분포와 양을 배양하는데 영향을 주는 기본적인 구조를 결정한다. 우리나라 산림대가 포함된 온대 지역에서의 숲은 일반적으로 교목, 아교목, 관목, 초본의 형태로 나뉘어져 있다. 교목층 아래에서 자라는 단순 층위의 생장은 토양의 상태, 수목의 종류, 그리고 수관 개폐율에 의해 결정된다(Kwon et al., 2019). 반면, 대부분의 우리나라 자연림에서는 오랜 기간의 자연계승을 통한 다층의 식생공동체가 형성되어 복잡한 생태계를 구성하고 있다. 생태학적인 관점에서 다층 자연림은 해충, 질병, 환경적 스트레스 등에 대한 내성이 높고 야생동물의 서식지 제공 등 질 높은 생태계 서비스를 갖추고 있다(Chapman and Koch, 2007). 하지만, 인공림은 단층위 또는 2개의 층위를 가진 숲으로 되어 있으며, 주로 목재 생산과 농업의 목적으로 계획되고 관리되므로, 식생층위구조를 추정하는 것은 숲의 환경적 측면을 평가하는데 유용한 척도가 된다(Park and Kang, 2015).

전통적인 산림 자원조사는 현장조사를 기반으로 이루어졌으나, 기술의 발전으로 원격탐사를 활용한 조사체계가 발전되고 있다. 산림청은 현재 한국 숲을 측량하기 위해 정사 항공사진을 활용하였지만, 비교적 낮은 해상도와 높이 정보의 부재로 인해 숲의 구조를 파악하기는 쉽지 않았다(KME, 2012). 그러므로 식생층위구조를 파악하기 위해서는 주로 현장조사가 동반되었다. 우리나라는 약 63% 이상이 산림으로 이루어져 있으며, 전국적인 현장조사는 많은 시간과 높은 비용이 필요하다(KFS, 2018). 반면, 원격탐사자료는 광범위한 지역에 대한 정보를 탐지하는데 유리하므로, 이를 이용하여 효과적으로 식생층위구조를 조사할 수 있다면 현장조사에 활용되는 시간과 비용을 줄일 수 있다.

드론은 원격탐사체중 하나로, 최근 미국, 일본 및 유럽의 다양한 국가에서는 건축 설계, 환경 자료 구축, 소규모 지역 모니터링 등 드론의 활용범위가 다양한 분야로 확산되고 있다(Tang and Shao, 2015). 드론과 다양한 센서 탑재에 의한 관련 연구가 활발하게 진행되고 있지만, 한국에서의 산림 및 식생분야의 드론 활용은 아직 첫걸음 단계이다.

광학영상에서 다층 식생층위는 거친 질감을 가지고 있으며, 단일 식생층위구조는 상대적으로 부드러운 질감을 가지고 있다. 이러한 영상의 반사값과 분포 특성을 통해 숲의 구조를 구분하는 것이 가능하다. 또한, 단층 인공림에서 수관의 배열은 일관성이 있다고 볼 수 있지만, 자연림에서는 일관성이 없다는 특징이 있다(Hay et al., 1996).

Light Detection and Ranging(LiDAR) 자료를 활용한 식생구조 분석에 대한 연구는 지역별, 분석 방법별로 다양하게 이루어졌지만, 기존의 연구에서는 주로 항공기로 촬영된 LiDAR 자료를 이용했기 때문에 낮은 점 밀도(Point density)로 구성된 정보와 분석기법의 한계로 임분단위의 산림 자원에 대한 정확한 판단이 어려웠다.

또한, 개체목 단위의 수고, 위치, 개수, 수관폭, 흉고직경 등의 추정을 시도하였으나, 국소지역에 국한된 분석으로 인해 우리나라에서 나타나는 넓은 임분 단위에 적용하기에는 한계가 있다(Kwak et al., 2007; Kwak et al., 2010; Kwon et el., 2012; Kim et al., 2016). 따라서 상대적으로 고해상도 광학영상의 질감정보와 높은 점 밀도의 LiDAR 자료를 복잡한 구조에 적합한 딥러닝을 활용하여 임분 단위의 식생층위구조를 분석한다면 기존 연구보다 높은 정확도의 추정을 기대할 수 있다.

본 연구의 목적은 드론–광학 및 LiDAR 자료에 인공 신경망(Artificial Neural Networks, ANNs) 기법을 적용해 일부 지역을 학습(Train)하고, 나머지 지역을 시험(Test)과 검증(Validation) 지역으로 구분하여 분석하여 식생층위구조를 추정하는 것이다.

2. 연구지역과 자료

1) 연구대상지

본 연구에서는 다양한 식생 및 산림구조(인공림, 자연림 등)를 가지고 초지와 관목이 다수 존재하는 지역으로, 전국적인 분포를 고려하여 충남 공주시 일원, 강원 삼척시 일원, 서귀포시 일원을 연구대상지로 선정하였다(Fig. 1). 대상지는 드론 촬영이 용이한 1∼1.5 내외면적의 소규모 지역으로, 현장조사를 통해 연구결과를 검증하기 위한 접근이 용이한 지역으로 고려하였다.

OGCSBN_2020_v36n5_1_653_f0001.png 이미지

Fig. 1. Study area based on its geo-spatial characteristics

2) 연구자료

(1) 드론 촬영 기체·센서 선정

대상지 면적, 촬영 조건 및 비행 환경, 기체 운용 효율성 등을 종합적으로 고려하여 연구대상지 촬영을 위한 드론은 고정익 기체로 선정하였다. 촬영을 수행하기 전 대상지 주변 환경을 파악하고 고지대 산림지역의 풍향 및 풍속 등 촬영 여건의 확인을 위해 대상지별 2∼3회에 걸친 사전비행을 실시하였으며, 이는 회전익 기체인 ‘Phantom 4’를 통해 이루어졌다. 실제 광학영상 촬영을 위해 활용된 드론은 고정익 형태의 ‘FireFLY6 Pro’ 모델로써 크기는 가로 1.5 m, 세로 0.95 m이며, 중량은 4.1 kg 인 수진 이·착륙형 기체이다. 현재 국내외에서 사용되고 있는 드론용 LiDAR 센서의 경우 중량이 약 1 kg 수준으로 본 연구에서 활용하고 있는 고정익 기체에는 탑재가 불가능하다. 따라서 회전익 기체 ‘XQ-1400VZX’를 이용하여 LiDAR 촬영을 실시하였으며, 국내에서 개발하여 각종 센서를 사용자가 선택하여 탑재할 수 있도록 제작된 쿼드콥터(4개의 프롭) 방식의 프레임을 선정하였다. 해당 프레임을 기반으로 GNSS/INS 센서, 통신 모듈, 시스템 보드, LiDAR 센서 등을 탑재하여 촬영을 수행하였다(Table 1, Table 2).

Table 1. The specification of drone used to carry out research

OGCSBN_2020_v36n5_1_653_t0001.png 이미지

Table 2. The specification of sensor used to carry out research

OGCSBN_2020_v36n5_1_653_t0002.png 이미지

(2) 자료 학습 및 검증을 위한 현장조사 자료

본 연구에서는 현장조사를 수행함으로 공간을 점유하고 있는 식피의 구성종 특성을 파악하고 서식처 환경과 대응한 식물사회의 상호관계성을 파악하여, 이들 집단이 가지는 군락구조, 군락지리, 군락생태, 군락동태 등을 밝힐 수 있다. KME(2012)에 따르면 국내 식생평가의 기준은 식물군락의 기원, 분포의 희귀성, 식생의 복원성(회복력을 반영한 역사성) 등을 고려하여 평가한다. 현장조사 수행 시 상술한 기준을 적용하였으며, 지역별 대표적인 식생형을 고려하여 공주지역 24개, 삼척지역 12개, 서귀포지역 15개의 방형구(20 m × 20 m)를 설치하고 식생층위구조를 분석하기 위한 정밀현존식생조사를 수행하였다(Fig. 2). 공주지역은 총 11개의 식생유형이 조사되었으며, 굴참나무, 상수리나무, 리기다소나무, 일본잎갈나무 등의 순으로 개체목 들의 분포가 많았다. 식물상 조사에서는 총 10목 16과 21속 28종이 출현하였다. 삼척지역은 총 5개의 식생유형이 조사되었으며, 소나무, 곰솔 등의 순으로 개체목 들의 분포가 많았다. 식물상 조사에서는 총 12목 15과 18속 25종이 출현하였다. 서귀포지역은 총 8개의 식생유형이 조사되었으며, 삼나무, 곰솔 등의 순으로 개체목들의 분포가 많았다. 식물상 조사에서는 총 14목 16과 16속 17종이 출현하였다.

OGCSBN_2020_v36n5_1_653_t0003.png 이미지

Fig. 2. Quadrat Method for analyzing vegetation structure in Seoguipo area.

3. 연구방법

1) 드론-광학 및 LiDAR 자료 전처리

드론-광학영상의 처리는 상용 S/W인 PhotoScan을 이용하여 자동영상정합 기법을 활용한 컴퓨터 비전방식에 의해 수행하였으며, SIFT(Scale-Invariant Feature Transform) 알고리즘에 의한 특징점 추출 방법으로 영상을 정합하고 SfM(Structure from Motion) 기법을 통해 포인트 클라우드 및 DSM(Digital Surface Model, DSM)을 생성하였다. SIFT 기법은 영상자료를 국부적 축척불변의 특징점으로 변환하는 방법으로 변환되는 특징점은 축척과 회전에 불변할 뿐 아니라 명암변화 및 카메라 노출점의 변화에도 불변하기 때문에 UAV 영상정합에 가장 적합한 방법으로 대다수의 AAT(Automatic Aerial Triangulation)에 널리 적용되고 있다(Schenk, 2004; Gonçalves and Henriques, 2015). 특징점을 추출하는 방법은 크게 2가지 단계로 구분하여 수행되었다. 1단계는 특징점 추출단계로 다양한 스케일에서 후보 특징점을 찾은 다음, 후보 특징점들의 안정성을 검사하여 정확한 특징점을 선별하였다. 2단계는 객체의 형태와 특성정보를 추출하기 위한 서술자(Descriptor)를 생성하는 단계로 선택된 특징점들을 중심으로 주변 영역의 경사정보(Gradient)를 계산하여 방향정보를 얻고, 얻어진 방향 정보를 중심으로 관심영역을 재설정하여 서술자를 생성하는 것이다.

SfM 기법은 촬영 시 사진에 저장된 태그로부터 카메라 종류, 이미지 크기, 초점 거리 등과 같은 정보를 취득하고 이를 초기값으로 사용하여 영상에서 접합을 위한 특징점을 추출하는 기법이다. SfM에서 지향하는 핵심은 다양한 각도에서 촬영한 다수의 영상에서 매칭된 특징점의 3차원 위치를 결정하는 것으로써 우선 대상지역을 촬영한 여러 장의 영상에 대해 SIFT 특징점을 추출하고 영상 간 특징점 군의 대응관계를 결정한다(Choi et al., 2007). 본 연구에서는 그 대응 관계를 설명하는 행렬을 생성하고 인수분해하여 각 특징점의 3차원 좌표와 카메라 위치를 추정하는 방법을 사용하였다.

드론–LiDAR 자료의 후처리를 위해 필요한 자료는 2가지이며, 촬영 종료 후 컨트롤 모듈에 저장되는 레이저스캐너 자료는 외장 하드로 복사하고, 저장기능이 있는 GNSS/INS의 경우 Ethernet Port를 통해 FTP로 다운받는 방식으로 자료를 취득한다. 취득 자료는 후처리를 위해 지오레퍼런싱(Geo-referencing) 과정을 선행한다. 지오레퍼런싱이란 거리정보로 이루어진 LiDAR 원시 자료에 3차원 절대 좌표값을 부여하는 과정을 의미하며, 거리정보에 송신한 레이저 빔(펄스)의 원점과 방향 정보를 조합하여 레이저 펄스가 반사한 지점의 위치 좌표 값을 산출하는 과정을 의미한다. LiDAR 좌표계와 GNSS/INS 정보의 기준이 되는 IMU 좌표계 사이의 관계가 정확히 수립되면, GPS/INS로부터 제공되는 드론의 위치와 자세에 대한 정보를 LiDAR로부터 취득되는 거리정보와 조합하여 아래와 같은 수식을 통해 레이저빔이 반사한 지점의 3차원 좌표를 지상 좌표계를 기준으로 계산하게 된다(식 (1)). \(R_{G I}^{\text {Local }}\)은 GPS/INS좌표계에서 지상좌표계로 변환하는 회전행렬을, \(R_{L}^{G I}\) 센서좌표계에서 GPS/INS좌표계로 변환하는 회전행렬을 의미한다. 이러한 기하모델로부터 유도한 수식에 기반하여 지오레퍼런싱을 수행하였다. 아울러, 각 지역별 광학 DSM과 LiDAR의 유사지점을 무작위로 10점 선점하여 평면및 수직위치 정확도를 검토하였으며, 그 결과 공주는 평면 0.05 m, 수직 0.36 m, 삼척은 평면 0.07 m, 수직 0.19 m, 서귀포는 평면 0.06 m, 수직 0.32 m로 산출되었다.

\(\begin{array}{c} {\left[\begin{array}{c} X_{\text {Local }} \\ Y_{\text {Local }} \\ Z_{\text {Local }} \end{array}\right]=\left[\begin{array}{c} X_{G I}^{\text {Local }} \\ Y_{G I}^{\text {Local }} \\ Z_{G I}^{\text {Local }} \end{array}\right]+} R_{G I}^{\text {Local }}\left[R_{L}^{G I}\left[\begin{array}{c} (\rho+\Delta \rho) \sin \theta \\ 0 \\ (\rho+\Delta \rho) \cos \theta \end{array}\right]+\left[\begin{array}{c} X_{L}^{G I} \\ Y_{L}^{G I} \\ Z_{L}^{G I} \end{array}\right]\right. \end{array}\)       (1)

일반적으로 LiDAR 시스템은 포인트 클라우드 형태의 성과를 취득하게 되며, 이때 포인트 클라우드는 국가기본도에서 사용하는 TM(Transverse Mercator) 좌표체계에 기반하여 작성되고, 평명위치성과(X, Y 좌표)와 수직 위치성과(Z 좌표, 정표고), 그리고 반사강도(Intensity)를 갖는 Text 파일로 저장된다. 본 연구에서는 LiDAR 자료의 포인트 클라우드 생성을 위해 TILab사의 TLmaker S/W를 사용하였다.

본 연구에서는 계절에 의한 수관 울폐도의 차이를 고려하여 2017년 하반기부터 2019년 상반기까지, 1년에 대상지별 2회씩(4∼5월 늦봄, 11∼3월 초·늦겨울) 상술한 전처리 과정을 포함하여 총 24회 촬영 분을 제작 후 연구에 활용하였다(Fig. 3).

OGCSBN_2020_v36n5_1_653_f0002.png 이미지

Fig. 3. Representative performance of optical image and LiDAR data.

2) 층위구조 분석에 대한 딥러닝 시범적용

식생층위분석의 인공신경망 적용 가능성을 검토하기 위해 기 개발된 머신러닝 기반 분류 방법론 중 SVM을 활용하였다. SVM은 1995년 Vapnik에 의해 처음 제안된 학습이론으로, 통계적 이론상 경험적(Empirical) 위험 최소화 원칙이 아닌 구조적(Structural) 위험 최소화 원칙을 이용하여 일반화에 대한 오류를 최소화시키는 방법으로 분류를 수행한다.

건전한 산림 생태계 유지와 지속가능한 개발 촉진을 실현하기 위해서는 활력도가 높은 보호 대상 지역 탐색과 활력도가 낮은 복원이 필요지역 탐색이 복합적으로 이루어져야하며, 생태적 활력도는 식생층위를 통해 추정할 수 있다. 따라서 식생층위 모델의 식생층위 분류 성능평가에는 True positive 뿐만 아니라, True negative 의 개수도 반영되어야 한다. 본 연구에서는 층위 유/무에 대한 균형 있는 평가가 가능하도록, 대상지별 전체 격자 대비 식생의 유/무의 비율이 가장 고른 서귀포지역의 아교목 층을 시범적용 대상으로 설정하여 분석하였다(Table 4).

Table 4. The results of NNs classification on vegetation layer

OGCSBN_2020_v36n5_1_653_t0005.png 이미지

* The number of layer exist/The number of layer does not exist

본 연구에 활용된 데이터셋은 LiDAR 복셀의 수평적 해상도인 10 × 10 m 격자를 최소 분석단위로 가지며, 해당 범위 안에 존재하는 0.15 m × 0.15 m 크기의 광학영상에 대해서는 면적 단위 분석이 필요하다. 딥러닝 분석은 CNNs 구조 등을 활용하여 면적 단위의 특징 추출이 가능하나, SVM을 구동하기 위해서는 Convolution filter, 면적 단위 평균값 추출 등 공간적 특징을 추출할수 있는 일련의 전처리 과정이 필요하다. 이에, SVM을 활용한 광학영상 분석은 면적 단위 변환 전처리 과정에 따라 분류 성능의 편차가 크게 발생하고, 두 모델 간 객관적인 분류성능 비교가 불가능하다고 판단된다. 따라서 딥러닝 모델 적용성 평가를 위한 비교에는 분류 단위에 대해 1 × 20 Array로 분석을 수행하는 LiDAR 자료만을 사용하여 SVM과 NNs를 비교하였다.

3) Convolutional Neural Networks(CNNs) - Neural Networks(NNs) 융합분류기법

임상별 광학영상의 분광반사율을 분석하여 식생군락별 분광반사 특성을 파악하고, 광학영상에서의 식생의 분광특성과 LiDAR 자료로 관측되는 물리적 구조 등을 토대로 딥러닝 기법인 CNNs와 NNs를 융합하여 식생층위구조를 분석하였다.

드론–LiDAR 자료를 이용하여 식생입체구조를 파악하기 위해 대상지별(공주, 삼척, 서귀포) 드론–LiDAR 포인트가 균일하게 취득되지 못한 대상지 가장자리를 제외하고, 내부에 10 m 간격, 지름 16 m의 원형 격자를 생성하였다. 또한, 식생의 높이에 따른 층위의 유/무를 판단하기 위해 Voxel(Volumetric pixel) 개념을 활용하여 0.5 m 높이 단위별로 원형격자 내의 포인트 개수를 수집하였다. 10 m × 10 m를 기본 분류 단위로 선정하였으며, 기본 단위별로 광학영상은 질감정보(Texture)와 분광파장범위(Wavelength)를 활용하여 100 × 100 × 4 (Red. Green, Blue, NIR) 의 3차원 Array를 생성하였고, LiDAR는 격자안의 점들과의 관계를 파악할 수 있도록1 × 20(0∼10 m까지 0.5 m 단위 높이 분할)의 1차원 Array 를 생성하였다. 3차원 Array인 광학영상은 CNNs 구조를 거친 뒤, 1차원 Array인 Fully connected layer를 생성하여 저차원의 영상 특징(Feature)을 추출하였으며, 1차원 Array인 LiDAR 영상은 NNs 구조를 통해 동일 차원에서 영상의 특징을 추출하였다. 각 영상에서 추출된 특징은 Concatenate 연산을 통해 하나의 Array로 융합되고, Fully connected layer와 Cross entropy 함수를 거쳐 층위를 분류하였다. 모델 구축 및 검증을 위해 10m × 10m 그리드를 Random sampling 기법을 이용하여 무작위로 추출하고 49%를 학습(Training)에, 21%를 검증(Validation)에, 30%를 시험(Test)에 사용하였다. 검증데이터는 학습 과정에 들어가는 Hyper-parameter들을 Tuning하는데 사용되며, 시험데이터를 통해 모델의 성능을 시험하였다. 딥러닝 기법의 일종인 NNs를 사용하여 검증데이터에서 가장 높은 성능이 나올 때까지 데이터를 학습시키고, 학습된 Neural Network를 통해 시험데이터를 분석하여 식생층위구조를 예측하였다.

OGCSBN_2020_v36n5_1_653_f0003.png 이미지

Fig. 4. Fusion algorithm of CNNs and NNs for analyzing optical image and LiDAR data.

각 층별 식생층위구조 분석 결과의 검증을 위해 대상지별(공주, 삼척, 서귀포) 현장조사 자료의 층위에 대한 유/무 정보를 참값으로 설정하여 정확성을 평가하였다. 지역별로 각 층별(교목, 아교목, 관목, 초본)로 층위가 극단적으로 넓거나 좁게 분포하는 지역이 있으므로, 모델 자체의 Accuracy만으로는 객관적이 성능평가가 어렵다고 판단하였다. 따라서 현장조사와 모델에 의한 분류가 우연히 일치할 확률이 평가에 고려된 Cohen’s Kappa 값과 함께 모델의 성능을 평가하였다. 아울러, 대상지별 전체 식생층위를 나타내기 위해 각 층별로 분석된 식생의 유/무 정보를 모두 합하여 총 4층위의 식생층위구조지도를 작성하였다.

4. 결과 및 고찰

1) 층위구조 분석에 대한 딥러닝 시범적용 결과

SVM을 NNs과 동일한 조건의 파라미터를 설정(학습 (Training): 49%, 검증(Validation): 21%, 시험(Test): 30%) 하여 층위의 유/무를 분석한 결과, 딥러닝 기반 NNs은 Accuracy 81.02%, Kappa value 0.60의 분류 정확도를, SVM에서는 Accuracy 58.88%, Kappa value 0.22의 분류 정확도를 나타내었다. 대상지의 지리적 특성을 고려하였을 때 드론–LiDAR를 이용하여 식생층위를 분석할시, 층위의 유/무에 대한 분포가 집약적인 지역보다 고른 지역에서 층위 분석이 높은 정확도로 추정이 가능하다는 것을 확인했다(Table 3, Fig. 5).

Table 3. Accuracy of classification model for sub-canopy in Seoguipo area (NNs, SVM)

OGCSBN_2020_v36n5_1_653_t0004.png 이미지

OGCSBN_2020_v36n5_1_653_f0004.png 이미지

Fig. 5. The result of classification by model for sub-canopy in Seoguipo Area.

2) 층위별 식생의 분포 및 정확성

공주지역의 초본 층위의 유/무는 Accuracy 98.43%, Kappa value 0.61로, 관목 층위의 유/무는 Accuracy 88.93%, Kappa value 0.77로, 아교목 층위의 유/무는 Accuracy 90.50%, Kappa value 0.66으로 추정되었다. 교목 층위의 경우 대상지로 설정한 공주 일원 지역에 모두 분포하고 있어, 정확도 검증을 따로 수행하지 않았다. 삼척지역의 경우, 초본 층위의 유/무는 Accuracy 89.44%, Kappa value 0.43으로, 관목 층위의 유/무는 Accuracy 91.94%, Kappa value 0.59로, 아교목 층위의 유/무는 Accuracy 90.47%, Kappa value 0.47로, 교목 층위의 유/무는 Accuracy 94.44%, Kappa value 0.63으로 모의되었다. 서귀포지역의 경우, 초본 층위의 유/무는 Accuracy 87.58%,Kappa value 0.48로, 관목층위의유/무는Accuracy 77.95%, Kappa value 0.55로, 아교목 층위의 유/무는 Accuracy 81.02%, Kappa value 0.60으로, 교목 층위의 유/무는 Accuracy 97.45%, Kappa value 0.87로 모의되었다 (Table 4, Fig. 6, Fig. 7, Fig. 8).

Table 4. The results of NNs classification on vegetation layer

OGCSBN_2020_v36n5_1_653_t0005.png 이미지

* The number of layer exist/The number of layer does not exist

OGCSBN_2020_v36n5_1_653_f0005.png 이미지

Fig. 6. The result of NNs for each layer in Gongju area.

OGCSBN_2020_v36n5_1_653_f0006.png 이미지

Fig. 7. The result of NNs for each layer in Samchuk area.

OGCSBN_2020_v36n5_1_653_f0007.png 이미지

Fig. 8. The result of NNs for each layer in Seoguipo area.

Random sampling을 했음에도 불구하고 class 전체를 대변할 수 있는 표본을 수집하기 어려운 부분이 있어, 광학–LiDAR를 이용한 층위구조분석에서 학습(Training), 검증(Validation), 시험(Test)의 Kappa value의 차이가 있는 것으로 추정되며, Intraclass heterogeneity가 크므로, 선택된 수종 및 환경변수에 따라 정확도 차이가 있을 것으로 사료된다. 특히, 초본 층에서 Kappa value의 차이가 가장 두드러지게 나타났는데, 통상적으로 초본의 기장은 0.5m 이하이며, LiDAR 자료가 0.5 m 단위의 Voxel에 의해 취합되는 경우, 초본의 형태보다 지면까지 도달하는 Laser pulse의 양이 특징점을 결정하는 주요한 변수로 작용했기 때문으로 모델의 대한 신뢰도가 떨어진 것으로 판단된다, 즉, 종의 차이보다 지형의 차이에 더 많은 영향을 받을 수 있다. 반면 서귀포는 대부분 완만한 경사를 갖고 있으며, 수간밀도가 낮고 LiDAR 포인트의 점밀도 또한 골고루 분포하여 층위구조분석에서 학습 (Training), 검증(Validation), 시험(Test)의 Kappa value의 차이가 낮은 것으로 추정된다.

3) 식생층위구조 지도 및 정확성

본 연구에서는 대상지별 각 층위의 유/무를 광학 영상의 분광특성과 LiDAR 자료의 분포 형태에 따라 분석하였으며, 분석된 모든 층위 구조를 중첩하여 식생층위 구조 지도를 작성하였다(Fig. 9). 공주지역의 전체 층위에 대한 분석 결과는 Accuracy 92.62%, Kappa value 0.59로, 삼척지역은 Accuracy 91.57%, Kappa value 0.53으로, 서귀포지역의 경우는 Accuracy 86.00%, Kappa value가 0.63으로 모의된다(Table 5). 광학 및 LiDAR 자료의 학습량이 많아질수록 정확도와 모델의 신뢰도가 향상되었으며, 시계열 자료를 추가하여 학습량을 늘렸을 때, 모델의 신뢰도가 전체적으로 향상되었다. 따라서 학습량이 증가될수록 Accuracy 및 Kappa value는 향상될 수 있고, 딥러닝 알고리즘에 적용하여 활용한다면 더 넓은 지역에 대한 추정이 가능할 것으로 사료된다.

OGCSBN_2020_v36n5_1_653_f0008.png 이미지

Fig. 9. The map of vegetation structure in each area. Gongju Samchuk Seoguipo

Table 5. Accuracy of vegetation structure in each area

OGCSBN_2020_v36n5_1_653_t0006.png 이미지

5. 결론

본 연구는 드론에 광학 및 LiDAR 센서를 탑재하여 식생층위구조 분석을 높은 수준의 정확도로 추정하였다. 하지만, 계곡부에서 광학영상에서는 그림자(Shade)가 많이 생겨 분석의 오차를 초래하였으며, 이에 대한 한계를 보완하고자 LiDAR를 사용하였지만 여전히 드론 기체의 접근성 등의 문제로 촬영 고도가 일정하지 않아 점밀도 등이 일정하지 않았다. 따라서 정밀한 식생 층위구조 파악을 위해서는 해당 지역의 고도, 경사, 등고선 등을 더 고려한 드론 비행 궤도와 촬영법 등의 조정이 필요할 것으로 사료된다. 또한, 식생의 시계열적인 특징을 가장 잘 반영할 수 있는 시기의 시계열 LiDAR 자료를 합성해서 사용하면, 겨울에는 지표면을, 여름에는 식생의 수고 및 위치 등을 파악하는데 용이할 것으로 판단된다.

클래스 구분을 위해서는 개발한 CNNs-NNs 융합 기법의 매개변수(Parameter), 구조 등을 조정하여 다양한 특성이 반영될 수 있는 복잡도 높은 모델과 충분한 샘플링을 통한 학습자료 구축이 필요하다. 다양한 데이터 특성을 학습시킬 수 있는 방법 개발이 추가적으로 필요하며, 수종 및 환경인자를 포함한 학습데이터를 확보하기 위해서는 연구대상지 내의 현장조사 비율을 늘리고, 데이터 변이를 통해 현장조사 학습데이터를 증가시키는 Data Augmentation 기법을 활용하여 연구에 적용해보는 방법을 추후에 시도해볼 필요가 있다.

드론을 이용한 개발한 식생층위구조 지도는 환경영향평가서, 소규모 환경영향평가서 사업계획의 입지현황 파악 및 세부적인 환경영향분석 부분에 대한 평가와 사후 환경영향조사 등의 인포그래픽으로 제공되는 등으로 활용될 수 있다(Sung et al., 2019). 아울러, 생태·자연도 등급판정은 전국환경조사 결과에 따른 식생보전 등급을 기준으로 하여 실시하는데, 생태·자연도 작성지침 제1장, 제3조에 따르면 효율적인 작성을 위해 필요할 경우 위성영상, 항공사진 등의 자료를 활용할 수 있다고 명시되어 있으므로 비교적 고해상도의 드론 영상을 활용하여 실제 식생조사에서의 식생의 수직적 구조 파악 등 조사 분야에서 전수조사 수준 또는 그 이상의 결과로 분석하여 활용이 가능할 것으로 기대된다.

사사

본 연구는 국토교통부/국토교통과학기술진흥원(과제번호: 20UMRG-B158194-01)의 지원으로 수행되었습니다.

References

  1. Chapman, S.K. and G.W. Koch, 2007. What type of diversity yields synergy during mixed litter decomposition in a natural forest ecosystem?, Plant and Soil, 299(1-2): 153-162. https://doi.org/10.1007/s11104-007-9372-8
  2. Choi, J.Y., K.S. Sung, and Y.K. Yang, 2007. Multiple vehicles detection and tracking based on scale-invariant feature transform, Proc. of 2007 IEEE Intelligent Transportation Systems Conference, Seattle, WA, USA, Oct. 22, pp. 528-533.
  3. Goncalves, J. A. and R. Henriques, 2015. UAV photogrammetry for topographic monitoring of coastal areas, ISPRS Journal of Photogrammetry and Remote Sensing, 104: 101-111. https://doi.org/10.1016/j.isprsjprs.2015.02.009
  4. Griggs, D., M. Stafford-Smith, O. Gaffney, J. Rockstrom, M.C. Ohman, P. Shyamsundar, W. Stedffen, G. Glaser, N. Kanie, and I. Noble, 2013. Sustainable development goals for people and planet, Nature, 495(7441): 305-307. https://doi.org/10.1038/495305a
  5. Hay, G.J., K.O. Niemann, and G.F. McLean, 1996. An object-specific image-texture analysis of Hresolution forest imagery, Remote Sensing of Environment, 55(2): 108-122. https://doi.org/10.1016/0034-4257(95)00189-1
  6. KFS(Korea Forest Service), 2018. Statistical Yearbook of Forestry, Korea Forest Service, Daejeon, Korea (in Korean).
  7. KFRI(Korea Forest Research Institute), 2011. Guidelines for the 6th National Forest Inventory Survey, Korea Forest Research Institute, Seoul, Korea (in Korean).
  8. KME(Korea Ministry of Environment), 2012. Guidelines for the 4th National Survey of Natural Environment, Korea Ministry of Environment, Seoul, Korea (in Korean).
  9. Kim, E., W.K. Lee, M. Yoon, J.Y. Lee, E.J. Lee, and J. Moon, 2016. Detecting individual tree position and height using Airborne LiDAR data in Chollipo Arboretum, South Korea, TAO: Terrestrial, Atmospheric and Oceanic Sciences, 27(4): 593. https://doi.org/10.3319/TAO.2016.03.29.01(ISRS)
  10. Kwak, D.A., W.K. Lee, J.H. Lee, G.S. Biging, and P. Gong, 2007. Detection of individual trees and estimation of tree height using LiDAR data, Journal of Forest Research, 12(6): 425-434. https://doi.org/10.1007/s10310-007-0041-9
  11. Kwak, D.A., W.K. Lee, H.K. Cho, S.H. Lee, Y. Son, M. Kafatos, and S.R. Kim, 2010. Estimating stem volume and biomass of Pinus koraiensis using LiDAR data, Journal of Plant Research, 123(4): 421-432. https://doi.org/10.1007/s10265-010-0310-0
  12. Kwon, S.K., Y.S. Lee, D.S. Kim, and H.S. Jung, 2019. Classification of Forest Vertical Structure Using Machine Learning Analysis, Korean Journal of Remote Sensing, 35(2): 229-239 (in Korean with English abstract). https://doi.org/10.7780/KJRS.2019.35.2.3
  13. Kwon, T.H., W.K. Lee, D.A. Kwak, T. Park, J.Y. Lee, S.Y. Hong, C. Guishan, and S.R. Kim, 2012. Forest canopy density estimation using airborne hyperspectral data, Korean Journal of Remote Sensing, 28(3): 297-305. https://doi.org/10.7780/kjrs.2012.28.3.297
  14. Park, S.G. and H.M. Kang, 2015. Characteristics of Vegetation Structure in Chamaecyparis Obtusa Stands, Korean Journal of Environment and Ecology, 29(6): 907-916 (in Korean with English abstract). https://doi.org/10.13047/KJEE.2015.29.6.907
  15. Schenk, T., 2004. From point-based to feature-based aerial triangulation, ISPRS Journal of Photogrammetry and Remote Sensing, 58(5-6): 315-329. https://doi.org/10.1016/j.isprsjprs.2004.02.003
  16. Sung, H.C., Y.Y. Zhu, and S.W. Jeon, 2019. Study on Application Plan of Forest Spatial Information Based on Unmanned Aerial Vehicle to Improve Environmental Impact Assessment, Jouranl of Korean Environmental Restoration Technology, 22(6): 63-76 (in Korean with English abstract).
  17. Tang, L. and G. Shao, 2015. Drone remote sensing for forestry research and practices, Journal of Forestry Research, 26(4): 791-797. https://doi.org/10.1007/s11676-015-0088-y
  18. Wang, S., 2004. One hundred faces of sustainable forest management, Forest Policy and Economics, 6(3-4): 205-213. https://doi.org/10.1016/j.forpol.2004.03.004