DOI QR코드

DOI QR Code

Extraction of Individual Trees and Tree Heights for Pinus rigida Forests Using UAV Images

드론 영상을 이용한 리기다소나무림의 개체목 및 수고 추출

  • Song, Chan (Department of Forest Science, Kongju National University) ;
  • Kim, Sung Yong (Div. of Forest Fire and Landslide, National Institute of Forest Science) ;
  • Lee, Sun Joo (Div. of Forest Fire and Landslide, National Institute of Forest Science) ;
  • Jang, Yong Hwan (Department of Forest Science, Kongju National University) ;
  • Lee, Young Jin (Department of Forest Science, Kongju National University)
  • 송찬 (국립공주대학교 산림과학과) ;
  • 김성용 (국립산림과학원 산불.산사태연구과) ;
  • 이선주 (국립산림과학원 산불.산사태연구과) ;
  • 장용환 (국립공주대학교 산림과학과) ;
  • 이영진 (국립공주대학교 산림과학과)
  • Received : 2021.11.30
  • Accepted : 2021.12.26
  • Published : 2021.12.31

Abstract

The objective of this study was to extract individual trees and tree heights using UAV drone images. The study site was Gongju national university experiment forest, located in Yesan-gun, Chungcheongnam-do. The thinning intensity study sites consisted of 40% thinning, 20% thinning, 10% thinning and control. The image was filmed by using the "Mavic Pro 2" model of DJI company, and the altitude of the photo shoot was set at 80% of the overlay between 180m pictures. In order to prevent image distortion, a ground reference point was installed and the end lap and side lap were set to 80%. Tree heights were extracted using Digital Surface Model (DSM) and Digital Terrain Model (DTM), and individual trees were split and extracted using object-based analysis. As a result of individual tree extraction, thinning 40% stands showed the highest extraction rate of 109.1%, while thinning 20% showed 87.1%, thinning 10% showed 63.5%, and control sites showed 56.0% of accuracy. As a result of tree height extraction, thinning 40% showed 1.43m error compared with field survey data, while thinning 20% showed 1.73 m, thinning 10% showed 1.88 m, and control sites showed the largest error of 2.22 m.

본 연구에서는 드론 정사영상과 객체추출 기법을 융합하여 개체목을 선별함과 더불어 수고를 추정할 수 있는 방법론을 제시하고자 하였다. 연구대상지는 충청남도 예산군 공주대학교 학술림에 위치한 리기다소나무림으로 간벌을 강도별로(40%, 20%, 10%, 대조구)로 조성한 시험지이다. 정사영상취득은 DJI사의 MAVIC2 PRO 드론을 이용하였으며, 촬영 범위 내 가장 높은 지형지물을 고려하여 고도를 180 m로 설정하였다. 영상왜곡을 방지하기 위하여 지상기준점 설치 및 내중첩(End lap)과 옆중첩(Side lap)을 각각 80%로 설정하였다. 영상분석 통하여 수치표면모델(DSM)과 수치지형 표고모델(DTM)을 추출하고 두 모델의 고도차를 이용해 수고모델(DCHM)을 생성하였다. 본 연구결과에 의하면, 간벌강도별 개체목 추출율은 간벌강도 40%는 109.1%, 간벌강도 20% 87.1%, 간벌강도 10% 63.5%, 대조구 56.0% 수준이었다. 개체목 별 수고특성을 추출한 결과, 간벌강도 40%는 현장조사 결과보다 약 1.43 m 낮았으며, 간벌강도 20%는 1.73 m, 간벌강도 10%는 1.88 m, 대조구는 2.22 m 낮게 측정되었다.

Keywords

1. 서론

원격탐사는 임목의 위치, 수고, 수관면적 등 산림자원 정보 수집에 중요한 방법 중 하나이다(Hyyppa et al., 2001). 주로 위성영상, 항공사진, LiDAR 등을 이용하고 있으며, 관련 기술개발이 활발하게 이루어지고 있다(Andersen et al., 2004). 위성영상과 항공사진을 이용한 원격탐사 방법은 넓은 대상지와 접근이 제한된 지역의 자료를 손쉽게 수집하고, 가공하기 쉬운 장점이 있다. 그러나 현재까지 임목을 식별하고 산림정보를 추정하는 과정에 있어 주로 육안판독에 의존하여 많은 시간과 비용이 필요한 실정이다(Juker et al., 2017; Lizuka et al., 2018). 또한 광도, 구름 등 날씨에 의해 영상의 색상, 색감 등에서 차이를 보임에 따라 위치, 고도, 사물을 정밀하게 추정하는데 오차가 발생하고 있다(Yim, 2017).

이를 보완하기 위해 LiDAR를 이용하여 임목의 정보를 수집하는 연구가 이루어지고 있다(Nemec, 2015; Vastaranta et al., 2015; You et al., 2020). 레이저를 이용하여 거리를 측정하는 방법인 LiDAR는 그림자나 구름의 영향없이 측량이 가능하며 자료처리가 빠르고 결과의 정확성이 우수하다(Woo, 2006). 그러나 시간변화에 따른 주기적인 촬영의 어려움과 비용적인 측면에서의 효율성이 다소 부족하다(Lynn, 2016).

드론(UAV, Unmanned aerial vehicle)은 조종사가 탑승하지 않은 항공기로 원격조종 및 프로그램에 설계된 경로를 따라 자동 또는 반자동으로 비행하는 장비를 말한다. 초기에는 군사 방어 목적으로 많이 활용되어 왔으나, 최근 지적측량, 재난대응, 농약살포 등을 비롯해 개인의 취미활동에 이르기까지 다양하게 이용되고 있다. 특히 건설 및 도시계획 분야에서 가장 활발하게 활용되고 있는데, 주택, 고층빌딩 등 구조물을 정밀하게 촬영하고, 해당 구조물에 정보를 삽입하여 도시를 가상세계에서 3차원으로 공간화하는 방법이 많이 이용되고 있다(Grigillo and Kanjir, 2012). 드론영상은 기존의 항공 영상이나 위성영상과는 달리 cm급의 높은 공간해상도를 가지며, 비행이 가능한 기상여건만 갖춰진다면 자유롭게 영상 취득이 가능하다.

드론기술을 이용한 초미세 고해상도 이미지의 생산은 산림정보를 좀 더 손쉽게 분석할 수 있는 환경을 만들었다(Ota et al., 2015). 공간해상도가 높은 영상은 기존의 임분단위(Stand level) 분석뿐 만 아니라 개체단위(Tree level)의 정밀한 분석까지 가능하며, 시간해상도가 높다는 장점은 대상지의 처리 전후에 대한 모니터링이나 시계열적 변화에 대한 분석에도 활용될 수 있다(Yim, 2016). 다만, 산림 구조가 복잡한 환경에서 표면적 감소 와 빛 노출에 제한이 있어 임목 및 지형을 정확하게 추출하는데 어려움이 수반된다. 이러한 문제점을 보완하고 드론영상의 활용성을 높이기 위해서는 다양한 원격탐사 분석 방법을 추가로 적용하여 임목 추출 및 산림 정보를 정확히 추정할 수 있는 기술 개발이 필요하다(Mlambo et al., 2017).

본 연구에서는 고해상도 드론영상 정보와 원격탐사 방법 중 하나인 객체기반 영상분석 방법을 이용하여 산림내 개체목 추출과 수고를 추정할 수 있는 방법을 제시하고, 간벌강도가 수고와 개체목 추출에 어떤 영향을 미치는지를 분석하고자 하였다. 이를 통해 드론영상을 활용한 산림자원정보의 추정 가능성을 검토하는데 있어 기초 자료를 제공하고자 한다.

2. 재료 및 방법

1) 연구대상지

연구대상지는 충청남도 예산군 예산읍 주교리 산 45에 위치한 공주대학교 학술림으로 임령 49년생의 V영급 리기다소나무림이다. 연구대상지의 전체 면적은 18.7 ha, 평균 해발고 137 m, 평균 흉고직경 15.4 cm이며, 평균 수고 10.2 m, 임분밀도 1,125 tree/ha이다. 대상지 내에는 대조구와 간벌강도 처리구(간벌 10%, 간벌 20%, 간벌 40%)로 구분되어 총 12개(20 m×20 m)의 표준지가 설치되어 있다(Fig. 1).

OGCSBN_2021_v37n6_1_1731_f0001.png 이미지

Fig. 1. The location of study sites.

2) 영상 촬영 및 처리

활주 공간이 좁고, 바위나 식생 등 장애 요소가 많은 연구대상지 특징을 감안하여 수직 이·착륙이 가능하며, 방향 전환이 자유로운 회전익 드론을 영상 촬영 도구로 선정하였다. 드론은 DJI사 MAVIC2 PRO를 이용하였으며, 카메라는 2,000만 화소의 이미지를 촬영할 수 있는 Hasselblad L1D-20c를 이용하였다(Fig. 2).

OGCSBN_2021_v37n6_1_1731_f0002.png 이미지

Fig. 2. The images of MAVIC2 PRO UAV.

기상여건을 고려하여 맑고 화창한 날인 2019년 5월 16일에 촬영을 진행하였고, 음영에 의한 오차를 줄이기 위해 태양고도각(Sun angles)이 수직방향에 근접하는 13시경 촬영하였다. 촬영범위 내 가장 높은 지형지물을 고려하여 절대고도(AGL, Above ground level) 기준 지표면(Ground level)으로부터 항공기까지의 높이를 180 m 수준으로 설정하였다. 영상의 왜곡현상을 방지하기 위해 오차 범위가 1 cm에 불과한 CHC사의 X90+ RTX Gnss GPS를 이용하여 지상기준점(Ground control point)을 총 4개 지점에 설치하고, 내중첩(End lap)과 옆중첩(Side lap)을 80%로 설정하였다. 촬영되는 영상의 개수는 설정된 촬영범위와 영상간의 중첩률에 의해 시스템에서 자동으로 조정되도록 80%로 설정하였다(Fig. 3).

OGCSBN_2021_v37n6_1_1731_f0003.png 이미지

Fig. 3. Drone image route and ground control point location.

드론을 통해 획득한 영상은 Pix 4D Mapper 소프트웨어를 이용하여 영상 촬영 과정에서 발생한 흔들림, 카메라의 각도, 렌즈의 왜곡 등 불완전 요소들에 대한 후처리를 진행하였고 이를 기반으로 영상정합 및 Point Cloud 보간작업을 통해 최종적으로 수치표면모델(DSM, Digital surface model)을 생성하였다. 또한, 수치지형표 고모델(DTM, Digital terrain model)을 추출하기 위해 역거리가중법(Inverse distance weighted)를 이용해 보간작업을 진행하였다.

3) 수고조사 및 임목 좌표 측정

영상에서 추출한 자료와 실제 측정으로 획득한 자료를 비교하기 위해 연구대상지에 설치된 12개의 표준지에 생육하고 있는 흉고직경 6 cm 이상의 개체목에 대하여 수고와 위치정보를 전수조사하였다. 수고는 Vertex IV 장비로 측정하였으며, 개체목의 위치정보는 임의의 중심점을 선정한 후 거리와 방위각을 이용하여 추정하였다.

4) 개체목 분할 및 수고추

(1) 수고모델 생성

DSM은 수치표면모델로 지면과 인공구조물, 수목 등의 지표피복물에 대한 표고를 나타내며, DTM은 수치 지형모델로 인공구조물과 수목 등 지표피복물에 대한 높이를 제거한 고도 모형이다. 이에 두 영상을 수치정보 차이를 통해 지면에 존재하는 구조물의 높이를 추정한 수고모델(DCHM, digital crown height model)을 생성하였다. 수고모델을 생성하기 위해서 사용된 수식은 식 (1)과 같다.

DCHM = DSM–DTM       (1)

(2) 객체분할 방법

객체란 비슷한 성질, 구조, 형태를 갖는 픽셀들의 집합을 의미한다. 기존 연구에 따르면, 객체기반 분류기법은 고해상도 영상에 사용할 경우 픽셀기반 분류기법보다 높은 정확도를 보인다(Liu and Xia, 2010; Kamal and Phinn, 2011). 기존 원격탐사를 통해 획득한 영상은 낮은 해상도의 한계를 고려하여 픽셀기반 분류기법을 주로 사용했지만, 본 연구에서는 드론으로 추출한 고해상도 영상 활용할 수 있는 장점을 활용하여 Saga (system for automated geoscientific analyzes) GIS의 객체기반 분류기법인 Object based image segmentation을 사용하였다.

분할되는 객체의 이상적인 축척을 찾기 위해 분할 축척, 분광특성, 형태특성을 고려하여 반복분할을 실시하였다. 분할축척을 10 이상으로 설정했을 때 높이가 낮은 수관부 부분에 대한 분할이 제대로 이루어지지 않는 사례를 참고하여 10 이하의 축적을 1단계 기준으로 선정하였으며, 개체목 추출의 정확성과 분석에 소요되는 시간을 고려하여 분할축척 값을 4로 통일하였다. 또한 객체의 크기에 큰 영향을 미치지 않은 분광특성과 형태 특성은 각각 0.5로 고정하였다. 객체 분할 과정에서 Band의 크기, 공간특성, 공간위치, 임계값에 대한 가중치에 따라 객체의 성질과 형태가 변화함을 감안하여 개체목 추출에 적합한 수치 설정을 위한 반복 분석을 실시하였다.

객체 분할을 실시한 3개의 영상은 각기 다른 특징을 가지는데, Red밴드의 파장대는 0.63 µm∼0.69 µm 범위로 식생의 종류, 토양과 수목 지역을 구분하는데 주로 활용되고, Blue 밴드의 파장대는 0.45 µm∼0.52 µm로 식생과 토양·암석과의 경계면을 명확하게 구분할 수 있는 장점이 있다. 또한 Gray밴드은 명도 차의 척도를 나타내기 때문에 다른 밴드보다 그림자를 명확하게 구분할 수 있으므로 각각 다른 밴드의 장점을 적용하여 Red밴드는 임목구역, Blue밴드는 나지구역, Gray밴드는 그림자구역으로 나누었다. 각각의 영상에서 표본과 피분류 대상에 대한 표본값을 설정하였으며, 표본의 값과 유사한 특징을 갖는 개체들을 자동으로 선택하고, 그룹화하는 감독분류를 실시하였다.

(3) 개체목 수고 추정 방법

객체분할된 임목구역과 생성한 수고모델(DCHM)을 중첩시켜 높이에 대한 속성정보를 입력하였다. 이때, 수고 높이 6 m 이하는 임의로 제거하여 관목, 수간 등으로 오인식 될 수 있는 요인을 배제하였다. 최종적으로 개체목 단위로 분할하기 위해 Saga GIS의 Watershed segmentation 알고리즘을 이용하였다. 본 알고리즘은 영상 내 픽셀들의 집합을 하나의 지형으로 간주하고 높낮이를 분석하는 방법으로 분할경계 추출율이 높아 관련 연구에서 많이 사용되고 있다(Beucher 1982; Belaid 2009; Jian et al., 2014).

최종 결과물을 이용해 간벌강도별 임목 추출율(Extraction rate)과 현장 조사 임목과 영상추출된 임목 간의 비교를 통해 추출정확도(Extraction accuracy)를 분석하였다. 이때 드론 영상으로부터 추출된 개체목을 추출 임목으로, 현장조사한 임목을 현장 임목으로 정의하였다.

3. 결과

1) 정사영상과 Digital 영상 생성

촬영대상지 면적은 총 면적은 36.5 ha로, 총 128매의 영상을 수집할 수 있었다. 이 중 125매는 내부표정요소에 의해 보정되었으나, 3매는 영상의 왜곡이 심하여 후처리 과정에서 삭제하였다. 125매의 영상은 드론에 탑재된 GNSS/IMU 센서로 취득한 외부표정 요소와 특징점 추출 방식을 이용하여 정합하고, 생성된 영상에서 표준지가 위치한 부분을 별도로 추출하였다. 추출 결과 영상의 면적은 총 3.1 ha, 공간해상도는 6.1 cm 수준이었다. DSM은 처리과정에서 Noise filtering과 Smoothing filtering을 실시하였으며, 해상도는 정사영상과 마찬가지로 6.1 cm의 결과물을 생성하였다. DTM의 해상도는 약 30 cm 급 수준의 정보를 생산할 수 있었다. DSM과 DTM의 차이를 통해 DCHM을 생성한 결과, 가장 높은 부분은 17.15 m, 가장 낮은 부분은 -0.87 m으로 영상 왜곡이 1 m 내외 수준이었다(Fig. 4).

OGCSBN_2021_v37n6_1_1731_f0005.png 이미지

Fig. 4. (a) orthophoto , (b) digital terrain model, (c) digital surface model, (d) digital crown height model of the study sites.

(2) 객체분할 및 분류

Gray영상에서 140 미만으로 나타난 객체는 ‘그림자’, Red영상에서 140 이상 210 이하로 나타난 객체는 ‘임목’, Blue영상에서 165이상으로 나타난 객체는 토양 또는 암석을 의미하는 ‘기타 지역’으로 설정하여 각각의 영상에 대한 결과물을 생성하였다(Fig. 5). 추출한 임목지역에서 그림자와 기타 지역을 제거하여 최종적으로 개체목을 분할한 임목지역을 생성하였다.

OGCSBN_2021_v37n6_1_1731_f0004.png 이미지

Fig. 5. The result of the segmentation (a) gray image (b) blue image (c) red image.

3) 간벌강도에 따른 개체목 및 수고추출 결과 비교

(1) 개체목 추출 결과

대조구의 경우 현장 임목은 총 61.3본이었으며, 추출 임목은 35.7본으로 추출율 58.2%, 추출정확도 56.0% 수준을 보였다. 간벌강도 10% 표준지는 현장 임목 52.0본, 추출 임목 39.3본으로 추출율 75.6%, 추출정확도 63.5%를 보였고, 간벌강도 20% 표준지는 현장 임목 33.7본, 추출 임목 29.3본으로 추출율 87.1%, 추출정확도 76.2%의 수준을 보였다. 간벌강도 40% 표준지는 현장 임목 27.5본, 추출 임목 30.0본으로 추출율 109.1%, 추출정확도 89.1%로 간벌강도가 높을수록 추출 정확도가 개선되는 현상을 보였다(Table 1). Kim, et al. (2021)이 수행한 임분밀도 1,014 본/ha 잣나무림을 대상으로 드론 정상 영상을 이용한 개체목 추출 연구에서 전체 개체목은 75.4%, 수고가 높은 우세목은 85.2% 가량을 추출한 사례가 있어 본 연구의 결과와 큰 차이를 보이지 않았다.

Table 1. The results of tree extraction rate and accuracy based on the different thinning types

OGCSBN_2021_v37n6_1_1731_t0001.png 이미지

이는 산림 내 임분밀도가 개체목 추출 유무에 큰 영향을 미치는 것을 확인시켜주는 결과이다. 다만 간벌강도 20% 표준지에서 추출율이 87% 이상으로 높아지는 경향은 산림 내 임분밀도가 ha 당 1,000본 이하일 경우 드론 정사영상으로 산림 내 개체목을 대부분 추출할 가능성을 보여주는 결과라고 판단된다.

(2) 개체목 수고추출 결과

대조구의 경우 추출 임목 수고가 8.1 m로 현장 임목 수고 10.3 m 보다 약 2.2 m 낮게 추정되었다. 간벌강도 10% 표준지에서 추출 임목 수고 9.1 m는 현장 현장 임목 수고 10.99 m 보다 약 1.88 m 낮게 측정되었으며, 간벌 강도가 클수록 측정 오차가 점차 작아지는 경향을 보였다. 최종적으로 간벌강도 40% 표준지는 현장 임목 수고와 추출 임목 수고의 차이가 1.43 m에 불과하였다(Table 2). 기존 연구결과를 보면, Kim, et al. (2021)은 평균 수고 오차 1.49 m로 나타났으며, Lizuka, et al. (2018)은 1.71 m로 제시한 바 있어 본 연구결과에서 제시한 평균 수고오차와 유사한 범위에 속하였다.

Table 2. The results of tree height extraction based on the different thinning types

OGCSBN_2021_v37n6_1_1731_t0002.png 이미지

본 연구의 결과로 볼 때 영상으로 개체목의 수고를 추정함에 있어 수관 중첩률이 수고 정확도에 큰 영향을 미침을 알 수 있었다. 전체적으로 수고는 실제 측정치에 비해 낮게 측정된 가장 큰 원인은 DTM의 생성에서 필요한 분석사양(셀크기, 분석각도, 이격거리) 후처리를 별도로 수행하지 않아 각 표준지 별 평탄지와 구릉지 형태로 각기 다른 지형 고도를 정확하게 추정하는데 많은 한계가 있었을 것으로 보인다. 숲이 우거진 지역은 영상으로 표현되지 않는 정보가 많아지기 때문에 지형분석 사양을 다양하게 조절해야 오차가 적은 DTM를 추출할 수 있다(Kim et al., 2021). 따라서 지형분석 지점을 다양하게 조절하여 최적의 DTM을 추출할 수 있다면 영상분석을 통한 수고 추출의 결과 오차를 줄일 수 있을 것으로 보인다. 한편, 전체적으로 수고가 낮게 추정되는 결과를 보였으나, 산림 현장에서 수고를 측정할 시 측정자에 의해 많은 오류와 오차가 발생함을 감안하면, 2 m 내외의 차이는 현장 정보로 충분히 활용가능한 수준으로 판단된다.

4. 결론

본 연구의 목적은 드론정사영상과 객체추출 기법을 융합하여 개체목 선별 및 수고를 추정할 수 있는 방법을 제시하는 것이다. 연구대상지는 충청남도 예산군 내리기다소나무림으로 간벌강도 40%, 20%, 10% 대조구가 설치된 지역이다. 영상취득에는 DJI사의 MAVIC2 PRO 드론을 이용하였으며, 촬영 범위 내 가장 높은 지형지물을 고려하여 고도를 180 m로 설정하였다. 영상 왜곡을 방지하기 위하여 4개 지점에 지상기준점을 설치하였으며, 내중첩과 옆중첩을 각각 80%로 설정하였다. 영상분석 통하여 DSM과 DTM을 추출하고 두 모델의 고도차를 이용해 DCHM을 생성하였다. 간벌강도별 개체목 추출율을 분석한 결과, 간벌강도 40% 표준지 109.1%, 간벌강도 20% 표준지 87.1%, 간벌강도 10% 표준지 75.6%, 대조구 58.2%이었다. 개체목 별 수고특성을 추출한 결과, 간벌강도 40%는 현장조사 결과보다 약 1.43 m 낮았으며, 간벌강도 20%는 1.73 m, 간벌강도 10%는 1.88 m, 대조구 2.22 m로 차이가 있었다. 드론을 이용한 산림측정은 지상기준점에 대한 연구와 Point Cloud의 밀도, 영상 분할 가중치 등 기초 연구에 대한 데이터가 누적된다면, 추후 빅데이터를 통한 딥러닝 학습 등을 수행할 수 있는 체계를 마련하고, 이를 통해 기존의 원격탐사 방법이나 현장조사를 대체할 수 있는 방안으로 잠재력이 충분하다고 판단된다. 또한 연구의 목적과 계획에 따라 조방적인 지역을 대상으로 한 연구와 수관의 상층부에 대한 연구 등 드론의 장점을 고려한 선택적 연구에도 활용이 가능할 것이다.

사사

본 논문은 2021년도 공주대학교 교내학술연구비 지원에 의한 연구결과의 일부임.

References

  1. Andersen, H.E., R. McGaughey, and J. Reutebuch, 2004. Estimating forest canopy fuel parameters using LIDAR data, Remote Sensing of Environment, 94(4): 441-449. https://doi.org/10.1016/j.rse.2004.10.013
  2. Grigillo, D. and U. Kanjir, 2012. Urban object extraction from digital surface model and digital aerial images, ISPRS annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 1: 215-220. https://doi.org/10.5194/isprsannals-I-3-215-2012
  3. Beucher, S., 1992. The watershed transformation applied to image segmentation, Scanning Microscopy, 1992(6): 28.
  4. Belaid, L.J. and W. Mourou, 2009. Image segmentation: a watershed transformation algorithm, Image Analysis and Stereology, 28(2): 93-102. https://doi.org/10.5566/ias.v28.p93-102
  5. Hyyppa, J., M. Schardt, H. Haggren, H. Koch, U. Lohr, H.U. Scherrer, R. Paananen, H. Luukkonen, M. Ziegler, and H. Hyyppa, 2001. The first europeanwide attempt to derive single-tree information from laserscanner data, Journal of Finland, 17: 43-53.
  6. Iizuka, K., T. Yonehara, M. Itoh, and Y. Kosugi, 2018. Estimating tree height and diameter at breast height (DBH) from digital surface models and orthophotos obtained with an unmanned aerial system for a Japanese cypress (Chamaecyparis obtusa) forest, Remote Sensing, 10: 1-13. https://doi.org/10.3390/rs10010001
  7. Jucker, T.J., J. Caspersen, C. Chave, N. Antin, F. Barbier, M. Bongers, K.Y. Dalponte, D.L. Forrester, and M. Haeni, 2017. Allometric equations for integrating remote sensing imagery into forest monitoring programmes, Global Change Biology, 23: 177-190. https://doi.org/10.1111/gcb.13388
  8. Jain, Y., Y.H. He, and C. John, 2014. A multi-band watershed segmentation method for individual tree crown delineation from high resolution multispectral aerial image, Proc. of 2014 IEEE Geoscience and Remote Sensing Symposium, Quebec City, QC, CAN, Jul. 13-18, pp. 1599-1591.
  9. Kamal, M. and S. Phinn, 2011. Hyperspectral data for mangrove species mapping: A comparison of pixel-based and object-based approach, Remote Sensing, 3(10): 2222-2242. https://doi.org/10.3390/rs3102222
  10. Kim, S.Y., J.H. Jeong, S.J. Lee, and C.G. Kwon. 2021. Estimating tree height and diameter at breast height using the unmanned aerial system for Pinus koraiensis in Bonghwa region, Journal of Agriculture and Life Sciences, 55(2): 25-32. https://doi.org/10.14397/jals.2021.55.2.25
  11. Liu, D. and F. Xia, 2010. Assessing object-based classification: Advantages and limitations, Remote Sensing Letters, 1: 187-194. https://doi.org/10.1080/01431161003743173
  12. Lynn, T.J., 2016. Tree height quantification with the use of DSM generated from uav-acquired imagery: Pinus densiflora forest in andong and Pinus koraiensis plantation in gwangju, Ph.D thesis, Kyungpook National University, Daegu, Kyungsang, KOR.
  13. Mlambo, R., I.H. Woodhouse, F. Gerard, and K. Anderson, 2017. Structure from motion (SfM) photogrammetry with drone data: A low cost method for monitoring greenhouse gas emissions from forests in developing countries, Forests, 8: 68. https://doi.org/10.3390/f8030068
  14. Nemec, P., 2015. Comparison of modern forest inventory method with the common method for management of tropical rainforest in the Peruvian Amazon, Journal of Tropical Forest Science, 27: 80-91.
  15. Ota, T., M. Ogawa, K. Shimizu, T. Kajisa, N. Mizoue, S. Yoshida, G. Takao, Y. Hirata, N. Furuya, and T. Sano, 2015. Aboveground Biomass Estimation Using Structure from Motion Approach with Aerial Photographs in a Seasonal Tropical Forest, Forests, 6: 3882-3898. https://doi.org/10.3390/f6113882
  16. Woo, C.S., 2006. DEM generation and tree height estimation in forest area using airborne LiDAR data, M.S. Thesis, Inha University, Incheon, KOR.
  17. Yim, Y.S. 2017. A study on the extraction of tree structure characteristics by Drone images, M.S. Thesis, Kunkook University, Seoul, KOR.
  18. Yim. W.T., 2016. A study on automatic extraction of tree using UAV-based spatial information, Ph.D thesis, Kunkook University, Seoul, KOR.
  19. You, J.H, M.Y. Kim, J.G. Kim, and K.C. Shin, 2020. Detection of pine wilt disease using RGB-based low altitude images and spectral vegetation indices from a drone, Journal of Agriculture and Life Science, 54(6): 21-27.