DOI QR코드

DOI QR Code

Derivation of Green Coverage Ratio Based on Deep Learning Using MAV and UAV Aerial Images

유·무인 항공영상을 이용한 심층학습 기반 녹피율 산정

  • 한승연 (서울시립대학교 공간정보공학과) ;
  • 이임평 (서울시립대학교 공간정보공학과)
  • Received : 2021.12.10
  • Accepted : 2021.12.28
  • Published : 2021.12.31

Abstract

The green coverage ratio is the ratio of the land area to green coverage area, and it is used as a practical urban greening index. The green coverage ratio is calculated based on the land cover map, but low spatial resolution and inconsistent production cycle of land cover map make it difficult to calculate the correct green coverage area and analyze the precise green coverage. Therefore, this study proposes a new method to calculate green coverage area using aerial images and deep neural networks. Green coverage ratio can be quickly calculated using manned aerial images acquired by local governments, but precise analysis is difficult because components of image such as acquisition date, resolution, and sensors cannot be selected and modified. This limitation can be supplemented by using an unmanned aerial vehicle that can mount various sensors and acquire high-resolution images due to low-altitude flight. In this study, we proposed a method to calculate green coverage ratio from manned or unmanned aerial images, and experimentally verified the proposed method. Aerial images enable precise analysis by high resolution and relatively constant cycles, and deep learning can automatically detect green coverage area in aerial images. Local governments acquire manned aerial images for various purposes every year and we can utilize them to calculate green coverage ratio quickly. However, acquired manned aerial images may be difficult to accurately analyze because details such as acquisition date, resolution, and sensors cannot be selected. These limitations can be supplemented by using unmanned aerial vehicles that can mount various sensors and acquire high-resolution images due to low-altitude flight. Accordingly, the green coverage ratio was calculated from the two aerial images, and as a result, it could be calculated with high accuracy from all green types. However, the green coverage ratio calculated from manned aerial images had limitations in complex environments. The unmanned aerial images used to compensate for this were able to calculate a high accuracy of green coverage ratio even in complex environments, and more precise green area detection was possible through additional band images. In the future, it is expected that the rust rate can be calculated effectively by using the newly acquired unmanned aerial imagery supplementary to the existing manned aerial imagery.

녹피율은 행정구역면적 대비 녹지가 피복된 면적의 비율로, 실질적인 도시녹화 지표로 활용되고 있다. 현재 녹피율은 토지피복지도를 기반하여 산출되는데, 토지피복지도의 낮은 공간해상도와 일정하지 않은 제작시기는 정확한 녹피율 산출과 정밀한 녹피분석을 어렵게 한다. 따라서 본 연구는 새로운 녹피율 산출방안으로 항공영상과 심층학습을 활용한 방안을 제안한다. 항공영상은 높은 해상도와 비교적 일정한 주기로 정밀한 분석을 가능하게 하며 심층 학습은 항공영상 내 녹지를 자동으로 탐지할 수 있다. 지자체는 매년 다양한 목적을 위해 유인항공영상을 취득하여 이를 활용해 신속하게 녹피율을 산출한다. 하지만 미리 취득된 유인항공영상은 취득 시기와 해상도, 센서와 같은 세부사항을 선택할 수 없어 정밀한 분석이 어려울 수 있다. 이러한 한계점은 다양한 센서의 탑재가 가능하고 낮은 고도의 비행으로 인해 고해상도 영상을 취득할 수 있는 무인항공기를 활용하여 보완될 수 있다. 이에 두 가지 항공영상으로부터 녹피율을 산출하였고 그 결과, 모든 녹지 유형으로 부터 높은 정확도로 녹피율을 산출할 수 있었다. 하지만 유인항공영상으로부터 산출된 녹피율은 복잡한 환경에서 한계가 있었다. 이를 보완하고자 활용한 무인항공영상은 복잡한 환경에서도 높은 정확도의 녹피율을 산출할 수 있었고 추가밴드 영상을 통해 더 정밀한 녹지 영역 탐지가 가능했다. 추후 기존 유인항공영상에 새로 취득한 무인항공영상을 보완적으로 사용해 녹피율을 효과적으로 산출할 수 있을 것이라 기대된다.

Keywords

1. 서론

오늘날 급속한 도시화와 고밀도 토지개발로 인해 일상생활 내 녹지면적이 감소되고 있다(Lee, 2000). 그리하여 지자체는 도시 내 녹지 확대를 위해 매년 공원녹지기본계획을 수립하며, 계획의 기초자료로 녹피율을 산출한다. 녹피율은 행정구역면적 대비 녹지가 피복된 면적 비율로, 실질적인 도시녹화의 지표로 사용된다 (Kim et al., 2015). 전통적으로 녹피율은 토지피복지도에서 녹지와 관련된 분류코드를 추출해 면적을 계산하고, 행정구역면적으로 나누어 산출된다(Moon et al., 2010). 이와 같은 산출 방법은 신속하고 적은 비용으로 녹피율을 계산할 수 있다는 장점이 있지만 몇 가지 한계점이 존재한다. 토지피복지도의 낮은 공간해상도는 소규모 녹피율 측정을 어렵게 하며(Kim et al., 2013), 녹지관련 코드는 녹지가 아닌 공간을 포함하여 정확한 녹피공간이라 할 수 없다. 또한 토지피복지도의 일정하지 않은 제작 주기는 시계열적 분석, 변화 파악 등 녹피와 관련한 정밀한 분석을 어렵게 한다(Kim et al., 2021).

이에 본 연구는 새로운 녹피율 측정 방안으로 항공영상을 활용하는 것을 제안한다. 항공영상은 항공기에 탑재된 카메라로 지표면을 촬영한 사진이다. 위성에 비해 높은 공간해상도를 가지며 원하는 주기와 시기로 취득할 수 있다는 장점이 있다(Choi et al., 2020). 따라서 항공 영상을 이용한다면 소규모 녹지를 파악하고, 비교적 일정한 취득 주기로 유의미한 변화를 분석하여 기존 방안보다 효과적으로 녹피율을 산출할 수 있을 것이다.

항공영상은 전통적으로 유인항공기에 고가 정밀 측량용 카메라를 탑재하여 촬영해왔다. 이에 비해 최근에는 중저가 중소형 무인항공기의 활용도 점진적으로 커지고 있다. 유인항공기는 비교적 넓은 지역에 대해 짧은 기간동안 고해상도 영상을 취득하는데 효과적이다. 이에 서울시 등 여러 지자체는 매년 해당 지자체 전역에 대한 항공영상을 취득한다. 이를 통해 특히 불법 건축물 단속 등 도시 변화 모니터링에 기반한 다양한 행정 업무에 활용한다. 새로 항공영상을 취득하지 않고 기 수집된 유인항공영상을 이용한다면, 지자체 전역에 대한 녹피율을 저비용으로 빠르게 산출할 수 있다.

이런 장점에도 불구하고 녹피율 산출을 위해 새로 취득된 항공영상을 활용하는 것이 아니기 때문에 비롯되는 한계도 많다. 예를 들어, 항공영상의 취득 시기와 해상도, 센서 종류 등을 선택할 수 없어 정밀한 분석이 어려울 수 있다. 이를 보완하고자 목적에 따라 다양한 센서 탑재가 가능하고 비교적 운용이 간편한 무인항공기를 이용할 수 있다. 무인항공기로 취득한 항공영상은 낮은 고도의 비행으로 더 높은 해상도를 가져 소규모 지역을 분석하는 연구에 적합하다. 반면에 비교적 넓은 지역에 대해 짧은 기간 동안 촬영이 쉽지 않고, 신규 촬영에 따른 비용이 추가로 소요된다. 따라서 효과적인 항공영상 활용을 위해 기존 취득된 유인항공영상을 소규모 지역의 무인항공영상으로 적절히 보완해 사용되어야 한다.

수집된 유인항공영상이나 신규로 취득된 무인항공 영상으로부터 녹피율을 산출하기 위해서는 항공영상을 처리하고 분석하는 과정이 필요하다. 항공영상을 처리하여 절대적인 위치와 범위를 도출할 수 있도록 지도와 동일한 좌표체계와 투영방법을 갖는 정사영상을 생성한다. 생성된 정사영상을 분석하여 녹지에 해당하는 영역을 탐지해서 녹피면적을 산정하여 녹피율을 계산한다. 여기서 가장 핵심적인 과정이 바로 항공 영상으로부터 녹지영역을 탐지하는 과정이다.

녹지영역 탐지에 있어 전통적인 방법이 바로 육안 검수이다. 비교적 정확하지만 사람에 따라 달라지는 주관적인 결과가 산출되고 시간과 비용이 많이 소요되는 단점이 있다. 이에 이를 자동화하려는 많은 연구들이 진행되어 왔다. 과거에는 RF (Random Forest)나 SVM (Support Vector Machine) 등 머신러닝 기법을 많이 활용해왔고, 최근에는 다양한 심층 학습 기법을 많이 시도하고 있다. 심층 학습은 엄청나게 많은 변수들이 포함된 복잡한 모델을 역시 엄청난 양의 학습 데이터를  통해 효율적으로 조정하여 다양한 문제 해결에 획기적인 성능을 보여준다.

Ban et al. (2021)은 간단한 심층 신경망을 구현해 항공영상 내 벼 픽셀을 탐지하여 벼 도복 면적을 정확하고 신속하게 추정하였다. Li et al. (2021)은 해바라기 면적 측정을 위해 항공영상을 랜덤 포레스트(random forest)와 심층 학습을 이용해 비교하였고, 심층 학습이 정확도와 시간 복잡도 측면에서 효율적이라고 분석하였다. Jo et al. (2021)은 다중분광센서로부터 취득한 RE, NIR 영상을 심층 신경망의 추가적인 입력자료로 사용해 기존 RGB 영상에 비해 향상된 작물 탐지 정확도를 보고하였다.

작물 탐지 및 면적 추정을 위해 항공영상과 심층 학습을 결합하여 성공적인 결과를 보고한 사전 연구들을 동기로 하여, 본 연구는 기존 토지피복지도를 기반한 녹피율 산출 방안의 한계점을 개선하기 위해 심층 학습을 통해 유·무인항공영상으로부터 녹피율을 추정하는 방법을 제안하고자 한다. 유·무인항공영상에 기반한 방법의 특성을 잘 보여줄 수 있는 실험 대상 영역을 선정하고 적용하여 실험적으로 검증한다. 구체적으로 유인항공영상을 활용한 실험은 녹지 유형별 정확도를 분석하고 무인항공영상의 경우는 녹지유형과 파장영상별 정확도를 검토한다.

2. 연구 방법

본 연구에서 제안하는 새로운 녹피율 산출 방안의 흐름은 Fig. 1과 같다. 기본적으로 항공영상은 새로 취득하지 않고 지자체가 일반적인 목적으로 매년 취득하는 유인항공영상을 이용한다. 넓은 지역에 대해 동시에 짧은 기간 동안 수집된 영상은 지자체 전역의 녹피율을 계산하는 데 적합하다. 하지만 비교적 좁은 영역에 있어 특정한 시점의 녹피율을 높은 정확도로 산출하려면 무인항공기로 새로 취득하여 기존 유인항공영상에 보완적으로 이용한다. 취득한 무인항공영상과 기존 축적된 유인항공영상은 심층 신경망에 적용되어 예측 녹지 영역이 산출된다. 예측 녹지 영역은 픽셀 크기와 곱해져 녹피면적으로 계산되며(Fig. 1) 이는 토지면적으로 나눠져 녹피율로 산출된다.

OGCSBN_2021_v37n6_1_1757_f0001.png 이미지

Fig. 1. The flowchart of research.

1) 심층 학습

심층 학습은 여러 비선형 기법의 조합을 통해 다량의 훈련 데이터로부터 과제의 목적에 부합하는 특성을 추상화하는 알고리즘이다(Goodfellow et al., 2016). 여러 분야에서 지속적인 발전으로 심층 학습은 기존의 전통적인 방법에 비해 우수한 성능을 보고하고 있다. 특히, 합성곱 신경망(Convolutional neural network, CNN) 을 포함한 최신식의 심층 신경망은 영상 분류(image classification),객체탐지(object detection),개체분할(instance segmentation), 의미론적 분할(semantic segmentation) 등 영상 인식 문제에서 뛰어난 성능을 발휘한다(Jeon et al., 2020). 그 중, 의미론적 분할은 영상을 픽셀 단위로 분류해 녹지와 같은 정형화되지 않은 객체를 정량적으로 산출할 수 있다. 따라서, 본 연구는 항공영상 내 녹지를 자동으로 탐지하기 위해 의미론적 분할을 수행하는 심층 신경망을 이용하였다.

Zhang et al. (2018)은 의미론적 분할 과제에서 빈번히 사용되는 Unet 신경망에 잔차의 개념(Resblock)과 배치 정규화(Batch normalization)을적용해DeepResidual U-net (DeepResUnet) 모델을 제안하였다. DeepResUnet은 기존 Unet 신경망보다 우수한 성능을 나타냈으며 고해상도 영상과 적은 데이터에 높은 성능을 보고하였다. 이에 따라, 본 연구는 항공 사진으로부터 녹지를 탐지하기 위해 DeepResUnet을 이용하였으며, Fig. 2는 DeepResUnet 의 구조를 나타낸다.

OGCSBN_2021_v37n6_1_1757_f0002.png 이미지

Fig. 2. The architecture of Deep Residual U-net (Zhang et al., 2018).

DeepResUnet은 Adam 알고리즘을 활용해 학습하였으며 성공적인 학습을 위해 학습률 스케줄러(Learning Rate Scheduler) 기법을 활용하였다. 학습률 스케줄러 (Learning Rate Scheduler) 기법은 심층 학습 속도를 조절하는 파라미터인 학습률을 적절히 조절하는 방법(Yoo et al., 2020)으로 학습 초기에는 큰 수치를 주어 학습 속도를 빠르게 설정하고 일정 반복 횟수가 지나면 단계적으로 수치를 낮추어 정확히 해에 수렴될 수 있도록 한다 (Seong et al., 2021). 그리하여, 학습률은 0.001로 초기화한 뒤, 매 100 반복(step)마다 0.0001만큼 감쇄시켰다.

심층신경망을이용한학습정확도평가는IoU(Interest of Union)와 손실(loss) 평가를 통하여 이루어진다. IoU는 정답과 예측의 교차 영역을 정답과 예측의 합집합 영역으로 나눈 지표로 Eq. (1)로 계산된다. 정답과 예측이 얼마나 일치하는 가를 평가하며 1에 가까울수록 정확도가 높다.

\(I o U=\frac{\text { area }(\text { ground truth } \cap \text { prediction })}{\text { area }(\text { ground }) \text { ruth } \cup \text { prediction })}\)                (1)

손실 함수는 정답에 대한 오차를 숫자로 나타내며 가장 많이 활용되는 교차 엔트로피 오차(Cross Entropy Error, CEE)를 이용하였다(Choi et al., 2020). 교차 엔트로피 오차는 Eq. (2)로 계산되며 정답에 가까울수록 작은 값이 나오게 된다.

\(Cross Entropy Error (C E E)=-\sum_{i=0}^{n} t_{i} \log y_{i} \)              (2)

where ti : true probability distribution.

yi: predicted probability distribution.

2) 녹피율 오차 산출

녹피 면적은 녹지에 해당되는 영역에 픽셀 크기를 곱해 산출되며 이를 토지 면적으로 나누면 녹피율이 계산된다. 실제 녹피율은 레이블한 녹지 면적을 기반으로, 추정 녹피율은 심층 신경망이 예측한 녹지 면적을 기반으로 산출된다. 녹피율의 정확도는 녹피율 오차(ratio error)로 평가되며 이는 추정과 실제 녹피면적 차이를 실제 토지 면적으로 나누어 계산된다(Eq. 3). 오차가 음의 값으로 산출된다는 것은 예측이 실제 면적에 비해 적은 면적으로 산출됨을 의미하며, 양의 값은 실제 면적에 비해 큰 면적으로 산출되었다고 분석할 수 있다.

\(\text { Ratio error }=\frac{\text { Prediction }_{\mathrm{omu}}-\text { Ground Truth }_{\mathrm{mw}}}{\text { Land }_{\mathrm{muu}}} \times 100\)                    (3)

3. 연구지역 및 데이터

1) 연구 지역

본 연구는 유·무인항공영상으로부터 녹피율을 산출하는 방안을 제안하고 이를 실험적으로 검증하고자 두 개의 항공사진 데이터셋을 구축하였다. 유인항공영상 데이터셋으로 서울시가 취득한 서울 전역의 항공영상 중 다양한 형태의 녹지가 분포하는 상암동과 중구 지역의 항공영상을 선정하였다. 무인항공영상 데이터셋으로 소규모 지역이지만 건물, 도로, 호수에 따른 다양한 녹지가 있는 서울시립대 교내로 선정해 항공영상을 취득하였다. Fig. 3은 각 항공영상 데이터셋의 대상지역을 나타낸다.

OGCSBN_2021_v37n6_1_1757_f0003.png 이미지

Fig. 3. The study area of (a) Sangam-dong, (b) Jung-gu and (c) university of Seoul.

2) 데이터 취득

유인항공영상의 데이터셋은 서울시가 구축한 유인 항공영상을 이용하며, 이는 Table 1와 같이 촬영되어 구축되었다.

Table 1. Details of MAV image acquisition

OGCSBN_2021_v37n6_1_1757_t0001.png 이미지

기존 구축된 유인항공영상을 이용해 데이터 취득단계 없이 중구와 상암동의 녹피율을 신속하게 산출할 수 있다. 하지만 이는 녹피율 산출을 위해 취득된 항공영상이 아니기에 녹피율 분석에 필요한 시기, 센서 등을 조절할 수 없다. 이를 보완하고자 무인항공기를 운용해 항공영상을 취득하였으며 실험에 사용한 무인항공기와 카메라 사양은 Fig. 4와 Table 2와 같다.

OGCSBN_2021_v37n6_1_1757_f0004.png 이미지

Fig. 4. P4 multi spectral UAV.

Table 2. Specifications of UAV and camera

OGCSBN_2021_v37n6_1_1757_t0002.png 이미지

잎이 무성해 녹피 분석이 가장 유의미한 8월에 무인항공기를 운용하였으며 항공기에 다중분광센서를 탑재해 항공영상을 취득하였다. 다중분광센서는 엽록소 농도에 민감하게 반응하여 식물관련 연구에서 활발히 사용되고 있으며(Lee et al., 2017; Lee, 2018) 이로 취득된 RE, NIR 파장대 영상은 식생 탐지 성능 향상을 위해 심층 신경망의 입력자료로 활용되고 있다(Jo et al., 2020). 이에 본 연구는 무인항공기로 취득한 RGB, RE, NIR 파장 영상을 조합해 영상 조합별 녹피율 오차를 분석하였다.

무인항공기의 기종과 탑재 센서 등을 정한 후, 촬영 계획을 수립해야 한다. 촬영 계획은 항공영상 품질에서 가장 중요한 요소인 공간해상도와 밀접한 관련이 있기 때문에(Lee and Sung, 2019) 규정된 지침에 따라 비행하는 것이 중요하다. 이에 무인비행장치 이용 공공측량 작업지침 규정을 참고해 Table 3과 같이 촬영방향 중복도(종)는 75%, 인접 코스 중복도(횡)는 60%로 설정해 122.1m의 고도로 비행하였다.

Table 3. Details of UAV image acquisition

OGCSBN_2021_v37n6_1_1757_t0003.png 이미지

3) 학습 및 평가 데이터 가공

취득한 유·무인항공영상은 상용 사진측량 소프트웨어 metashape (Agisoft, 2021)을 통해 각각 정사영상으로 가공되었다. Fig. 5는 가공된 중구와 상암동의 RGB영상과 서울시립대의 RGB, RE, NIR 파장의 정사영상 예시이다.

OGCSBN_2021_v37n6_1_1757_f0005.png 이미지

Fig. 5. Example of (a) Sangam-dong, (b) Jung- gu, (c) RGB of university of Seoul, (d) RE of university of Seoul and (e) NIR of university of Seoul orthophoto.

심층 신경망에 이용할 학습과 평가 데이터를 가공하기 위해 정사영상으로부터 녹지에 대한 라벨링 작업을 수행하였고, 라벨은 픽셀기반으로 비녹지(0), 녹지(1)으로 구분되었다. 이후, 정사영상과 라벨링 데이터를 512×512 (pixel)로 분할하여 Table 4와 같이 가공하였다. 유인항공영상 데이터셋은 중구는 학습데이터, 상암동은 평가데이터로 사용하였으며 무인항공영상 데이터셋은 가공한 서울시립대의 정사영상을 9:1로 구분해 학습 및 평가데이터로 사용하였다.

Table 4. Comparison of data by vehicle

OGCSBN_2021_v37n6_1_1757_t0004.png 이미지

OGCSBN_2021_v37n6_1_1757_f0006.png 이미지

Fig. 6. Selected MAV and UAV site by vegetation typ

학습 데이터는 심층 신경망 학습에 이용되고, 평가 데이터는 학습된 심층 신경망에 입력되어 녹피율이 추정되며, 녹피율 오차를 계산해 정확도를 평가한다. 이때 녹피율은 녹지의 유형에 따라 분석되며 녹지 유형은 산, 건물 주변 녹지, 강 주변 녹지, 가로수로 분류된다. 산(Type 1)은 녹지 비율이 높은 영역으로 녹지 탐지 난이도가 가장 낮은 유형이며, 건물 주변 녹지(Type 2)는 건물 그림자에 가려진 녹지와 건물 옆 작은 녹지를 탐지해야 하는 고난이도 유형이다. 강 주변 녹지(Type 3)은 항공영상에서 초록색을 띄는 강과 녹지를 구별해야 하며 가로수(Type 4)는 건물과 도로 사이에 복잡한 경계를 가지고 있는 녹지유형이다.

4. 실험 결과

1) 유인항공영상 실험

유인항공기 영상을 이용한 심층 신경망의 학습 결과 IoU와 loss값은 Table 5와 같다.

Table 5. IoU and loss for the MAV training data set

OGCSBN_2021_v37n6_1_1757_t0005.png 이미지

학습된 심층 신경망을 이용해 평가데이터로부터 녹피율을 추론하였고 Table 6와 같이 녹피율의 오차와 IoU를 계산해 녹지유형별 결과를 비교하였다. Type 1~3는 1%미만의 낮은 녹피율 오차를 보였으며 특히 Type 1의 경우 IoU도 96%로 매우 높았다. 이는 유인항공영상을 이용해 실제 녹피율과 유사하게 산출할 수 있다는 것을 의미한다. 반면 Type 2는 녹피율 오차와 IoU가 비교적 낮은 정확도를 보였는데 이와 같은 녹지유형은 정밀한 분석을 위해 무인항공영상의 보완이 필요하다고 분석하였다.

Table 6. Comparison of green coverage area between ground truth and prediction in MAV experiment

OGCSBN_2021_v37n6_1_1757_t0006.png 이미지

2) 무인항공영상 실험

무인항공기를 이용하는 방안은 원하는 시기와 센서로부터 항공영상을 취득할 수 있어 정밀한 분석이 요구되는 지역의 녹피율을 산출하는 연구에 적합하다. 본 연구는 무인항공기를 운용해 높은 해상도로 무인항공영상을 취득하였으며 다중분광센서를 활용해 여러 파장대 영상을 조합하여 심층 학습을 진행하였다. Table 7은 무인항공영상으로 취득한 RGB, RE, NIR 영상을 조합한 입력자료로부터 학습한 IoU와 loss값이다. 모든 실험의 IoU의 값은 91%로 매우 높았으며 특히 다른 파장 영상을 추가로 학습한 실험의 IoU는 RGB 영상만 학습한 실험에 비해 2% 더 높았다.

Table 7. IoU and loss for the UAV training data set

OGCSBN_2021_v37n6_1_1757_t0007.png 이미지

학습된 심층 신경망으로부터 녹피율을 산출하고 녹지유형과 입력자료별로 오차를 비교하였다(Table 8). Type 1의 실험은 모든 입력자료로부터 94% 이상의 IoU가 산출되었으며, 이외의 나머지 녹지유형도 80%이상의 IoU와 4% 미만의 낮은 녹피율 오차로 높은 정확도를 보였다. 이러한 성능은 무인항공영상의 높은 해상도로 영상 내 녹지 픽셀을 더 정밀히 파악할 수 있었기 때문이라 판단된다. 특히, Type 2의 경우 유인항공영상에서 매우 낮은 정확도를 보여 무인항공영상의 보완이 필요한 지역이라 판단하였다. 무인항공영상은 Type 2에서 매우 낮은 오차를 보였으며 이로 Type 2와 같은 복잡한 녹지 유형에 대해 무인항공영상이 유인항공영상을 보완할 수 있을 것이라 기대할 수 있었다.

Table 8. Comparison of green coverage area between ground truth and prediction in UAV experiment

OGCSBN_2021_v37n6_1_1757_t0008.png 이미지

입력자료로 RGB영상보다 RGB영상과 다른 파장영상을 함께 사용한 실험이 더 정확하게 녹지 영역을 탐지해 녹피율을 예측하였다. 이를 통해 다중분광센서로 취득한 RE, NIR 파장영상이 녹피율 예측 정확도 향상에 효과적임을 확인하였으며, 정확도가 높이 요구되는 연구에 적합한 활용이라 분석하였다.

5. 결론

본 연구는 토지피복지도에 기반한 기존 녹피율 산출 방안의 한계점을 개선하고자 유·무인항공영상과 심층 학습을 이용한 새로운 산출 방안을 제안하였다. 유인항공영상의 경우 지자체가 범용 목적으로 기 취득한 데이터를 이용하여 신속하게 저비용으로 녹피율을 산출한다. 이에 비하여 녹지 유형이나 녹피율 산출 목적에 따라 취득 시기와 해상도, 센서 종류 등을 최적으로 선정하여 정밀한 분석이 필요한 경우에는 신규 취득된 무인항공영상을 활용한다. 제안된 방법을 다양한 유형의 녹지를 포함하는 연구대상지역에서 취득된 실제 유·무인항공 영상에 적용하여 실험적으로 검증하였다. 유인항공영 상을 이용한 산출 방안은 대부분의 녹지 유형으로부터 높은 정확도로 녹피율 산출이 가능하였지만 건물 주변과 같은 복잡한 환경에서 정확한 산출이 어려웠다. 무인항공영상을 이용한 방안은 더 높은 정확도로 녹피율을 산출하였으며 복잡한 환경에서도 녹피율 오차가 낮았으며 추가 파장 영상의 활용으로 정밀하게 녹지 영역을 탐지할 수 있었다. 추후 본 연구가 제안한 방안으로 기존 유인항공영상으로 한계가 존재하는 녹지유형을 무인항공영상으로 보완해 녹피율을 효과적으로 산출할 수 있을 것이라 기대된다

References

  1. Agisoft, 2021. Agisoft Metashape, https://www.agisoft.com/, Accessed on Jun. 22, 2021.
  2. Ban, H.Y., J.K. Baek, W.G. Sang, J.H. Kim, and M.C. Seo, 2021. Estimation of the Lodging Area in Rice Using Deep Learning, The Korean Journal of Crop Science, 66(2): 105-111 (in Korean with English abstract). https://doi.org/10.7740/KJCS.2021.66.2.105
  3. Choi, S.K., S.K. Lee, Y.B. Kang, D.Y. Choi, and J.W. Choi, 2020. Use of Unmanned Aerial Vehicle Imagery and Deep Learning UNet to Classification Upland Crop in Small Scale Agricultural Land, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry, and Cartography, 38(6): 671-679 (in Korean with English abstract). https://doi.org/10.7848/KSGPC.2020.38.6.671
  4. Eom, D.Y., 2017. 3D Reality Model Generation Technique of Spatial Objects by Unmanned Aerial Photogrammetry, Broadcasting and Media Magazine, 22(2): 44-52 (in Korean with English abstract).
  5. Goodfellow, I., Y. Bengio, and A. Courville, 2016. Deep Learning, MIT Press, Cambridge, MA, USA.
  6. Jeon, E.I., S.H. Kim, B.S. Kim, K.H. Park and O.I. Choi, 2020. Semantic Segmentation of Drone Imagery Using Deep Learning for Seagrass Habitat Monitoring, Korean Journal of Remote Sensing, 36(2-1): 199-215 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2020.36.2.1.8
  7. Jo, Y.W., S.B. Lee, Y.J. Lee, H.G. Kahng, S.H. Park, S.H. Bae, M.K. Kim, S.W. Han, and S.B. Kim., 2021. Semantic Segmentation of Cabbage in the South Korea Highlands with Images by Unmanned Aerial Vehicles, Applied Sciences, 11(10): 4493. https://doi.org/10.3390/app11104493
  8. Kim, J., Y. Song, and W.K. Lee, 2021. Accuracy analysis of Multi-series Phenological Landcover Classification Using U-Net-based Deep Learning Model - Focusing on the Seoul, Republic of Korea -, Korean Journal of Remote Sensing, 37(3): 409-418 (in Korean with English abstract). https://doi.org/10.7780/KJRS.2021.37.3.4
  9. Kim, S.H., H.Y. Kong, and T.K. Kim, 2015. Development and application of the assessment method of no net loss of greenness for urban ecosystem health improvement, Ecology and Resilient Infrastructure, 2(4): 311-316 (in Korean with English abstract). https://doi.org/10.17820/eri.2015.2.4.311
  10. Kim, T.W., D.J. Choi, G.J. Wee, and Y.C. Suh, 2013. Detection of Small Green Space in an Urban Area Using Airborne Hyperspectral Imagery and Spectral Angle Mapper, Journal of the Korean Association of Geographic Information Studies, 16(2): 88-100 (in Korean with English abstract). https://doi.org/10.11108/KAGIS.2013.16.2.088
  11. Lee H.S. and K.S. Lee, 2017. Effect of Red-edge Band to Estimate Leaf Area Index in Close Canopy Forest, Korean Journal of Remote Sensing, 33(5-1): 571-585 (in Korean with English abstract). https://doi.org/10.7780/KJRS.2017.33.5.1.10
  12. Lee, H.Y., 2000. Korea Climate, Beopmunsa, Seoul, KOR.
  13. Lee J.O. and S.M. Sung, 2019. Quality Evaluation of UAV Images Using Resolution Target, Journal of the Korean Association of Geographic Information Studies, 22(1): 103-113 (in Korean with English abstract). https://doi.org/10.11108/KAGIS.2019.22.1.103
  14. Lee, Y.C., 2018. Vegetation Monitoring using Unmanned Aerial System based Visible, Near Infrared and Thermal Images, Journal of Cadastre and Land InformatiX, 48(1): 71-91 (in Korean with English abstract). https://doi.org/10.22640/LXSIRI.2018.48.1.71
  15. Li, G., W.T. Han, S.J. Huang, W.T. Ma, Q. Ma, and X. Cui, 2021. Extraction of Sunflower Lodging Information Based on UAV Multi-Spectral Remote Sensing and Deep Learning, Remote Sensing, 13(14): 2721. https://doi.org/10.3390/rs13142721
  16. Moon, C.S., J.Y. Shim, S.B. Kim, and S.Y. Lee, 2010. A Study on the Calculation Methods on the Ratio of Green Coverage Using Satellite Images and Land Cover Maps, Journal of Korean Society of Rural Planning, 16(4): 53-60 (in Korean with English abstract).
  17. Song, A.R. and Y.I. Kim, 2017. Deep Learning-based Hyperspectral Image Classification with Application to Environmental Geographic Information Systems, Korean Journal of Remote Sensing, 33(6-2): 1061-1073 (in Korean with English abstract). https://doi.org/10.7780/KJRS.2017.33.6.2.3
  18. Seong, S.J., W.J. Park, Y.T. Lee, and J.W. Cha, 2021. Dynamic Sampling Scheduler for Unbalanced Data Classification, Proc. of Annual Conference on Human and Language 2021, Technology, https://sites.google.com/view/hclt2021, Oct. 14-15, pp. 221-226.
  19. Yoo, S.H., J.S., Lee, J.S., Bae. And H.G. Sohn, 2020. Automatic Generation of Land Cover Map Using Residual U-Net, Journal of the Korean Society of Civil Engineers, 40(5): 535-546 (in Korean with English abstract). https://doi.org/10.12652/KSCE.2020.40.5.0535
  20. Zhang, Z., Q. Liu, and Y. Wang, 2018. Road extraction by deep residual u-net, IEEE Geoscience and Remote Sensing Letters, 15(5): 749-753. https://doi.org/10.1109/lgrs.2018.2802944