DOI QR코드

DOI QR Code

Assessment of Lodged Damage Rate of Soybean Using Support Vector Classifier Model Combined with Drone Based RGB Vegetation Indices

드론 영상 기반 RGB 식생지수 조합 Support Vector Classifier 모델 활용 콩 도복피해율 산정

  • Lee, Hyun-jung (Department of Rural and Agricultural Engineering, Chungbuk National University) ;
  • Go, Seung-hwan (Department of Rural and Agricultural Engineering, Chungbuk National University) ;
  • Park, Jong-hwa (Department of Rural and Agricultural Engineering, Chungbuk National University)
  • 이현중 (충북대학교 지역건설공학과) ;
  • 고승환 (충북대학교 지역건설공학과) ;
  • 박종화 (충북대학교 지역건설공학과)
  • Received : 2022.12.08
  • Accepted : 2022.12.23
  • Published : 2022.12.31

Abstract

Drone and sensor technologies are enabling digitalization of agricultural crop's growth information and accelerating the development of the precision agriculture. These technologies could be able to assess damage of crops when natural disaster occurs, and contribute to the scientification of the crop insurance assessment method, which is being conducted through field survey. This study was aimed to calculate lodged damage rate from the vegetation indices extracted by drone based RGB images for soybean. Support Vector Classifier (SVC) models were considered by adding vegetation indices to the Crop Surface Model (CSM) based lodged damage rate. Visible Atmospherically Resistant Index (VARI) and Green Red Vegetation Index (GRVI) based lodged damage rate classification were shown the highest accuracy score as 0.709 and 0.705 each. As a result of this study, it was confirmed that drone based RGB images can be used as a useful tool for estimating the rate of lodged damage. The result acquired from this study can be used to the satellite imagery like Sentinel-2 and RapidEye when the damages from the natural disasters occurred.

드론(drone)과 센서(senor) 적용기술은 농업분야 작물의 성장 정보에 대한 디지털화를 가능하게 하면서 정밀농업 발전을 한층 가속화하고 있다. 이 기술은 자연재해 발생시 농작물 피해량 산정을 가능하게 하고, 현장 방문조사로 진행되고 있는 농작물재해보험 평가방법의 과학화에 기여할 수 있다. 본 연구는 콩을 대상으로 드론 기반 RGB영상을 취득하여 추출된 식생지수로 도복피해율을 산정하는 방법을 개발하고자 하였다. Support Vector Classifier (SVC) 분류 모델은 Crop Surface Model (CSM) 기반의 도복피해율에 식생지수를 추가하여 식생지수 적용성을 검토하였다. 식생지수 중 Visible Atmospherically Resistant Index (VARI), Green Red Vegetation Index (GRVI) 기반 콩의 도복피해율 분류 정확도는 각각 0.709, 0.705로 높은 분류정확도를 나타내었다. 연구 결과, 드론 기반 RGB 영상은 도복피해율 산정에 매우 유용한 도구로 활용 가능하다는 점을 확인할 수 있었다. 본 연구에서 얻어진 결과는 이상기후로 인한 광역 지역 자연재해에 대한 도복피해 산정 시 Sentinel-2, RapidEye 위성과 더불어 2025년 발사 예정인 농림업중형위성 영상과 연계해 활용 가능할 것으로 기대된다.

Keywords

1. 서론

농작물재해보험은 자연재해로 인한 농작물피해를 보상하여 농업인의 경영안정을 도모하고자 시행하고 있다(APFS, 2022). 농작물재해보험에서는 재해발생시 재해보험 보험료의 50% 내외를 국비로 가입 보장 수준에 따라 지원 비율에 따라서 지원하고 있다. 벼와 콩 등은 자연재해, 조수해, 화재에 대해서 지원을 하고 있다. 자연재해에 대한 피해 보상은 현장 조사 피해사실 확인 평가를 실시하여 피해율을 산정하고 재해보험 사업자의 검증조사를 통해서 지급 보험금이 결정되고 있다. 농작물재해보험에서는 밭 작물 중에서 콩의 경우 예고 없는 자연재해로 인한 수확 감소를 보장해 주고 있다. 콩의 수확감소 보장은 계약체결일 24시부터 11월 30일까지로 되어 있으나 피해 평가 방법은 현장조사원 인력 중심의 조사와 평가로 이루어지고 있어서 평가방법의 과학화와 고도화가 필요한 시점이다.

도복피해와 관련된 연구는 벼를 대상으로 실시한 일부 예(Liu et al., 2018)는 있으나 식생지수 중 Normalized Difference Vegetation Index (NDVI) 를 활용한 것이 대부분이다. 특히 콩은 우리나라에서 재배되는 주요 작물에 해당되지 않은 점이 반영되어 드론과 센서를 활용한 연구도 매우 적은 실정이다. 농업재해보험은 최근에 기후변화의 영향으로 많아진 피해를 보상해주기 위해 실시되고 있다. 콩은 최근에 적용 작물에 선정되었다. 콩은 도복으로 인해 잎이 엉키면 광합성이 감소돼 동화산물의 생성이 떨어진다. 이는 광합성보다 호흡량이 증가되어 양분의 공급이 감소하면서 콩 수량이 감소하게 된다(RDA, 2018).

콩과 같은 밭작물은 재배면적의 감소와 함께 자연 재해로 인한 생산량 감소 요인이 겹칠 경우 소비자물자 및 식량자급률에도 영향을 미친다. 물가 안정을 위해서는 농산물 생산량 파악이 중요하다. 원격탐사(Remote Sensing) 기술과 같이 기존에 인력 중심으로 실시되어 온 현장의 넓은 면적을 짧은 시간에 농작물 재배지역을 조사할 수 있어서 농경지 모니터링 방법의 유용한 대안으로 활용되고 있다(Berni et al., 2009).

원격탐사는 농업과 관련된 유용한 정보를 추출하는데 활용되고 있다(Karakizi et al., 2016). 특히 농업 관련 원격탐사 기술은 농작물 분류(Lu and Weng, 2007) 및 구분, 바이오매스(biomass) (Swain et al., 2010), 경작지 재배 상황 등의 조사 목적 및 농업지역 재해 평가 등에 매우 활용성이 높은 기술 중 하나이다. 인공위성 기반 영상은 시공간해상도의 한계와 복잡한 대기 보정이 필요하다(Juestics, 1985). 반면에 드론을 활용한 원격탐사 기술은 원하는 지역 및 시기 조절이 용이하여 5 cm/px 이상의 고해상도 영상 수집이 가능하다. 이러한 점에서 드론영상은 위성영상 기반 및 인력 활용 기술의 한계점을 극복하는데 유용한 기술이다(Na et al., 2019). 드론과 RGB 영상은 농업분야 모니터링에 유용하게 활용되고 있다. 초분광영상과 다중분광센서는 다양한 밴드를 활용할 수 있는 점에서 장점이 있으나 가격이 비싸고 영상처리에 소요되는 비용이 높고 시간이 많이 소요된다는 단점이 있다.

식생지수는 위성영상을 활용하여 광역지역에 대한 식생의 활력도를 파악하기 위하여 다양한 조건에 대한 지수들이 개발되어 현재 150여종이 제안되어 활용되고 있다(Benincasa et al., 2018). 드론 활용 식생지수는 RGB와 다중분광센서를 탑재하여 좁은 지역에서 농작물 모니터링과 작물분류 등에 주로 활용되고 있다. 적용되고 있는 식생지수는 대부분 NDVI와 같이 가시광선과 근적외선 파장을 정규화 하여 사용하고 있다. 농업 현장 적용되고 있는 센서는 대부분이 RGB센서이며, 다중 분광센서와 열적외센서는 연구중심으로 사용되고 있어서 가격과 영상처리 기술을 필요로 하여 농업인이 사용하는 데에는 한계가 있다. 영상은 농업인이 영상을 취득하여 수집된 데이터를 전송 및 저장하여 데이터베이스화한 후 바로 조치 및 처방할 수 있는 형태로 데이터 분석 및 처리가 쉬워야한다. 본 연구에서는 농업현장에서 제기되고 있는 문제해결을 위해 드론 탑재 RGB영상을 취득하여 농업재해 등을 쉽게 평가할 수 있는 방법을 개발하고자 하였다.

본 연구의 목적은 필지 내 콩 도복 피해 발생 구역을 대상으로 (1) RGB영상 적용 Crop Surface Model (CSM) 영상을 이용한 도복 피해 산정, (2) CSM 및 RGB 식생지수를 이용한 Support Vector Classifier (SVC) 모델 구축, (3) 3가지 구축 모델로 산정한 도복 피해율과 CSM 기반 현장 도복피해율 간의 비교 분석을 실시하여 산정 도복 피해율의 적용성을 검토하고자 하였다.

2. 재료 및 방법

1) 연구대상지역

본 연구는 충청북도 괴산군 불정면 탑촌리 1127번지(127°49′13″E, 36°53′24″N)을 대상으로 실시하였다(Fig. 1). 연구 대상지는 농촌진흥청에서 추진 중인 노지 농업의 디지털화를 위해 조성 한 괴산 노지스마트농업 적용 지역이다(RDA, 2022). 해당 지역은 콩 재배 현장의 데이터 수집, 처리 및 저장까지의 과정을 사물 인터넷, 빅데이터, 인공지능 등의 정보통신기술과 접목하여 농업인의 의사결정 정보를 제공하고자 하는 시범사업 단지이다. 본 연구는 드론과 RGB영상 활용 방법 개발 및 노지 스마트 농업 활성화에 기여하고자 해당 지역을 선정하였다.

OGCSBN_2022_v38n6_1_1489_f0001.png 이미지

Fig. 1. Location of the study area.

2) 실험 설계

실험 설계는 드론과 RGB영상 자료 취득 및 처리, 현장 조사 자료 취득으로 구분된다. 영상 자료는 자료 취득, 전처리, 식생지수 추출 및 CSM 생성, 상관분석을 통한 식생지수 선정, 각 지수별 SVC 모델 분류를 실시한 후 도복 피해율을 산정하고 정확도를 평가하는 순으로 진행하였다. 본 연구의 흐름도는 Fig. 2와 같다.

OGCSBN_2022_v38n6_1_1489_f0002.png 이미지

Fig. 2. Workflow of the study.

콩은 Fig. 3와 같은 성장 특성을 보인다. 연구대상 콩은 논 콩 재배 적응성이 높은 ‘대찬’을 2022년 6월 17일 파종하여 2022년 10월 31일 수확하였다. 콩은 총 136 일의 생육기간 동안 재배하였다. 연구대상지역 면적은 2,835 m2이며, 콩의 재식거리는 30 × 70 cm의 간격으로 식재하였다. 콩의 파종방법은 고휴재배 방법을 이용했다(RDA, 2018). 고휴재배 방법은 이랑을 만들어 파종하는 방법으로 높은 이랑으로 장마 기간 동안 배수로 인한 과습피해를 방지할 수 있는 장점이 있다. 도복피해율은 도복 발생 이후 시점인 2022년 8월 17일(R1, 61) 영상을 활용하였다.

OGCSBN_2022_v38n6_1_1489_f0003.png 이미지

Fig. 3. Status of field area and maturity period of soybean.

3) 데이터 취득

드론영상취득은 Fig. 4.와 같이 회전익 기체인 Inspire2 (DJI, Shenzhen, China)와 RGB 센서 Zenmuse X5s (DJI, Shenzhen, China)를 사용하였다. 영상 취득은 Table 1과 같이 2022년 6월 17일부터 도복 피해 발생 시기인 2022년 8월 17일까지 총 5회 실시하였다. 콩의 초고 및 생육 조사 관련 현장조사는 4회 실시하였다. 드론 영상 촬영 고도는 30 m, 종/횡 중복도는 75%로 동일하게 설정하여 취득하였다.

OGCSBN_2022_v38n6_1_1489_f0004.png 이미지

Fig. 4. Specification of drone and RGB sensor.

Table 1. Period and conditions of field survey and drone image acquisition

OGCSBN_2022_v38n6_1_1489_t0001.png 이미지

데이터 취득은 현장 생육조사와 드론 영상 촬영을 병행하여 실시하였다. 현장 생육 조사는 파종 후(Day After Seeding, DAS) 14일인 2022년 7월 1일부터 2022년 8월 17일(DAS 61)까지 4회에 걸쳐 초장(Plant Height, PH) 조사를 실시하였다. 현장 생육조사는 농촌진흥청 식량과학원에서 실시하는 조사방법으로 Fig. 5 와 같이 5개의 지점을 대상으로 각 지점의 8본의 콩을 대상으로 전체 40본에 대해서 실시하였다.

OGCSBN_2022_v38n6_1_1489_f0005.png 이미지

Fig. 5. PH sample Area: (a) total view of PH sample area and (b) detailed view of PH sample area.

4) 영상 전처리

영상 전처리 및 정합은 Pix4D Mapper (Pix4D, Prilly, Switzerland)를 이용하였다. 영상 전처리는 Fig. 6 와 같이 GPS-RTK V30 (HI-TARGET, Guangzhou, China)을 이용하여 6개의 Ground Control Points (GCP) 좌표를 측정한 후 전체 영상에 대한 기하 보정을 실시하였다. 측정된 GPS 오차는 수평 0.8 cm, 수직 1.5 cm 로 나타났다.

OGCSBN_2022_v38n6_1_1489_f0006.png 이미지

Fig. 6. Image acquisition procedure: (a) flight UAV with Inspire 2, (b) GCP point measurement with V30, (c) field image mapping and geometric calibration through Pix4D Mapper, and (d) visualize generated image.

5) Crop Surface Model (CSM)

수치표면모델(Digital Surface Model, DSM)은 2차원 RGB 영상에 대해 Structure from Motion (SfM) 기술을 적용하여 포인트 클라우드를 3차원 공간에 생성하여 작성하였다. CSM영상은 식(1)과 같이 작물 생육기간 내 촬영 시기별 DSM영상과 파종일 DSM영상의 차이를 이용해 구하였다(Bendig et al., 2015).

CSMSoybean = DSMgrowth – DSMinitial        (1)

여기서, CSMSoybean은 촬영 시기의 작물 수치표면모델이며, DSMgrowth는 생육 단계의 DSM 영상, DSMinitial은 파종 당일 DSM 영상이다.

Fig. 7은 연구대상지역에 대한 CSM을 구한 방법을 도시화한 그림이다.

OGCSBN_2022_v38n6_1_1489_f0007.png 이미지

Fig. 7. CSM map generating visualization.

6) 식생지수

본 연구에서는 작물의 물리적, 화학적 도복 피해의 육안 판독과는 별도로 피해의 정량적인 평가를 위해 식생지수를 사용하였다. 식생지수는 Table 2 와 같이 10개의 지수를 대상으로 검토하였다. 검토에 사용된 식생지수는 모두 RGB로 개발한 식생지수를 대상으로 하였다. 이러한 식생지수는 Table 2 와 같이 대부분 바이오매스를 분석하기 위해 제시된 지수들이다.

Table 2. Explanation of vegetation index

OGCSBN_2022_v38n6_1_1489_t0002.png 이미지

7) Support Vector Classifier (SVC)

SVC는 서포트 벡터 머신(Support Vector Machine, SVM) 알고리즘을 이용한 분류 모델이다. SVM은 주어진 데이터 내에 서로 다른 항목을 분류할 때, 분류를 최적으로 할 수 있는 초평면(hyperplane)을 찾아 분류하는 기계 학습 방법이다(Bernhard et al., 1992). 분류의 최적화 대상은 Fig. 8과 같이 마진(margin)을 최대화하는 것이다. 마진은 클래스를 구분하는 초평면과 초평면에 가장 가까운 훈련 샘플 사이의 거리로 정의된다. 이러한 샘플들이 서포트 벡터(Support Vector) 이다. 일반적으로 SVM은 선형 분류에 주로 이용되지만, 선형적으로 분류되지 않는 데이터는 별도의 kernel 함수를 적용한다. 일반적으로 적용되는 kernel 함수에는 linear, polynomial, sigmoid, Radial Basis Function (RBF) kernel 등이 있다. 본 연구에 사용된 데이터는 선형 분류가 제한적이므로, RBF kernel을 이용하는 분류 모델을 제작하였다

OGCSBN_2022_v38n6_1_1489_f0008.png 이미지

Fig. 8. Schematic illustration of support vector classifier.

8) 정확도 평가

본 연구에 이용된 SVC 모델의 분류 성능 평가는 Confusion Matrix,분류정확도(Accuracy),정밀도(Precision), 재현율(Recall), F1-score를 이용해 실시하였다. Fig. 9와 같이 성능 지표의Confusion Matrix의 행에는 예측된 클래스의 인스턴스, 열에는 실제 클래스의 인스턴스를 나타내었다(Sofia et al., 2011).

OGCSBN_2022_v38n6_1_1489_f0009.png 이미지

Fig. 9. Confusion matrix and classification evaluation.

3. 결과 및 고찰

1) RGB영상 기반 CSM 추출

본 연구에서 드론 영상 촬영은 파종 이후 도복 피해 발생까지 총 5회에 걸쳐 실시하였다. Fig. 10은 취득한 드론 기반 RGB 및 DSM 영상의 시계열 변화를 나타낸 그림이다.콩의생장은영양생장단계인V1 (DAS 28, Fig. 10(c)) 단계부터 V3 (DAS 42, Fig. 10(d)) 단계까지 가장 활발한 생장이 일어나는 것을 RGB 영상으로 확인할 수 있다.

OGCSBN_2022_v38n6_1_1489_f0010.png 이미지

Fig. 10. Temporal RGB orthomosaic and DSM for each period.

Fig. 11은 기상청 괴산 지역을 대상으로 실시한 2022년 강우, 풍속 자료를 나타낸 것이다. 도복은 기상청의 괴산 지역에 대한 강우, 풍속 자료 확인 결과 DAS 54, DAS 55일 사이에 발생하였다. 도복 피해 구역은 RGB 영상으로 확인이 어렵다. 그러나 DSM 영상(Fig. 10(i), (j))은 육안으로도 확인이 가능하다. 따라서 CSM 영상은 DSM 영상에 대해 식(1)을 이용하여 촬영 시기별로 제작하였다. 도복 피해 이후 제작된 CSM 영상의 3D 맵 확인 결과 피해 발생 구간은 Fig. 12(c)와 같이 정상 생육 구간보다 낮은 것을 확인할 수 있었다. Fig. 13은 CSM영상에서 추출한 PH와 현장 조사로 취득한 PH 간의 산점도를 나타낸 그림이다. 현장 측정 비교 데이터는 한 시기당 40본을 4회에 걸쳐 조사한 160개 데이터를 적용한 결과이다. 얻어진 결과는 결정계수 0.845, 기울기 0.867로 CSM 기반의 PH가 현장에서 취득한 PH를 잘 반영해주고 있는 것으로 나타났다.

OGCSBN_2022_v38n6_1_1489_f0011.png 이미지

Fig. 11. Daily rainfall observation from the Korea Meteorological Administration.

OGCSBN_2022_v38n6_1_1489_f0012.png 이미지

Fig. 12. CSM distribution after lodged: (a) orthomosaic image of lodgedarea,(b)3D visualization of lodged area, and (c) detailed view of 3D visualization.

OGCSBN_2022_v38n6_1_1489_f0013.png 이미지

Fig. 13. Scatter plot of PHs between measured and CSM.

2) 식생지수 추출 및 상관분석

RGB 식생지수 기반 분류 모델은 CSM에서 추출된 PH 기반 도복 피해 분류 모델과 비교하기 위해 필요하다. 모델 적용 식생지수는 CSM의 PH값과 높은 상관 관계를 갖는 식생지수 조합을 찾기 위해 RGB 식생 분석에 주로 사용되는 10개 지수를 선정하였다(Table 2). 상관 분석은 파이썬 프로그램(버전 3.9.12) 내의 Pearson 모듈을 이용하였고, seaborn모듈을 이용하여 Fig. 14와 같이 heatmap으로 가시화하였다. 상관분석 결과 CSM 기반 PH와 가장 높은 상관성을 갖는 식생지수는 VARI (r = 0.89), GRVI (r = 0.87)로 나타났다. 따라서 도복 피해 분류 모델은 이 2개의 식생지수 값을 이용해 제작하였다.

OGCSBN_2022_v38n6_1_1489_f0014.png 이미지

Fig. 14. Heatmap of the correlation result.

3) SVC 모델 구축 및 분류 결과

SVC 분류 모델은 입력 데이터 유형에 따라 3개의 모델(Model)로 구성하였다. Model 1은 CSM PH 기반 도복 피해 분류 모델, Model 2는 VARI 기반 도복 피해 분류 모델, Model 3는 GRVI 기반 도복 피해 분류 모델로 구성하였다. 각 모델의 분류 클래스는 정상(0), 도복(1)로 지정하였다. 도복 기준은 도복 발생 전의 CSM PH 값과 도복 이후의 PH 값의 차이(CSMgap)를 계산하고, 도출된 CSMgap 값을 5, 10, 15 cm 기준으로 도복 분류한 결과와 상관분석하여 상관계수가 가장 높은 값으로 선정하였다. 데이터는 Fig. 15(a)와 같으며, Fig. 15(b)는 Fig. 15(a)를 이용한 상관분석 결과이다. 상관분석 결과 5 cm가 0.87로 가장 높은 상관계수를 보여 5 cm를 도복 기준으로 설정하였다.

OGCSBN_2022_v38n6_1_1489_f0015.png 이미지

Fig. 15. Lodging standard selection and examples: (a) correlation analysis data table and (b) correlation analysis result.

분류 모델 제작은 파이썬 프로그램(버전 3.9.12)의 Sklearn 모듈을 사용하여 구축하였다. 모든 모델은 RBF kernel을 사용하여 구축하였다. 모델 생성에 필요한 C, gamma 값은 동일 모듈 내 GridSearchCV 기법을 이용하여 최적 변수로 설정하였다. 데이터 개수는 시기별 12,047개이다. 입력 데이터는 DAS 14부터 DAS 61까지 총 4회의 영상으로부터 추출하여 모델 별로 48,188개를 입력 자료로 생성하였다. 훈련 및 검증 자료는 train_test_split 모듈을 이용하여 8:2로 분할하였다. 모델 분류 결과, 분류 정확도는 Model 1: 0.998, Model 2: 0.709, Model 3: 0.705로 나타났다. 분류정확도는 CSM이 가장 높고, VARI, GRVI 순으로 나타났다. Fig. 16은 각 모델로 구축한 분류 결과에 따른 도복 피해 구역 지도를 제작한 것이다. CSM은 현장 조건을 가장 잘 반영한 결과로 RGB 영상을 이용하는 경우 매우 유용한 방법이 될 것으로 생각한다.

OGCSBN_2022_v38n6_1_1489_f0016.png 이미지

Fig. 16. Lodging distribution map with CSM image.

4) 정확도 평가

분류정확도는 confusion_matrix, classification_report를 이용하였다. 각 모델 별 정확도와 예측 데이터 개수는 Table 3과 같다. 분류 모델 별 도복 피해율은(도복 객체 / 전체 객체) × 100(%)로 산정하였다. Model 1은 전체 12,047개의 데이터 중 9본만 오분류되어 0.998의 높은 분류 정확도를 보였다. CSM으로부터 추출된 PH 기반 도복 피해율은 41.3%로 나타나 VARI 38.2%,GRVI 34.8%의 도복 피해율 산정율보다 높은 것으로 나타났다. Recall을 비교하였을 때, Model 3의 경우 0.04만큼 적은 도복량으로 분류되었다. 또한 Model 3은 Model 2보다 0.02만큼 더 정상인 것으로 분류되었다. 따라서 이 결과는 Model 3의 경우 Model 2보다 405개 적은 도복량으로 분류되었다.

Table 3. Confusion matrix and classification report

OGCSBN_2022_v38n6_1_1489_t0003.png 이미지

4. 결론

이상기후로 인한 자연재해 발생 가능성의 증가는 농작물 생산에 불안정을 야기하고 이 결과는 물가 불안정 및 식량 수급에 영향을 미친다. 자연재해 발생시 농작물 피해에 대한 파악은 기존의 인력 활용 방법을 대체할 수 있는 원격탐사, 인공지능, 센서 기반 대응 기술이 필요하다. RGB센서는 다중분광, 초분광 센서보다 비용이 저렴하여 활용 가능성이 높고 많이 이용되고 있다. 따라서 RGB센서 관련 기술 개발은 활용 및 보급 가능성이 상대적으로 매우 높다.

본 연구는 드론 RGB 센서를 활용하여 농작물의 도복 피해 발생 시, 도복 피해를 산정하는 방법을 개발하고자 하였다. 적용 모델은 RGB 식생지수 기반으로 도복 피해를 산정하는 방법으로 범용성을 목적으로 하였다. 콩을 대상으로 도복피해를 분석한 결과 초고 변화와 높은 상관성을 갖는 식생지수는 VARI와 GRVI임을 확인할 수 있었다. 선정된 두 식생지수는 g-r 형태의 수식으로 값의 차이가 극명하게 나타나 다른 식생지수에 비해 식생에서 값이 더욱 높게 나타나는 특징이 있으며, 상관분석에도 합당하게 나타난 것으로 확인되었다. VARI, GRVI 적용 도복피해율은 Model 1 (0.998)에 비해 Model 2 (0.709), Model 3 (0.705)로 낮은 결과를 보였지만 대략적인 도복 피해 분포를 확인할 수 있었다. 콩을 대상으로 도복 피해를 분석한 결과는 CSM이 초고를 그대로 반영해 준 결과로 높은 정확도를 보인 것으로 해석된다. CSM은 식생지수를 적용한 결과보다 높은 상관성을 보였다.

얻어진 결과의 한계점으로는 모델 구축 간, 도복 피해 여부 클래스 구분은 CSM_gap 기반으로 작성되어 식생지수 기반 분류 모델도 CSM 데이터에 의존한다는 점이다. RGB기반 식생지수를 이용한 도복 분류는 작물이 도복 피해를 받아 갈변하기까지의 차이가 크지 않아 분류 모델에서 정확도가 낮게 나오는 한계점으로 분석되었다.

향후 연구에서는 분류된 도복 피해 구역에 대한 식생지수와 정상 구역에 대한 식생지수를 구분하여 초고와의 상관 관계를 분석할 필요가 있다. 수확 시 지상부 건물중을 추가로 조사하여 제시한다면, 도복 피해 여부에 따른 바이오매스량 변화 파악도 가능할 것이다.

본 연구는 자연재해로 인한 도복 피해 발생 시, CSM 기반 초고가 아닌 RGB 식생지수로 도복 피해 구역 및 피해율을 산정할 수 있는 방법을 제시했다는 점에서 의미가 있다. 또한 기존에 현장 답사로 실시되는 제해 파악 방법에 대해 드론과 RGB 센서를 활용해 현장의 공간정보를 분석하여 과학화 및 고도화 하고자 했다. 다양한 노지 작물과 다양한 기종 및 고도, 종/횡 중복도 등의 촬영 조건을 다양하게 설정하여 모니터링 DB를 구축한다면 이상 기후 발생 시 농업재해평가 및 피해량 산출에 기여할 것으로 기대된다.

사사

이 논문은 충북대학교 국립대학육성사업(2022)의 지원을 받아 작성되었음.

References

  1. AFPS, 2022. Agricultural Policy Insurance & Finance Service, http://www.apfs.kr, Accessed on Dec. 6, 2022.
  2. Bendig, J., B. Andereas, and B. Georg, 2013. UAV-based Imaging for Multi-Temporal, very high Resolution Crop Surface Models to monitor Crop Growth Variability, Photogrammetrie Fernerkundung Geoinformation, 6: 551-562. http://dx.doi.org/10.1127/1432-8364/2013/0200
  3. Bendig, J., K. Yu, H. Aasen, A. Bolten, S. Bennertz, J. Broscheit, M.L. Gnyp, and G. Bareth, 2015, Combining UAV-based plant height from crop surface models, visible, and near infrared vegetation indices for biomass monitoring in barley, International Journal of Applied Earth Observation and Geoinformation, 39: 79-87. https://doi.org/10.1016/j.jag.2015.02.012
  4. Benincasa, P., A. Sara, B. Luca, C. A. Fabbri, N. Antonio, S. Velia, M. Gianluca, G. Marcello, T. Francesco, and V. Marco, 2018. Reliability of NDVI derived by high resolution satellite and UAV compared to in-field methods for the evaluation of early crop N status and grain yield in wheat, Experimental Agriculture, 54: 604-622. http://dx.doi.org/10.1017/S0014479717000278
  5. Bernhard, E.B., M.G. Isabelee, and N.V. Vladimir, 1992. A training algorithm for optimal margin classifiers, Proc. of the Fifth Annual Workshop on Computational Learning Theory, Pittsburgh, PA, USA, Jul. 27-29, pp. 144-152. https://doi.org/10.1145/130385.130401
  6. Berni, J.A.J., P.J. Zarco-Tejada, L. Suarez, and E. Fereres, 2009. Thermal and narrowband multispectral remote sensing for vegetation monitoring from an unmanned aerial vehicle, IEEE Transactions of Geoscience and Remote Sensing, 48(3): 722-738. https://doi.org/10.1109/TGRS.2008.2010457
  7. Gitelson, A.A., Y. Kaufman, R. Stark, and D. Rundquist, 2002, Novel algorithms for remote estimation of vegetation fraction, Remote Sensing of Environment, 80(1): 76-87. https://doi.org/10.1016/S0034-4257(01)00289-9
  8. Jeong, C.H., S.H. Go, and J.H. Park, 2022. Classification of Fall Crops Using Unmanned Aerial Vehicle Based Image and Support Vector Machine Model - Focusing on Idam-ri, Goesan-gun, Chungcheongbuk-do -, Journal of the Korean Society of Rural Planning, 28(1): 057-069 (in Korean with English abstract). https://doi.org/10.7851/ksrp.2022.28.1.057
  9. Justice, C.O., J.R.G. Townshend, B.N. Holben, and C. J. Tucker, 1985. Analysis of the phenology of global vegetation using meteorological satellite data, International Journal of Remote Sensing, 6: 1271-1318. https://doi.org/10.1080/01431168508948281
  10. Karakizi, C., M. Oikonomou, and K. Karantzalos, 2016. Vineyard detection and vine variety discrimination from very high resolution satellite data, Remote Sensing, 8: 1-25. https://doi.org/10.3390/rs8030235
  11. Kawashima, S. and M. Nakatani, 1998. An algorithm for estimating chlorophyll content in leaves using a video camera, Annals of Botany, 81(1): 49-54. https://doi.org/10.1006/anbo.1997.0544
  12. Kwak, G.H. and N.W. Park, 2022. Comparison of Deep Learning-based Unsupervised Domain Adaptation Models for Crop Classification, Korean Journal of Remote Sensing, 38(2): 199-213 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2022.38.2.6
  13. Liu, T., R. Li, X. Zhong, M. Jiang, X. Jin, P. Zhou, S. Liu, C. Sun, and W. Guo, 2018. Estimates of rice lodging using indices from UAV visible and thermal infrared images, Agricultural and Forest Meteorology, 252: 144-154. https://doi.org/10.1016/j.agrformet.2018.01.021
  14. Louhaichi, M., M. Borman, and D. Johnson, 2001. Spatially located platform and aerial photography for documentation of grazing impacts on wheat, Geocarto International, 16(1): 65-70. https://doi.org/10.1080/10106040108542184
  15. Lu, D. and Q. Weng, 2007. A survey of image classification methods and techniques for improving classification performance, International Journal of Remote Sensing, 28: 823-870. https://doi.org/10.1080/01431160600746456
  16. Mao, W., Y. Wang, and Y. Wang, 2003. Real-time detection of between-row weeds using machine vision, Proc. of 2003 ASAE (American Society of Agricultural Engineers) Annual Meeting, Las Vegas, NV, USA, Jul. 27-30, p. 1. https://doi.org/10.13031/2013.15381
  17. Marcelo, C.F.W. and P.M. Jose, 2020. Soybean Yield Estimation and Its Components: A Linear Regression Approach, Agriculture, 10(8): 348. https://doi.org/10.3390/agriculture10080348
  18. Meyer, G. and J. Neto, 2008. Verification of color vegetation indices for automated crop imaging applications, Computers and Electronics in Agriculture, 63(2): 282-293. https://doi.org/10.1016/j.compag.2008.03.009
  19. Na, S.I., C.W. Park, K.H. So, H.Y. Ahn, and K.D. Lee, 2018. Development of Biomass Evaluation Model of Winter Crop Using RGB Imagery Based on Unmanned Aerial Vehicle, Korean Journal of Remote Sensing, 34(5): 709-720 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2018.34.5.1
  20. Na, S.I., C.W. Park, K.H. So, H.Y. Ahn, and K.D. Lee, 2019. Selection on Optimal Bands to Estimate Yield of the Chinese Cabbage Using Drone based Hyperspectral Image, Korean Journal of Remote Sensing, 35(3): 375-387 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2019.35.3.3
  21. Neto, J.C., 2004. A combined statistical-soft computing approach for classification and mapping weed species in minimum-tillage systems, Lincoln, NE, USA.
  22. Ning, L., Z. Jie, H. Zixu, L. Dong, C. Qiang, Y. Xia, T. Yongchao, Z. Yan, C. Weixing, and C. Tao, 2019. Improved estimation of aboveground biomass in wheat from RGB imagery and point cloud data acquired with a low-cost unmanned aerial vehicle system, Plant Methods, 15: 17. https://doi.org/10.1186/s13007-019-0402-3
  23. RDA (Rural Development Administration), 2018. Soybean, Rural Development Administration, Jeonju, Republic of Korea.
  24. RDA (Rural Development Administration), 2022. The 2nd Rural Development Project Basic Plan (2018-2022), 2022 Implementation Plan, Rural Development Administration, Jeonju, Republic of Korea.
  25. Seo, H. D. and E. M. Kim, 2019. Object Classification Using Point Cloud and True Ortho-image by Applying Random Forest and Support Vector Machine Techniques, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 37(6): 405-416. https://doi.org/10.7848/ksgpc.2019.37.6.405
  26. Sofia, V., R. Brian, R. Anca, and V.D.K. Esther, 2011. Confusion Matrix-based Feature Selection, Proc. of The 22nd Midwest Artificial Intelligence and Cognitive Science Conference, Cincinnati, OH, USA, Apr. 16-17, vol. 710, pp. 120-127.
  27. Swain, K.C., S.J. Thomson, and H. Jayasuriya, 2010. Adoption of an unmanned helicopter for low-altitude remote sensing to estimate yield and total biomass of a rice crop, Transactions of the ASABE, 53(1): 21-27. https://doi.org/10.13031/2013.29493
  28. Tucker, C. J., 1979. Red and photographic infrared linear combinations for monitoring vegetation, Remote Sensing of Environment, 8(2): 127-150. https://doi.org/10.1016/0034-4257(79)90013-0
  29. Woebbecke, D.M., G.E. Meyer, K. V. Bargen, and D.A. Mortensen, 1995. Color indices for weed identification under various soil, residue, and lighting conditions, Transactions of the ASAE, 38(1): 259-269. https://doi.org/10.13031/2013.27838
  30. Xiuliang, J., J. Pablo, T. Zarco, S. Urs, P.R. Matthew, J.H. Malcolm, K.V. Rajeev, Y. Tao, N. Chenwei, L. Zhenhai, M. Bo, X. Yonggui, X. Yongdun, and L. Shaokun, 2020. High-Throughput Estimation of Crop Traits, IEEE Geoscience and Remote Sensing Magazine, 9(1): 200-231. https://doi.org/10.1109/MGRS.2020.2998816
  31. Zhangyan, J., R.H. Alfredo, D. Kamel, and M. Tomoaki, 2008. Development of a two-band enhanced vegetation index without a blue band, Remote Sensing of Environment, 112(10): 3833-3845. https://doi.org/10.1016/j.rse.2008.06.006