DOI QR코드

DOI QR Code

Development of Score-based Vegetation Index Composite Algorithm for Crop Monitoring

농작물 모니터링을 위한 점수기반 식생지수 합성기법의 개발

  • Received : 2022.12.02
  • Accepted : 2022.12.20
  • Published : 2022.12.31

Abstract

Clouds or shadows are the most problematic when monitoring crops using optical satellite images. To reduce this effect, a composite algorithm was used to select the maximum Normalized Difference Vegetation Index (NDVI) for a certain period. This Maximum NDVI Composite (MNC) method reduces the influence of clouds, but since only the maximum NDVI value is used for a certain period, it is difficult to show the phenomenon immediately when the NDVI decreases. As a way to maintain the spectral information of crop as much as possible while minimizing the influence of clouds, a Score-Based Composite (SBC) algorithm was proposed, which is a method of selecting the most suitable pixels by defining various environmental factors and assigning scores to them when compositing. In this study, the Sentinel-2A/B Level 2A reflectance image and cloud, shadow, Aerosol Optical Thickness(AOT), obtainging date, sensor zenith angle provided as additional information were used for the SBC algorithm. As a result of applying the SBC algorithm with a 15-day and a monthly period for Dangjin rice fields and Taebaek highland cabbage fields in 2021, the 15-day period composited data showed faster detailed changes in NDVI than the monthly composited results, except for the rainy season affected by clouds. In certain images, a spatially heterogeneous part is seen due to partial date-by-date differences in the composited NDVI image, which is considered to be due to the inaccuracy of the cloud and shadow information used. In the future, we plan to improve the accuracy of input information and perform quantitative comparison with MNC-based composite algorithm.

광학위성영상을 이용해 농작물을 모니터링 할 때 가장 문제가 되는 것은 구름이나 그림자이다. 구름과 그림자의 영향을 줄이기 위해 일정 주기동안 최대 정규식생지수를 선택하는 합성기법이 사용되었다. 그러나, 본 방법은 구름의 영향을 줄이기는 하나, 일정 주기 동안 최대 정규식생지수(Normalized Difference Vegetation Index, NDVI)값만을 사용하기 때문에 NDVI가 감소하는 현상을 신속히 보여주기 어렵다. 이에 따라, 구름의 영향을 최소화하면서 식생의 분광정보를 최대한 유지하기 위한 방안으로 합성 시 여러 환경인자를 정의하고, 이에 대한 점수를 부여하여 합성 시 가장 적합한 화소를 선택하는 방법인 점수 기반 합성기법이 제시되었다. 본 연구에서는 Sentinel-2A/B Level2A 반사율 영상과, 부가정보로 제공되는 구름, 그림자, Aerosol Optical Thickness(AOT), 촬영날짜, 센서천정각 등을 이용한 점수 기반 식생지수 합성기법을 개발하였다. 2021년동안 당진 논지역과 태백 고랭지 배추밭을 대상으로 15일 주기와 한달 주기로 점수기반 합성기법을 적용한 결과, 구름의 영향을 받은 우기만을 제외하고 15일 주기 합성 시 한달 주기에 비해 보다 빠르고 자세한 NDVI값의 변화를 볼 수 있었다. 특정 영상에서는 합성 NDVI영상에서 부분적으로 날짜별 차이가 나타나 공간적으로 이질적인 부분이 보이기도 하는데, 이는 사용한 구름, 그림자 정보의 부정확성으로 인한 것으로 사려된다. 향후 입력정보의 정확도를 향상시키고, Maximum NDVI Composite (MNC) 기반 합성기법과 정량적 비교를 수행할 예정이다.

Keywords

1. 서론

수많은 광학위성영상이 사용되는 다양한 분야 중 농작물 모니터링 분야에서는 보다 정확한 분광정보가 요구되어진다. 농작물의 생화학적 상태에 따라 분광정보가 미세한 차이를 보이기 때문이다. 그러나 농작물 대부분이 생장이 빠르게 진행되는 여름 시기는 보다 정확한 모니터링이 필요하지만 장마철과 같은 우기 시기와 겹쳐 광학위성영상의 활용이 제한적으로 이뤄진다(Griffiths et al., 2019; Kim and Eun, 2021). 구름에 의한 영향을 최소화하기 위한 방안으로 일정 주기 동안 광학위성영상을 모아 구름의 영향이 최소화된 하나의 대표영상을 만드는 주기 합성 기법이 제시되었다(Wang et al., 2014). 이러한 주기 합성 기법은 크게 입력된 날짜별 위성영상의 화소 중 대표되는 화소를 선택하는 방법과 입력 영상을 합성하여 새로운 대표 화소값을 생성하는 방식으로 나뉜다(Griffiths et al., 2019). 그러나, 미묘한 분광 정보의 차이가 중요한 농작물 모니터링에 있어 원 영상의 분광정보가 유지되는 측면에서는 새로운 값을 만들기보다 최적 화소 선택 기법이 더 유용하다. 최적 화소를 선택하는 기준은 매우 다양할 수 있으나, 최대 NDVI 값을 보이는 화소를 선택하는 방식이 처리의 용이함으로 가장 많이 사용되었다(Fraser et al., 2009; Wang et al., 2014; Holben, 1986). 그러나, 높은 센서 천정각의 영향을 받거나(Gallo et al., 2005; Skakun et al., 2017), 나지보다 높은 NDVI를 나타내는 구름화소가 선택되는 오류가 발생하였다(Eun et al., 2021). 최근에는 농경지나 농작물 모니터링 시 고려하게 되는 다양한 환경인자들을 설정하고, 그 활용 목적에 따라 선택 기준을 달리할 수 있는 점수 기반 합성기법들이 제시되었다(Griffithset al., 2013, 2019; White et al., 2014; Frantz et al., 2017). 각 인자별 점수 함수를 설정하여 가장 높은 점수를 나타내는 화소를 선택하는 방법이다. 기존 연구에서는 시계열 위성영상을 이용한 주기합성 시 구름이나 그림자로부터 거리, 연도, 연중 날짜, 센서 종류, 분광적 일치성, 센서 천정각 등의 인자 및 점수 함수를 정의하고 있다. 본 연구에서는 기존 개발된 다양한 점수 기반 합성 인자 중 국내 농경지 모니터링을 위해 필요한 인자를 선택하여 Sentinel-2A/B 영상에 적용하여 점수 기반 식생지수 합성기법을 개발하려 한다.

2. 연구 방법

1) 연구 지역

본 연구에서 개발될 합성기법의 효과성을 분석하기 위해서는 국내 대표적 농작물에 대한농지의 선정이 필요하다. 또한 10 m의 공간해상도의 위성영상으로 모니터링이 가능하기 위해서는 단일 작물로 넓게 분포하는 지역의 선정이 필요하다. 이를 위해 Fig. 1과 같이 국내 대표적인 논지역인 당진 왜목마을(1042.5 ha)을 선정하였다. 논지역은 4월에 물을 채워놓고, 5월에 모내기가 진행되며, 10월에 수확된다. 밭 작물의 경우 규모가 작고 해마다 작물의 종류가 달라지는 경우가 대부분으로, 본 연구에서는 강원도 태백 매봉산지역의 고랭지 배추밭(102.6 ha)을 선정하였다. 이 지역은 고랭지라는 특수성으로 타작물이 아닌 배추만을 경작하고 있으며, 5~6월에 심어져, 8~9월에 수확된다. 필지별로 파종, 생육상태, 수확 상태가 매우 다양하게 나타나, 보다 상세한 모니터링이 필요한 지역이다. Fig. 2와 같이 2021년 현장 조사 사진을 살펴보면, 시기별 농작물의 상태나 수확여부가 필지별로 다양하게 나타나는 것을 볼 수 있다.

OGCSBN_2022_v38n6_1_1343_f0001.png 이미지

Fig. 1. Distribution of study sites (https://www.google.co.kr/maps/) and Landsat 8 images.

OGCSBN_2022_v38n6_1_1343_f0002.png 이미지

Fig. 2. Photos from the paddy in Dangjin (a: July, b: October) and the high altitude cabbage fields in Taebaek (c: July, d: August).

2) 사용한 자료

점수기반 식생지수 합성기법에서는 구름 및 그림자 정보, AOT 정보, 센서 천정각 정보가화소별로 필요하다. 본 연구에서는 다양한 위성 중 이러한 부가 정보를 제공하며, 10 m급 공간해상도와 5일 주기로 비교적 빠르게 자료가 제공되며, 점수기반 합성에 필수적인 대기 보정된 반사율영상인 Sentinel-2A/B Level-2A 영상을 사용하였다.

Table 1. Specifications of Sentinel-2A/B satellite (Source: https://en.wikipedia.org/wiki/Sentinel-2)

OGCSBN_2022_v38n6_1_1343_t0001.png 이미지

Fig. 3과 같이, Sentinel-2A/B Level2A 영상에서는 다양한 부가 정보를 제공하고 있으며, 점수기반 합성을 위해 영상 파일이름에서 촬영 날짜 정보를, view 레이어 중 센서천정각 정보를, quality 레이어 중 AOT 레이어를 사용하였다. 이와 함께 quality 레이어 중 scene classification 영상에서 구름과 그림자 정보를 선택하여 사용하였다. 또한 본 점수기반 합성기법을 테스트하기 위해 농지를 포함하고 다양한 대기 및 피복상태가 보이는 2019년 1월 3일, 5일, 8일 Sentinel-2A/B영상이 사용되었다(Fig. 4).

OGCSBN_2022_v38n6_1_1343_f0003.png 이미지

Fig. 3. Layer composition of Sentinel-2A/B Level 2A product.

OGCSBN_2022_v38n6_1_1343_f0004.png 이미지

Fig. 4. Sentinel-2A/B in Gangwon-do on on January 5, 2019: (a) natural color composite image, (b) cloud and shadow mask (value=0), (c) distance from cloud and shadow, (d) AOT, and (e) sensor zenith angle.

위의 테스트 영상과 함께, 실제 농경지 대상 시계열 주기 합성 결과를 분석하기 위해 2021년 Sentinel-2A/B 시계열 영상도 추가적으로 사용하였다. 당진 논지역을 대상으로 2021년 4~10월까지 총 40개, 태백 고랭지 배추밭 대상 2021년 5~10월까지의 총 32개의 위성영상이 사용하였다(Table 2). 해당 Sentinel-2A/B L2A영상은 Copernicus Open Access Hub (https://scihub.copernicus.eu/dhus/)에서 제공받았다.

Table 2. Time-series Sentinel-2A/B Level 2A data used for score-based compositing

OGCSBN_2022_v38n6_1_1343_t0002.png 이미지

3) 점수기반 합성기법

Sentinel-2A/B L2A자료에서 제공되는 부가 자료 중 점수기반에서 사용되는 자료는 촬영 날짜, 센서 천정각, 구름 및 그림자, AOT로, 대기보정된 12개의 반사율자료가 같이 사용된다. 본 자료가 Table 3과 같이 합성 시 고려되는 항목별 점수로 계산된다. 각 점수 변환 함수는 기존 점수기반 합성 기법 사례에서 공통적으로 사용된 함수를 사용하였다. 기존 사례에 사용된 함수 중 최근 시점의 개선된 함수를 선택, 적용하였으며, 특정 인자에 대한 함수가 유일할 경우 최신성을 따지지 않고 적용하였다. 우선, 촬영날짜 끝자리 관련된 함수는 Griffith et al. (2013; 2019)과 White et al. (2014)이 적용했던 함수를 적용하였으며, 구름과 그림자로부터의 거리에 대한 점수, 날짜별 영상과의 분광적 상관계수 관련 점수, 센서 천정각 관련 점수는 Frantz et al. (2017)에서 제시한 함수를 적용하였다. AOT 함수는 유일하게 White et al. (2014)에서만 제시되어 해당 함수를 사용하였다.

Table 3. Environmental factors and score functions considered in the score-based compositing

OGCSBN_2022_v38n6_1_1343_t0003.png 이미지

위에서 정의된 함수를 통해 Fig. 5와 같이 인자별 점수를 계산 후, 화소별 총 점수를 계산한다. 이후 합성 대상인 여러 날짜 영상들의 점수를 비교하여 화소별 최고 점수를 정의한 후, 최고 점수를 나타낸 날짜의 반사율 정보를 합성에 사용한다. 이를 통해 최종 최고의 점수를 나타낸 반사율로 합성영상이 제작되며, 이를 통해 정규식생지수 영상이 생성된다. 이때 합성에 사용된 화소의 날짜 정보 부가정보가 생성된다.

OGCSBN_2022_v38n6_1_1343_f0005.png 이미지

Fig. 5. Flow-chart of score-based composition algorithm.

3. 연구 결과

우선 2019년 1월 3일, 5일, 8일에 촬영된 Sentinel-2A/B Level2A영상을 합성 후, 생성된 1월 5일 해당 점수 결과물은 아래 Fig. 6과 같으며, Fig. 6(c)와 같이 구름과 그림자 지역 및 근처 지역은 낮은 점수를 보였다. 또한 합성될 나머지 두 날짜의 영상과의 분광적 상관계수를 나타내는 영상(Fig. 6(a))에서는 세 날짜의 영상이 중첩되는 지역은 상관계수가 높으나, 겹치지 않은 지역은 상관계수가 낮았으며, 5일에만 있었던 구름지역에 대해서도 낮은 상관계수를 나타냈다. 이를 통해 구름지역이 합성에 사용되는 것을 막을 수 있다.

OGCSBN_2022_v38n6_1_1343_f0006.png 이미지

Fig. 6. Sentinel-2A/B in Gangwon-do on on January 5, 2019: (a) Sr image, (b) So image, (c) Sc image, (d) Sv image, and (e) S (total score) image.

Fig. 7은 점수기반 합성에 사용된 세 날짜의 자연색 합성영상을 보여주고 있으며, Fig. 7(d)와 (e)는 각각 점수 기반 합성된 반사율 영상과 그 영상을 이용해 제작한 식생지수 영상을 보여주고 있다. 1월 5일에 보이는 구름이 제거된 것을 볼 수 있으나, 합성영상에서는 날짜별 반사율의 차이가 나타나는 것을 볼 수 있다. 그러나, NDVI영상에선 날짜별 차이가 잘 나타나지 않았다.

OGCSBN_2022_v38n6_1_1343_f0007.png 이미지

Fig. 7. Sentinel-2A/B natural color composite image: (a) on January 3, 2019, (b) on January 5, 2019, (c) on January 8, 2019, (d) score-based composited reflectance image, and (e) score-based composited NDVI image using January 3rd, 5th, and 8th images.

Fig. 8(a)에서는 본 합성에 사용된 날짜 정보를 보여주고 있는데, 영상의 좌측, 구름, 바다지역에서는 1월 3일 영상(청색)이, 오른쪽은 1월 5일 영상(녹색)이, 1월 8일 영상(적색)은 부분적으로 사용된 것을 볼 수 있다. 이는 다른 날짜에 비해 1월 8일 영상에 눈이 쌓여 합성에 사용되지 않은 것으로 사려된다. 본 점수 기반 합성기법에서는 최대 점수영상도 Fig. 8(b)와 같이 제공될 수 있다.

OGCSBN_2022_v38n6_1_1343_f0008.png 이미지

Fig. 8. Date information used for compositing: (a) blue – January 3, 2019, green – January 5, 2019, red – January 8, 2019 and maximum score image and (b) min=0, max=3.91, mean=2.28, and std.=0.41.

Fig. 9는 당진 논 지역에 대해 15일 주기로 점수 기반 합성된 시계열 NDVI영상을 보여주고 있다. 논에 물을 채웠을 때 낮은 NDVI를 보이나 모내기가 시작된 6월부터 본격적으로 NDVI가 증가되는 것을 볼 수 있다. 우기인 7월 상반기와 8월 하반기에는 구름의 영향으로 낮은 NDVI값이 나타났으며, 7월 하반기~8월 상반기에 가장 높은 NDVI값이 나타났다. 벼가 익은 9월 말부터 추수 시기인 10월까지 NDVI값이 감소된 것을 볼 수 있다. 또한 8월 상반기를 보면 공간적으로 불균질한 부분이 보이는데, 이는 입력자료 중 구름 및 그림자정보의 부정확성(Kim and Eun, 2021)으로 인해 여전히 구름이나 그림자 화소가 남아 합성에 사용되면서 발생한 것으로 사려된다.

OGCSBN_2022_v38n6_1_1343_f0009.png 이미지

OGCSBN_2022_v38n6_1_1343_f0010.png 이미지

Fig. 9. Sentinel-2A/B NDVI 15-day composite images based on SBC algorithm in Dangjin paddy field (April, 2021– October, 2021).

태백 매봉산 배추밭의 경우, 논에 비해 구름의 영향이 더 많이 받은 것을 볼 수 있다(Fig. 10). 대체로 7월부터 대부분의 필지에서 최대의 NDVI값을 볼 수 있으며, 8월은 구름의 영향으로 모니터링이 되지 않았으며, 9월부터 NDVI가 감소된 것을 볼 수 있다.

OGCSBN_2022_v38n6_1_1343_f0011.png 이미지

OGCSBN_2022_v38n6_1_1343_f0012.png 이미지

Fig. 10. Sentinel-2A/B NDVI 15-day composite images based on SBC algorithm in Taebaek cabbage field (May, 2021–October, 2021).

Fig. 11은 15일 주기와 한달 주기 점수기반 합성 NDVI 영상의 시계열 패턴을 보여주고 있다. 논의 경우 15일 주기가 한달 주기보다 벼의 생육 변화를 보다 빠르고 정밀히 보여주는 것을 볼 수 있다. 고랭지 배추밭의 경우 15일 주기와 한달 주기의 NDVI 패턴의 비슷하게 나타났으나, 생육발달의 최고조인 7월에 15일 합성 NDVI가 한달 주기에 비해 높은 NDVI값을 보인다.

OGCSBN_2022_v38n6_1_1343_f0013.png 이미지

Fig. 11. Time series patterns of 15-day and monthly composited Sentinel-2A/B NDVI images of Dangjin paddy (a) and Taebaek cabbage field (b).

Table 4를 살펴보면, 점수기반과 최대 NDVI 합성기법의 NDVI 통계치를 볼 수 있는데, 대부분 MNC 합성 기법이 높은 NDVI값을 나타내는 것을 볼 수 있다. 그러나, 실제 물이 차있던 5월의 논의 NDVI값도 높게 나타나는 것을 볼 수 있다. 실제 합성에 사용된 영상을 살펴보면, 구름이 물이 차 있는 논의 NDVI값보다 높게 나타나 합성에 구름의 NDVI값이 반영된 결과라는 것을 확인할 수 있었다. 이는 5월 초 태백 배추밭에서도 똑같은 현상을 살펴볼 수 있었다. 이에 비해 점수기반은 구름의 영향을 구름으로부터 거리에 따른 점수와 날짜별 상관계수에 따른 점수, AOT에 따른 점수 등 세번의 영향을 구름의 영향을 받은 화소를 사용하지 않음에 따라 낮은 NDVI값을 나타낸다. 그러나 구름량이 많은 우기의 경우 Sentinel-2A/B의 구름 마스크영상의 정보의 부정확성으로 MNC에 비해 안정적인 시계열 패턴을 나타내지 못한다. 이러한 점수기반 합성기법의 한계는 점수 계산 시 고려하는 인자들의 점수에 대한 가중치를 국내 지역에 맞게 적용하여 합산하는 방식으로 개선될 수 있을 것으로 사려된다.

Table 4. Statistics of 15-day and a monthly composited Sentinel-2A/B NDVI images of Dangjin paddy and Taebaek cabbage field

OGCSBN_2022_v38n6_1_1343_t0004.png 이미지

4. 결론

본 연구에서는 당진 논과 태백 고랭지 배추밭을 대상으로, 단순히 최대 NDVI값을 사용해 합성하는 MNC 기법에 비해 일정 주기동안 농작물의 모니터링을 보다 효과적으로 하기 위해 다양한 환경인자를 고려하여 화소를 선택하는 점수기반 합성기법을 적용하였다. 이를 위해 구름, 그림자, AOT, 센서 천정각, 날짜, 분광적 상관관계 등 다양한 환경 인자들이 고려되었고, 해당 주기를 대표하는 화소를 선택하여 합성하였다. 또한 5일 주기로 제공되는 Sentinel-2A/B영상에서는 15일 주기 합성 시 한달 합성주기에 비해 보다 빠르게 농작물의 변화를 모니터링할 수 있었다. 그러나 우기의 경우 여전히 구름의 영향으로 낮은 NDVI 값을 볼 수 있었으며, 영상 내 타 날짜의 화소 사용으로 공간적 이질성이 나타났다. 이는 입력자료로 사용되는 Sentinel-2A/B의 부가정보, 특히 구름과 그림자 정보의 부정확성으로 인한 것으로 사려된다. 기존에 가장 많이 사용되는 MNC 합성결과와의 비교 결과에서는 작물이 없는 시기에는 MNC 합성기법이, 구름이 많은 우기의 경우는 점수기반 합성기법이 한계를 나타냈다. 향후 연구에서는 점수 기반에 입력자료의 정확성을 향상시키고, 점수 기반 시 입력인자에 대한 가중치를 적용하여 보다 국내 농경지에 맞는 합성기법으로 개선할 예정이다.

사사

본 논문은 농촌진흥청 공동연구사업(과제번호: PJ0162342022)의 지원에 의해 이루어졌으며, 이에 감사드립니다.

References

  1. Eun, J., S.H. Kim, and T. Kim, 2021. Analysis of the cloud removal effect of Sentinel-2A/B NDVI monthly composite images for rice paddy and high-altitude cabbage fields, Korean Journal of Remote Sensing, 37(6-1): 1545-1557 (in Korean with English abstract). http://doi.org/10.7780/kjrs.2021.37.6.1.5
  2. Frantz, D., A. Roder, M. Stellmes, and J. Hill, 2017. Phenology-adaptive pixel-based compositing using optical earth observatio imagery, Remote Sensing of Environment, 190: 331-347. https://doi.org/10.1016/j.rse.2017.01.002
  3. Fraser, A.D., R.A. Massom, and K.J. Michael, 2009. A method for compositing polar MODIS satellite images to remove cloud cover for landfast sea-ice detection, IEEE Transactions on Geoscience and Remote Sensing, 47(9): 3272-3282. https://doi.org/10.1109/TGRS.2009.2019726
  4. Gallo, K., L. Ji, B. Reed, J. Eidenshink, and J. Dwyer, 2005. Multi-platform comparisons of MODIS and AVHRR normalized difference vegetation index data, Remote Sensing of Environment, 99(3): 221-231. https://doi.org/10.1016/j.rse.2005.08.014
  5. Griffiths, P., S. van der Linden, T. Kuemmerle, and P. Hostert, 2013. A pixel-based Landsat compsiting algorithm for large area land cover mapping, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 6: 2088-2101. https://doi.org/10.1109/JSTARS.2012.2228167
  6. Griffiths, P., C. Nendel, and P. Hostert, 2019. Intra-annual reflectace composites from Sentinel-2 and Landsat for national-scale crop and land cover mapping, Remote Sensing of Environment, 220: 135-151. https://doi.org/10.1016/j.rse.2018.10.031
  7. Holben, B. N., 1986. Characteristics of maximum-value composite images from temporal AVHRR data, International Journal of Remote Sensing, 7: 1417-1434. https://doi.org/10.1080/01431168608948945
  8. Kim, S.H. and J. Eun, 2021. Development of Cloud and Shadow Detection Algorithm for Periodic Composite of Sentinel-2A/B Satellite Images, Korean Journal of Remote Sensing, 37(5-1): 989-998 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2021.37.5.1.13
  9. Skakun, S., C.O. Justice, E. Vermote, and J.C. Roger, 2017. Transitioning from MODIS to VIIRS: an analysis of interconsistency of NDVI data sets for agricultural monitoring, International Journal of Remote Sensing, 39(4): 971-992. https://doi.org/10.1080/01431161.2017.1395970
  10. Wang, L., P. Xiao, X. Feng, H. Li, W. Zhang, and J. Lin, 2014. Effective compositing method to produce cloud-free AVHRR image, IEEE Geoscience and Remote Sensing Letters, 11(1): 328-332. https://doi.org/10.1109/LGRS.2013.2257672
  11. White, J.C., M.A. Wulder, G.W. Hobart, J.E. Luther, T. Hermosilla, P. Griffiths, N.C. Coops, R.J. Hall, P. Hostert, A. Dyk, and L. Guindon, 2014. Pixel-based image compositing for large-area dense time series applications and science, Candian Journal of Remote Sensing, 40: 192-212. https://doi.org/10.1080/07038992.2014.945827