• 제목/요약/키워드: RapidEye Image

검색결과 37건 처리시간 0.022초

CASI 초분광 영상을 이용한 RapidEye 위성영상의 대리복사보정 (Vicarious Radiometric Calibration of RapidEye Satellite Image Using CASI Hyperspectral Data)

  • 장안진;최재완;송아람;김예지;정진하
    • 대한공간정보학회지
    • /
    • 제23권3호
    • /
    • pp.3-10
    • /
    • 2015
  • 지상의 모든 물체는 고유의 분광 반사율을 갖고 있으며, 이러한 특성을 이용하여 지상 물체의 분류와 목표물 탐지 등이 가능하다. 정확한 분석을 위해서는 취득된 원격탐사 자료를 분광 반사율로 변환해야 한다. 이를 위한 절대복사보정 기법으로는 자료 제공 기관에서 명시한 변환 수식을 이용하는 방법, 지상에서 측정한 분광 반사율만으로 단순 경험적 회귀 분석을 이용하는 방법, ATCOR/FLAASH 같은 수학적 모델을 이용하는 방법 등이 있다. 본 연구에서는 CASI 초분광 영상의 분광 반사율 자료를 이용하여 RapidEye 위성영상의 대리복사보정을 수행하고, 그 결과를 다른 복사보정 기법 결과 및 지상 자료와 비교하였다. 실험 결과 제안 기법이 ATCOR 및 New Kurucz 2005 기법보다 높은 유사성을 보였으며, 일반적으로 활용되는 ELM 기법과 유사한 결과를 도출하였다.

Extraction of Spatial Characteristics of Cadastral Land Category from RapidEye Satellite Images

  • La, Phu Hien;Huh, Yong;Eo, Yang Dam;Lee, Soo Bong
    • 한국측량학회지
    • /
    • 제32권6호
    • /
    • pp.581-590
    • /
    • 2014
  • With rapid land development, land category should be updated on a regular basis. However, manual field surveys have certain limitations. In this study, attempts were made to extract a feature vector considering spectral signature by parcel, PIMP (Percent Imperviousness), texture, and VIs (Vegetation Indices) based on RapidEye satellite image and cadastral map. A total of nine land categories in which feature vectors were significantly extracted from the images were selected and classified using SVM (Support Vector Machine). According to accuracy assessment, by comparing the cadastral map and classification result, the overall accuracy was 0.74. In the paddy-field category, in particular, PO acc. (producer's accuracy) and US acc. (user's accuracy) were highest at 0.85 and 0.86, respectively.

고해상도 위성영상을 이용한 낙동강 유역의 클로로필-a 농도 추정 (Estimation of Chlorophyll-a Concentrations in the Nakdong River Using High-Resolution Satellite Image)

  • 최은영;이재운;이재관
    • 대한원격탐사학회지
    • /
    • 제27권5호
    • /
    • pp.613-623
    • /
    • 2011
  • 본 연구에서는 Moderate Imaging Spectroradiometer(MODIS), Sea-viewing Wide Field-fo-view Sensor(SeaWiFS), Medium Resolution Imaging Spectrometer(MERIS) 등의 광역관측 위성영상을 이용한 해수나 연안수의 클로로필 농도 분석을 통해 가능성이 확인되었던 밴드 비를 이용한 비교적 간단한 추정 모델을 수체의 크기와 폭이 현저히 작고 탁도가 있는 하천에 대해 클로로필-a 농도값을 추정하고자 고해상도 위성영상에 Two-band 및 Three-band reflectance 모델을 적용하여 가능성을 파악하였다. 특히 RapidEye 영상을 이용하여 일반적으로 탁도가 있는 수체에 대해 Red와 NIR 영역을 활용하는 이들 모델에 Red-edge(RE) 밴드를 적용하였다. Red와 NIR을 이용한 Two-band Reflectance 모델은 계산식의 결정계수 $R^2$ 값이 0.38로 유의성 없는 결과를 나타내었다. 그러나 RapidEye의 Red-edge (RE) 파장 대를 이용한 Red-RE Two-band 모델과 Red-RE-NIR Three-band 모델을 이용한 계산식에 대해서는, 2차함수에 의한 Three-band 모델의 결과는 Red-RE Two-band 모델의 결과와 통계적인 값이 거의 유사하였고 Two-band와 3차함수에 의한 Three-band 모델 추정식은 각각 0.66, 0.73 의 $R^2$값을 나타내어 Red-edge 밴드의 적용 가능성을 보였고, 실측치와의 Root Mean Square Error (RMSE)는 24.8, 22.4 mg $m^{-3}$, Relative Percent Difference(RPD)는 각각 1.30, 1.29로 1.5 이하의 대략적인 추정(Approximate Prediction) 수준을 나타내었다. 고해상도 위성영상에 Red-RE-NIR Three-band 모델을 적용한 계산식을 이용해 대략적인 추정이지만 가장 유의한 수준의 클로로필-a 농도를 추정할 수 있었다. 영상에서 추정된 클로로필-a 분포를 비교하였을 때 3차함수에 의한 Three-band 모델 추정식이 Two-band 모델에 비해 낮은 값의 분포를 보였다. 향후 하천의 스펙트럼을 실측하여 파장별 부유물질, 유기물과의 상관성 및 클로로필 농도와의 간섭 정도를 시뮬레이션하여 보정식을 산출 적용한다면 탁도가 다소 높은 하천에서의 클로로필-a 농도 계산식의 정확도를 더욱 높일 수 있을 것으로 기대된다.

RapidEye 영상을 이용한 북한의 논 면적 산정 (Estimation of Paddy Field Area in North Korea Using RapidEye Images)

  • 홍석영;민병걸;이지민;김이현;이경도
    • 한국토양비료학회지
    • /
    • 제45권6호
    • /
    • pp.1194-1202
    • /
    • 2012
  • 북한과 같이 접근이 힘들고 농업과 관련된 정보가 부족한 지역을 대상으로 RapidEye 위성영상의 판독 및 분류를 통하여 가장 기초적인 농업 현황과 생산 기반인 논 면적을 산정하였다. 291개의 RapidEye 영상을 이용하여 북한 전역을 대상으로 시기별로 논을 분류하기 위한 영상 판독 기준을 설정하였다. 5월 초에서 6월 말은 벼 이앙을 위해 관개를 하기 때문에 벼 이앙 전후에 물의 특성이 위성영상에서 잘 관측되기 때문에 영상이 어둡게 보이는 점을 이용하여 논과 다른 토지이용을 구분한다. 주요 벼 생육시기인 7월 초부터 9월 말에는 RapidEye 영상을 5:3:2 밴드조합으로 하여 영상을 판독하면 벼논의 색상과 질감의 차이를 이용하여 밭작물, 초지, 산림으로부터 논을 분류한다. 9월 말부터 10월 말은 벼 수확을 한 후로 논에 식생이 없는 시기로써 5:3:2 밴드 조합에서 회색빛이 나는 경지 형태를 대상을 논으로 판독한다. 그 결과 북한 전역에 대한 논 분포지도를 작성하였고 시도 행정구역별로 논 면적을 살펴보았다. 대부분의 논은 평안남북도와 황해남도가 위치한 서해안 평야지대에 전체 논 면적의 66% 정도인 $3,521km^2$가 분포하였고 함경남북도, 강원도, 나선시와 같이 동해에 인접한 지역의 논 면적은 $1,172km^2$로 전체 논 면적의 약 20%를 차지하는 것으로 나타났다. RapidEye 영상을 이용하여 분류한 논 면적은 2001년 및 2010년 FAO/WFP 북한 보고서와 비교할 때 각각 1% 이내의 면적 편차를 나타내었다. RapidEye 위성영상을 이용한 북한의 논 분류 결과는 농경지 이용 면적의 산정과 변화, 벼 수량 추정을 위한 마스킹 (masking) 자료로 활용될 수 있는 기본 자료로 의미가 매우 큰 것으로 판단된다. 향후에는 밭에 대한 분류 지도를 구축하고 나아가 옥수수와 같은 주요 밭작물에 대한 판독 방법에 대해서도 연구할 필요가 있을 것으로 생각된다.

RapidEye 위성영상의 시계열 NDVI 및 객체기반 분류를 이용한 북한 재령군의 논벼 재배지역 추출 기법 연구 (Extraction of paddy field in Jaeryeong, North Korea by object-oriented classification with RapidEye NDVI imagery)

  • 이상현;오윤경;박나영;이성학;최진용
    • 한국농공학회논문집
    • /
    • 제56권3호
    • /
    • pp.55-64
    • /
    • 2014
  • While utilizing high resolution satellite image for land use classification has been popularized, object-oriented classification has been adapted as an affordable classification method rather than conventional statistical classification. The aim of this study is to extract the paddy field area using object-oriented classification with time series NDVI from high-resolution satellite images, and the RapidEye satellite images of Jaeryung-gun in North Korea were used. For the implementation of object-oriented classification, creating objects by setting of scale and color factors was conducted, then 3 different land use categories including paddy field, forest and water bodies were extracted from the objects applying the variation of time-series NDVI. The unclassified objects which were not involved into the previous extraction classified into 6 categories using unsupervised classification by clustering analysis. Finally, the unsuitable paddy field area were assorted from the topographic factors such as elevation and slope. As the results, about 33.6 % of the total area (32313.1 ha) were classified to the paddy field (10847.9 ha) and 851.0 ha was classified to the unsuitable paddy field based on the topographic factors. The user accuracy of paddy field classification was calculated to 83.3 %, and among those, about 60.0 % of total paddy fields were classified from the time-series NDVI before the unsupervised classification. Other land covers were classified as to upland(5255.2 ha), forest (10961.0 ha), residential area and bare land (3309.6 ha), and lake and river (1784.4 ha) from this object-oriented classification.

작물 모니터링을 위한 다중 센서 고해상도 위성영상의 시공간 융합 모델의 평가: Sentinel-2 및 RapidEye 영상 융합 실험 (Evaluation of Spatio-temporal Fusion Models of Multi-sensor High-resolution Satellite Images for Crop Monitoring: An Experiment on the Fusion of Sentinel-2 and RapidEye Images)

  • 박소연;김예슬;나상일;박노욱
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.807-821
    • /
    • 2020
  • 이 연구에서는 작물 모니터링을 위한 시계열 고해상도 영상 구축을 위해 기존 중저해상도 위성영상의 융합을 위해 개발된 대표적인 시공간 융합 모델의 적용성을 평가하였다. 특히 시공간 융합 모델의 원리를 고려하여 입력 영상 pair의 특성 차이에 따른 모델의 예측 성능을 비교하였다. 농경지에서 획득된 시계열 Sentinel-2 영상과 RapidEye 영상의 시공간 융합 실험을 통해 시공간 융합 모델의 예측 성능을 평가하였다. 시공간 융합 모델로는 Spatial and Temporal Adaptive Reflectance Fusion Model(STARFM), SParse-representation-based SpatioTemporal reflectance Fusion Model(SPSTFM)과 Flexible Spatiotemporal DAta Fusion(FSDAF) 모델을 적용하였다. 실험 결과, 세 시공간 융합 모델은 예측 오차와 공간 유사도 측면에서 서로 다른 예측 결과를 생성하였다. 그러나 모델 종류와 관계없이, 예측 시기와 영상 pair가 획득된 시기 사이의 시간 차이보다는 예측 시기의 저해상도 영상과 영상 pair의 상관성이 예측 능력 향상에 더 중요한 것으로 나타났다. 또한 작물 모니터링을 위해서는 오차 전파 문제를 완화할 수 있는 식생지수를 시공간 융합의 입력 자료로 사용해야 함을 확인하였다. 이러한 실험 결과는 작물 모니터링을 위한 시공간 융합에서 최적의 영상 pair 및 입력 자료 유형의 선택과 개선된 모델 개발의 기초정보로 활용될 수 있을 것으로 기대된다.

농림위성용 GCP 칩 매칭 성능 향상을 위한 위성영상 공간해상도 결정 (Determination of Spatial Resolution to Improve GCP Chip Matching Performance for CAS-4)

  • 이유진;김태정
    • 대한원격탐사학회지
    • /
    • 제37권6_1호
    • /
    • pp.1517-1526
    • /
    • 2021
  • 최근 국내외에서 많은 지구관측위성들이 발사됨에 따라서 위성영상의 활용 분야가 넓어지고 있고 이에 따라서 위성영상의 기하정확도 향상을 위한 연구가 활발히 수행되고 있다. 본 논문은 2025년에 발사예정인 5 m 해상도 영상을 촬영할 수 있는 농림위성을 위한 자동기준점 추출 가능성을 파악하기 위해서 수행되었다. 특히 본 연구에서는 국토위성용으로 구축된 25 cm 해상도의 지상기준점 Chip을 농림위성영상에 사용할 수 있는지를 검토하고 농림위성영상용 지상기준점 추출 시 정합 성능 향상을 위한 적절한 공간해상도가 있는지를 검토하고자 한다. 실제 실험은 농림위성영상과 유사한 사양을 가진 RapidEye 위성영상을 활용하여 연구를 수행하였다. 먼저, 5 m 해상도의 원본 RapidEye 영상을 3배~7배로 분할하여 여러 해상도를 가진 영상으로 만들고, 해상도를 가지는 지상기준점 Chip은 크기를 축소하여 위성영상의 해상도에 맞게 조절하였다. 각각의 해상도를 가지는 위성영상과 지상기준점 Chip을 매칭하고 이 결과로 수립된 정밀센서모델의 정확도를 분석하였다. 분석결과 5 m의 원본 해상도에서 정합하는 것보다 위성영상의 해상도를 높여서 정합하는 것이 개선된 정확도를 보여주었다. 특히, 원본 영상을 1.25~1.67 m 해상도로 분할하여 지상기준점 Chip과 정합 할 경우 평균 약 2.74 m 내외의 위치정확도를 얻을 수 있었다. 본 연구결과가 향후 농림위성영상의 자동기준점 추출 및 정밀정사영상 생산에 활용될 수 있을 것으로 기대한다.

RapidEye 위성영상과 Semantic Segmentation 기반 딥러닝 모델을 이용한 토지피복분류의 정확도 평가 (Accuracy Assessment of Land-Use Land-Cover Classification Using Semantic Segmentation-Based Deep Learning Model and RapidEye Imagery)

  • 심우담;임종수;이정수
    • 대한원격탐사학회지
    • /
    • 제39권3호
    • /
    • pp.269-282
    • /
    • 2023
  • 본 연구는 딥러닝 모델(deep learning model)을 활용하여 토지피복분류를 수행하였으며 입력 이미지의 크기, Stride 적용 등 데이터세트(dataset)의 조절을 통해 토지피복분류를 위한 최적의 딥러닝 모델 선정을 목적으로 하였다. 적용한 딥러닝 모델은 3종류로 Encoder-Decoder 구조를 가진 U-net과 DeeplabV3+, 두 가지 모델을 결합한 앙상블(Ensemble) 모델을 활용하였다. 데이터세트는 RapidEye 위성영상을 입력영상으로, 라벨(label) 이미지는 Intergovernmental Panel on Climate Change 토지이용의 6가지 범주에 따라 구축한 Raster 이미지를 참값으로 활용하였다. 딥러닝 모델의 정확도 향상을 위해 데이터세트의 질적 향상 문제에 대해 주목하였으며 딥러닝 모델(U-net, DeeplabV3+, Ensemble), 입력 이미지 크기(64 × 64 pixel, 256 × 256 pixel), Stride 적용(50%, 100%) 조합을 통해 12가지 토지피복도를 구축하였다. 라벨 이미지와 딥러닝 모델 기반의 토지피복도의 정합성 평가결과, U-net과 DeeplabV3+ 모델의 전체 정확도는 각각 최대 약 87.9%와 89.8%, kappa 계수는 모두 약 72% 이상으로 높은 정확도를 보였으며, 64 × 64 pixel 크기의 데이터세트를 활용한 U-net 모델의 정확도가 가장 높았다. 또한 딥러닝 모델에 앙상블 및 Stride를 적용한 결과, 최대 약 3% 정확도가 상승하였으며 Semantic Segmentation 기반 딥러닝 모델의 단점인 경계간의 불일치가 개선됨을 확인하였다.

RADARSAT-2 SAR를 이용한 서산 및 평양 지역의 벼 생육 모니터링 적용성 평가 -RapidEye와의 비교를 통해- (Evaluation of the Applicability of Rice Growth Monitoring on Seosan and Pyongyang Region using RADARSAT-2 SAR -By Comparing RapidEye-)

  • 나상일;홍석영;김이현;이경도
    • 한국농공학회논문집
    • /
    • 제56권5호
    • /
    • pp.55-65
    • /
    • 2014
  • Radar remote sensing is appropriate for rice monitoring because the areas where this crop is cultivated are often cloudy and rainy. Especially, Synthetic Aperture Radar (SAR) can acquire remote sensing information with a high temporal resolution in tropical and subtropical regions due to its all-weather capability. This paper analyzes the relationships between backscattering coefficients of rice measured by RADARSAT-2 SAR and growth parameters during a rice growth period. And we applied the relationships to crop monitoring of paddy rice in North Korea. As a result, plant height and Leaf Area Index (LAI) increased until Day Of Year (DOY) 234 and then decreased, while fresh weight and dry weight increased until DOY 253. Correlation coefficients revealed that Horizontal transmit and Horizontal receive polarization (HH)-polarization backscattering coefficients were correlated highly with plant height (r=0.95), fresh weight (r=0.92), vegetation water content (r=0.91), LAI (r=0.90), and dry weight (r=0.89). Based on the observed relationships between backscattering coefficients and variables of cultivation, prediction equations were developed using the HH-polarization backscattering coefficients. Concerning the evaluation for the applicability of the LAI distribution from RADARSAT-2, the LAI statistic was evaluated in comparison with LAI distribution from RapidEye image. And LAI distributions in Pyongyang were presented to show spatial variability for unaccessible areas.

안구의 굴절능 조절을 고려한 수정된 Navarro 정밀모형안의 시성능 분석 (Visual Performances of the Corrected Navarro Accommodation-Dependent Finite Model Eye)

  • 최가을;송석호;김상기
    • 한국광학회지
    • /
    • 제18권5호
    • /
    • pp.337-344
    • /
    • 2007
  • 모형안은 안구의 굴절력 교정 수술이나 콘택트렌즈, 안경 등 시력 보정을 위한 기구를 설계하는 등, 다양한 목적아래서 안구의 시성능을 최적모델링 하기 위해 발전해 왔다. 특히, 안구의 가변적인 굴절능 조절 과정을 내포하는 모형안을 세우고, 환경변화에 따른 모형안의 광학 성능을 정확하게 모델링하는 것은 매우 중요하다. 본 연구는 사람 안구가 단계적으로 굴절능 조절을 행할 때 기존의 해부학적 광학형상 변화를 포함하고 안구의 파면수차와 조절반응을 고려한 모형안을 제시하였다. 본 연구에서 제시된 모형안은 조절자극의 세기에 따른 조절반응 부족량, 3차와 4차 수차, 변조전달함수, 시력 등이 제시되었으며, 그 모형안을 바탕으로 계산한 결과 값은 실제 안구에서 측정한 값들을 만족하였다. 본 연구에서 제안된 모형안은 조절의 단계적 변화에 따른 안구의 광학적 성능과 변조저달 함수의 계산, 사람 눈의 시성능 변화를 보다 정확하게 예측하는데 좋은 도구를 제공할 것이다.