• 제목/요약/키워드: High-spatial resolution imagery

검색결과 228건 처리시간 0.022초

무인항공기 및 인공지능을 활용한 도시지역 토지피복 분류 기법의 공간적 재현성 평가 (Spatial Replicability Assessment of Land Cover Classification Using Unmanned Aerial Vehicle and Artificial Intelligence in Urban Area)

  • 박건웅;송봉근;박경훈;이흥규
    • 한국지리정보학회지
    • /
    • 제25권4호
    • /
    • pp.63-80
    • /
    • 2022
  • 현실의 공간을 가상의 공간으로 구현하여 문제를 분석하고 예측하는 기술이 개발되면서, 복잡한 도시 내의 정밀한 공간정보를 취득하는 것이 중요해지고 있다. 본 연구는 복잡한 경관을 가진 도시지역을 대상으로 무인항공기를 통해 영상을 취득하고 고해상도 영상에 적합한 영상분류 기법인 객체기반 영상분석 기법과 의미론적 분할 기법을 적용하여 토지피복 분류를 수행하였다. 또한, 동일시기에 수집된 영상을 바탕으로 인공지능이 학습하지 않은 지역에 대해 각 인공지능 모형의 토지피복 분류 재현성을 확인하고자 하였다. 학습 지역을 대상으로 인공지능 모형을 학습하였을 때, 토지피복 분류 정확도가 OBIA-RF는 89.3%, OBIA-DNN은 85.0%, U-Net의 경우 95.3%로 분석되었다. 재현성을 평가하기 위해 검증 지역에 인공지능 모형을 적용하였을 때, OBIA-RF는 7%, OBIA-DNN은 2.1%, U-Net은 2.3%의 정확도가 감소하였다. 형태학적인 특성과 분광학적인 특성을 모두 고려한 U-Net이 토지피복 분류 정확도 및 재현성 평가에서 우수한 성능을 보이는 것으로 나타났다. 본 연구의 결과는 정밀한 공간정보가 중요해짐에 따라 기초자료 생성 방법으로써 도시환경 연구분야에 기여할 수 있을 것으로 판단된다.

지형공간정보 생성을 위한 KOPMSAT-2 영상의 활용성 분석 (Analysis for Practical use as KOMPSAT-2 Imagery for Product of Geo-Spatial Information)

  • 이현직;유지호;고영창
    • 대한공간정보학회지
    • /
    • 제17권1호
    • /
    • pp.21-35
    • /
    • 2009
  • KOMPSAT-2(KOrean MultiPurpose SATellite-2)위성은 GSD(Ground sample distance) 1m급 전정색(panchromatic) 영상과 GSD 4m급의 다중분광(multispectral)영상을 동시에 제공하는 세계 7번째 고해상도(High-Resolution) 위성으로 지도제작, 국토모니터링, 환경 등 여러 분야에서의 다양한 활용이 기대된다. 그러나, KOMPSAT-2영상은 다중분광센서(MSC : Multi Spectral Camera)의 복잡성과 보안성에 의해 위성궤도 및 자세정보 등 영상 취득 시 기하학적 정보 및 영상이 제한적으로 제공되고 있어 KOMPSAT-2 영상을 이용한 다양한 연구가 미흡한 실정이다. 이에 본 연구에서는 KOMPSAT-2의 스테레오 영상을 이용하여 DEM 및 정사영상 제작실험을 수행하여 KOMPSAT-2 영상을 이용한 지형공간정보 생성 가능성을 타진하고자 하였다. KOMPSAT-2영상을 이용한 DEM(Digital Elevation Model) 및 정사영상을 제작하기 위해서는 먼저 표정해석(orientation)을 수행하여야 한다. DEM을 제작하여 정확도를 분석한 결과, 전반적으로 수치지도에 비해 표고가 높게 추출되었다. 평지부에서는 평균 1.8m, 구릉지에서는 평균 7.2m, 산지에서는 평균 11.9m의 표고오차를 나타냈다. 본 연구를 통해 생성된 정사영상의 수평위치오차 평균은 ${\pm}3.081m$로 1:5,000 수치지도 수평위치오차 허용범위인 ${\pm}3.5m$ 준하는 것으로 나타났다. KOMPSAT-2호 영상을 이용하여 DEM 및 정사영상을 제작한 결과, 1:5,000급의 수치지도제작 및 지형공간정보 생성에 활용할 수 있을 것으로 판단된다.

  • PDF

자동 위성영상 수집을 통한 다종 위성영상의 시계열 데이터 생성 (Generation of Time-Series Data for Multisource Satellite Imagery through Automated Satellite Image Collection)

  • 남윤지;정성우;김태정;이수암
    • 대한원격탐사학회지
    • /
    • 제39권5_4호
    • /
    • pp.1085-1095
    • /
    • 2023
  • 위성데이터를 활용한 시계열 데이터는 다양한 분야에서 변화 탐지와 모니터링에 필수적인 자료로 활용되고 있다. 시계열 데이터 생성에 관한 선행 연구에서는 데이터의 통일성을 유지하기 위해 주로 단일 영상을 기반으로 분석하는 방식이 사용되었다. 또한 공간 및 시간 해상도 향상을 위해 다종 영상을 활용하는 연구도 활발하게 진행되고 있다. 시계열 데이터의 중요성은 계속해서 강조되지만, 데이터를 자동으로 수집하고 가공하여 연구에 활용하기 위한 산출물은 아직 제공되지 않고 있다. 따라서 이러한 한계를 극복하기 위해 본 논문에서는 사용자가 설정한 지역의 위성정보를 자동으로 수집하고 시계열 데이터를 생성하는 기능을 제안한다. 본 연구는 한 종류의 위성영상뿐만 아니라 동일 지역의 여러 위성데이터를 수집하고 이를 시계열 데이터로 변환하여 산출물을 생성하는 것을 목표로 하며, 이를 위한 위성영상 자동 수집 시스템을 개발하였다. 이 시스템을 활용하면 사용자는 관심 있는 지역을 설정함으로써 해당 지역에 맞게 데이터가 수집되고 Crop되어 즉시 활용할 수 있는 데이터를 생성할 수 있다. 실험 결과로는 웹 상에서 무료로 제공되는 Landsat-8/9 OLI 및 Sentinel-2 A/B 영상의 자동 획득이 가능함을 확인하였으며, 수동 입력을 통해 별도의 고해상도 위성영상도 함께 처리할 수 있었다. 고해상도 위성영상을 기준으로 자동 수집 및 편집된 영상 간의 정확도를 비교하고 육안 분석을 수행한 결과, 큰 오차 없이 결과물을 생성할 수 있음을 확인했다. 이후 시계열 데이터 간 상대적 위치 오차 최소화 및 좌표가 획득되어 있지 않은 데이터 처리 등에 대한 연구 및 다양한 위성영상을 활용한 시계열 데이터 생성 기능 추가가 계획되어 있다. 위성영상을 활용한 시계열 데이터의 생성 방법이 정립되고, 국토위성, 농림위성과 같은 국내 위성정보를 이용한 시계열 데이터가 효과적으로 활용될 경우, 국토·농림·산업·해양 분야에서 다양한 응용 가능성이 기대된다.

The Classifications using by the Merged Imagery from SPOT and LANDSAT

  • Kang, In-Joon;Choi, Hyun;Kim, Hong-Tae;Lee, Jun-Seok;Choi, Chul-Ung
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 1999년도 Proceedings of International Symposium on Remote Sensing
    • /
    • pp.262-266
    • /
    • 1999
  • Several commercial companies that plan to provide improved panchromatic and/or multi-spectral remote sensor data in the near future are suggesting that merge datasets will be of significant value. This study evaluated the utility of one major merging process-process components analysis and its inverse. The 6 bands of 30$\times$30m Landsat TM data and the 10$\times$l0m SPOT panchromatic data were used to create a new 10$\times$10m merged data file. For the image classification, 6 bands that is 1st, 2nd, 3rd, 4th, 5th and 7th band may be used in conjunction with supervised classification algorithms except band 6. One of the 7 bands is Band 6 that records thermal IR energy and is rarely used because of its coarse spatial resolution (120m) except being employed in thermal mapping. Because SPOT panchromatic has high resolution it makes 10$\times$10m SPOT panchromatic data be used to classify for the detailed classification. SPOT as the Landsat has acquired hundreds of thousands of images in digital format that are commercially available and are used by scientists in different fields. After the merged, the classifications used supervised classification and neural network. The method of the supervised classification is what used parallelepiped and/or minimum distance and MLC(Maximum Likelihood Classification) The back-propagation in the multi-layer perception is one of the neural network. The used method in this paper is MLC(Maximum Likelihood Classification) of the supervised classification and the back-propagation of the neural network. Later in this research SPOT systems and images are compared with these classification. A comparative analysis of the classifications from the TM and merged SPOT/TM datasets will be resulted in some conclusions.

  • PDF

항공 LiDAR 및 RGB 정사 영상을 이용한 딥러닝 기반의 도시녹지 분류 (Classification of Urban Green Space Using Airborne LiDAR and RGB Ortho Imagery Based on Deep Learning)

  • 손보경;이연수;임정호
    • 한국지리정보학회지
    • /
    • 제24권3호
    • /
    • pp.83-98
    • /
    • 2021
  • 도시녹지는 도시 생태계 건강성 증진을 위한 중요한 요소이며, 건강한 도시 생태계 유지 및 관리를 위해서는 도시녹지의 공간적인 현황 파악이 필요하다. 환경부에서는 2010년 이후부터 총 41개의 분류 항목을 갖는 1m 급 해상도의 세분류 토지피복지도를 제공해오고 있으나, 가로수와 같은 도시 내 고해상도 상세 녹지 정보는 기타 초지로 분류되거나 누락되어 오고 있다. 따라서, 본 연구에서는 수원시 지역을 대상으로 1m 이하 급의 고해상도 원격탐사 자료(항공 LiDAR 및 RGB 정사영상)를 이용하여, 기존 세분류 토지피복지도에서는 나타나지 않는 고해상도의 상세 도시 녹지(수목, 관목 및 초지) 정보를 분류하고자 하였다. 분류 기법으로는 딥러닝 기반의 이미지 분할방법인 U-Net 구조의 모델을 활용하였으며, 분류 항목의 수 및 사용하는 자료의 종류에 따라 총 3가지의 모델(LRGB10, LRGB5, 및 RGB5)을 제안하고 성능을 평가하였다. 검증 지역에 대한 세 모델의 평균 전체 정확도는 각 83.40%(LRGB10), 89.44%(LRGB5), 74.76%(RGB5)이며, 항공 LiDAR와 RGB 정사영상을 함께 사용하여 총 5개의 항목(수목, 관목, 초지, 건물, 및 그 외)을 분류하는 LRGB5 모델의 성능이 가장 높게 나타났다. 수원시의 수목, 관목 및 초지 기준의 전체 녹지 현황은 각 45.61%(LRGB10), 43.47%(LRGB5), 및 44.22%(RGB5)로 나타났으며, 세 모델 모두 기존 세분류 토지피복지도와 비교하여 평균 13.40%의 도시 수목 정보를 더 제공할 수 있는 것으로 나타났다. 더불어 이러한 도시녹지 분류 결과는 향후 중분류 토지피복지도와 같은 기존 GIS 정보와의 융합을 통해 가로수 녹지 비율 현황 등 추가적인 상세 녹지 현황 정보를 제공할 수 있어, 다양한 도시녹지 연구 및 정책의 기초 자료로 활용될 수 있을 것으로 기대된다.

Sen2Cor 대기보정 프로세서 평가를 위한 항공 초분광영상 기반 Sentinel-2 모의영상 생성 및 TOA와 BOA 반사율 자료와의 비교: 농업지역을 중심으로 (Simulation of Sentinel-2 Product Using Airborne Hyperspectral Image and Analysis of TOA and BOA Reflectance for Evaluation of Sen2cor Atmosphere Correction: Focused on Agricultural Land)

  • 조강준;김용일
    • 대한원격탐사학회지
    • /
    • 제35권2호
    • /
    • pp.251-263
    • /
    • 2019
  • Sentinel-2 위성은 기존 Landsat 시리즈보다 높은 공간해상도, 시간해상도 및 13개의 가시광, Red-edge, 적외, 단파적외 영역을 포함하는 다중분광 영상을 제공하고 있다. 이는 Landsat 시리즈와의 비슷한 파장대역 구성으로 향후 Landsat 시리즈와 융합분석이 가능하다는 이점이 있다. 그 동안 Landsat 위성영상은 국내의 다양한 연구에 적용되고 있으나 Sentinel-2 광학 위성영상은 많은 활용 사례가 보고되지 않았다. Sentinel-2 광학 위성은 기존 Landsat 위성이 제공하는 Top-of-Atmosphere(TOA) 반사율 영상을 Level-1C(L1C)에서 제공하고 있으며, Level-2A(L2A)영상을 통해 Landsat 시리즈보다 한 단계 더 대기보정이 수행된 Bottom-of-Atmosphere(BOA) 반사율 영상을 제공할 예정에 있다. BOA 반사율 영상은 에어로졸 광학 두께(AOT: Aerosol optical thickness)와 대기 중 수증기(WV: Water Vapor) 자료를 Sentinel-2 영상으로부터 얻고 이를 보정하여 TOA 반사율 영상을 BOA 반사율 영상으로 변환을 가능하게 한다. 현재, 유럽 전역지역에서 L2A 자료를 무료로 다운로드 가능하며 이외 지역의 경우 L2A 자료의 실시간 제공이 예정되어 있다. 따라서, Sentinel-2 L2A 자료의 활용가능성이 국내에서 점점 커질 것으로 기대되는 바이며 농업지역에서 Sentinel-2 L2A 영상이 제공하는 BOA 반사율 자료의 활용가능성을 확인하기 위해 경상남도 합천군에서 촬영된 항공 초분광영상을 활용하여 Sentinel-2 L2A 자료를 모의해 보고 정량적인 분석을 통해 모의영상과 실제 촬영된 영상을 비교해보았다. 본 연구에서는 Sentinel-2 L2A 자료와 항공기 기반의 초분광 영상을 통해 모의된 Sentinel-2 영상에 대한 정량적인 비교를 수행하였으며, 가시광 영역대의 밴드와 식생지수에 대하여 참조 영상인 모의영상과 대기보정이 수행된 L2A 자료의 RMSE의 감소 및 상관관계의 증가 경향이 뚜렷하게 나타나는 것으로 확인되었다.

Himawari-8/AHI 기반 반사도 분광 라이브러리를 이용한 해양 구름 탐지 (Cloud Detection Using HIMAWARI-8/AHI Based Reflectance Spectral Library Over Ocean)

  • 권채영;서민지;한경수
    • 대한원격탐사학회지
    • /
    • 제33권5_1호
    • /
    • pp.599-605
    • /
    • 2017
  • 위성 영상의 정확한 구름 판별 여부는 이를 활용하여 생산되는 다른 산출물들의 정확도에 민감한 영향을 미치므로 매우 중요하다. 특히 해양에서 구름에 오염된 화소는 해수면 온도(Sea Surface Temperature: SST), 해색(ocean color), 클로로필-a(chlorophyll-a) 등 다양한 해양 기반산출물의 주된 오차 요인으로써 해양에서의 정확한 구름 탐지는 필수적이며 이는 해양 순환을 이해하는데 기여한다. 그러나 현재 Moderate Resolution Imaging Spectroradiometer (MODIS), Advanced Himawari Imager (AHI) 등 대부분 실시간 운영을 위한 알고리즘에서 사용되고 있는 고정 경계값 검사 방법은 태양-해양-센서의 상대적인 위치에 따라 변화하는 해양의 분광 특성을 고려하지 못하는 단점을 가지고 있다. 따라서 본 연구에서는 NOAA의 Himawari-8 구름 산출물을 이용하여 Himawari-8/AHI 반사도 채널에서의 태양 천정각(Solar Zenith Angle: SZA), 위성 천정각(Viewing Zenith Angle: VZA) 변화에 따른 청천 해양 표면 화소의 반사도를 수집하여 분광 라이브러리를 구축하였고 이를 이용하여 동적 경계값 방법인 Dynamic Time Warping (DTW)기법에 적용하여 구름탐지를 수행하였다. 본 연구의 구름탐지 결과를 Japan Meteorological Agency (JMA)의 구름 산출물과 정성적 비교한 결과 JMA 구름 산출물은 청천 화소를 불확실(unknown)으로 오탐지 및 과대탐지 하는 경향을 보였다. 이에 반해 본 연구에서는 태양 천정각이 고각인 지역에서 과대 탐지 및 오탐지되는 문제점을 개선하였다.

1:25,000 수치지도를 이용한 RapidEye 위성영상의 좌표등록 정확도 자동 향상 (Automated Improvement of RapidEye 1-B Geo-referencing Accuracy Using 1:25,000 Digital Maps)

  • 오재홍;이창노
    • 한국측량학회지
    • /
    • 제32권5호
    • /
    • pp.505-513
    • /
    • 2014
  • 2008년 발사된 RapidEye는 5개의 위성을 기반으로 하여 6.5m 공간 해상도의 위성 영상을 하루 간격으로 취득할 수 있는 높은 시간 해상도 특징을 갖는 지구관측위성이다. 제품으로 1B(Basic)와 3A(Ortho)를 제공하고 있으며, 이 중 1B 영상은 좌표등록이 되지 않고 RPCs 정보를 함께 제공해준다. 국내에서는 기 구축된 수치지도를 기반으로 하여 RapidEye의 기하학적 정확도를 보다 향상시킬 수 있으며, 본 논문에서는 1:25,000 수치지도를 이용하여 자동으로 RapidEye 1B영상의 좌표등록을 수행하기 위한 연구를 수행하였다. 1:25,000 수치지도 중 RapidEye 영상과의 매칭에 활용될 레이어를 선별하여 RPCs를 기반으로 RapidEye 1B영상으로 투영시켜 벡터 영상을 생성하고 이와 RapidEye영상의 에지 정보와의 자동 매칭을 통해 RPCs의 정확도를 향상시켰다. 실험 결과 수치지도 대비하여 평균 제곱근 오차 2.8픽셀의 오차가 0.8픽셀로 향상됨을 알 수 있었다.

태양과 플랫폼의 방위각 및 고도각을 이용한 이종 센서 영상에서의 객체기반 건물 변화탐지 (Object-based Building Change Detection Using Azimuth and Elevation Angles of Sun and Platform in the Multi-sensor Images)

  • 정세정;박주언;이원희;한유경
    • 대한원격탐사학회지
    • /
    • 제36권5_2호
    • /
    • pp.989-1006
    • /
    • 2020
  • 건물탐지 기반의 건물 변화 모니터링은 발사예정인 차세대 중형위성 1, 2호와 같은 고해상도 다시기 광학 위성영상을 이용한 인공 구조물 모니터링 측면에서 가장 중요한 분야 중 하나이다. 하지만 지표면에 위치하는 건물들의 형태와 크기는 다양하며, 이들 주변에 존재하는 그림자 또는 나무 등에 의해 정확한 건물탐지에 어려움이 따른다. 또한, 영상 촬영 당시의 플랫폼의 방위각(Azimuth angle)과 고도각(Elevation angle)에 따라 생기는 기복 변위로 인해 건물 변화탐지 수행 시 다수의 변화 오탐지가 발생하게 된다. 이에 본 연구에서는 건물 변화탐지 결과 향상을 위해 다시기 영상 취득 당시의 태양의 방위각과 그에 따른 그림자의 주방향(Main direction)을 이용한 객체기반 건물탐지를 수행하였으며, 이후 플랫폼의 방위각과 고도각을 이용한 건물 변화탐지를 수행하였다. 고해상도 영상에 객체 분할 기법을 적용한 후, Shadow intensity를 통해 그림자 객체만을 분류하였으며, 건물 후보군 탐지를 위해 각 객체의 Rectangular fit, GLCM(Gray-Level Co-occurrence Matrix) homogeneity 그리고 면적(Area)과 같은 특징(Feature) 정보들을 이용하였다. 그 후, 건물 후보군으로 탐지된 객체들의 중심과 태양의 방위각에 따른 건물 그림자 사이의 방향과 거리를 이용하여 최종 건물을 탐지하였다. 각 영상에서 탐지된 건물 객체 간 변화탐지를 위해 객체들 간의 단순 중첩, 플랫폼의 고도각에 따른 객체의 크기 비교, 그리고 플랫폼의 방위각에 따른 객체 간의 방향 비교 총 3가지의 방법을 제안하였다. 본 연구에서는 주거 밀집 지역을 연구지역으로 선정하였으며, KOMPSAT-3와 무인항공기(Unmanned Aerial Vehicle, UAV)의 이종 센서에서 취득된 고해상도 영상을 이용하여 실험 데이터를 생성하였다. 실험 결과, 특징 정보를 이용해 탐지한 건물탐지 결과의 F1-score는 KOMPSAT-3 영상과 무인항공기 영상에서 각각 0.488 그리고 0.696인 반면, 그림자를 고려한 건물탐지 결과의 F1-score는 0.876 그리고 0.867로 그림자를 고려한 건물탐지 기법의 정확도가 더 높은 것을 확인할 수 있었다. 또한, 그림자를 이용한 건물탐지 결과를 바탕으로 제안한 3가지의 건물 변화탐지 제안기법 중 플랫폼의 방위각에 따른 객체 간의 방향을 고려한 방법의 F1-score가 0.891로 가장 높은 정확도를 보이는 것을 확인할 수 있었다.

KOMPSAT 정사모자이크 영상으로부터 U-Net 모델을 활용한 농촌위해시설 분류 (Semantic Segmentation of Hazardous Facilities in Rural Area Using U-Net from KOMPSAT Ortho Mosaic Imagery)

  • 공성현;정형섭;이명진;이광재;오관영;장재영
    • 대한원격탐사학회지
    • /
    • 제39권6_3호
    • /
    • pp.1693-1705
    • /
    • 2023
  • 국토 면적의 약 90%를 차지하는 농촌은 여러가지 공익적 기능을 수행하는 공간으로서 중요성과 가치가 증가하고 있지만 주거지 인근에 축사, 공장, 태양광패널 등 주민생활에 불편을 미치는 시설들이 무분별하게 들어서면서 농촌 환경과 경관이 훼손되고 주민 삶의 질이 낮아지고 있다. 농촌지역의 무질서한 개발을 방지하고 농촌 공간을 계획적으로 관리하기 위해서는 농촌지역 내 위해시설에 대한 탐지 및 모니터링이 필요하다. 주기적으로 취득 가능하고 전체 지역에 대한 정보를 얻을 수 있는 위성영상을 통해 데이터의 취득이 가능하고, 합성곱 신경망 기법을 통한 영상 기반 딥러닝 기술을 활용하여 효과적인 탐지가 가능하다. 따라서 본 연구에서는 의미적 분할(Semantic segmentation)에서 높은 성능을 보이는 U-Net 모델을 이용하여 농촌 지역에서 잠재적으로 위해시설이 될 수 있는 농촌시설을 분류하는 연구를 수행하였다. 본 연구에서는 2020년에 제작된 공간해상도 0.7 m의 KOMPSAT 정사모자이크 광학영상을 한국항공우주연구원으로부터 제공받아 사용하였으며 축사, 공장, 태양광 패널에 대한 AI 학습용 데이터를 직접 제작하여 학습 및 추론을 진행하였다. U-Net을 통해 학습시킨 결과 픽셀 정확도(pixel accuracy)는 0.9739, mean Intersection over Union (mIOU)은 0.7025의 값을 도출하였다. 본 연구 결과는 농촌 지역의 위험 시설물 모니터링에 활용될 수 있으며, 농촌계획 수립에 있어 기초 자료로 활용될 수 있을 것으로 기대된다.