• Title/Summary/Keyword: 훈련지역 취득기법

검색결과 8건 처리시간 0.028초

훈련지역의 취득방법 및 규모에 따른 JERS-1위성영상의 토지피복분류 정확도 평가 (Estimation of Classification Accuracy of JERS-1 Satellite Imagery according to the Acquisition Method and Size of Training Reference Data)

  • 하성룡;경천구;박상영;박대희
    • 한국지리정보학회지
    • /
    • 제5권1호
    • /
    • pp.27-37
    • /
    • 2002
  • 정량적인 토지피복도의 확보는 유역에 분포하는 비점오염원의 규명에 있어서 매우 중요한 과제로 인식되고 있다. 본 연구는 위성영상을 이용한 토지피복분류 과정에 있어서, 훈련지역의 취득방법 및 규모가 분류정확도에 미치는 영향을 JERS-1 OPS 위성영상을 기반으로 평가하였다. 전체 연구대상지역 중에서 0.3%, 0.5%, 1.0%를 훈련지역으로 추출함에 있어서 두 가지 기법을 제안하였다. 첫번째 기법은 해당지역에 대한 사전 지식을 갖춘 연구자가 훈련지역을 추출하였으며, 두번째 기법은 기하학적 보정을 행한 항공사진과 수치지도를 이용하여 훈련지역을 추출하였다. 영상의 토지피복 분류는 최대우도분류법을 이용하였다. 연구결과 사용자에 의한 훈련지역 취득기법보다 항공사진과 수치지도를 이용하여 훈련지역을 추출하여 최대우도분류법을 적용할 경우 전체정확도가 최대 18% 정도 향상하였다. 우리나라와 같이 복잡하고 다양한 토지이용을 가진 지형에서 JERS-1 영상을 이용하여 95%의 신뢰도를 얻기 위해서는 적어도 훈련지역을 전체지역의 약 1% 이상 추출하여야 만족할 만한 토지피복분류를 수행할 수 있었다.

  • PDF

훈련자료 내 재배지역의 비율에 따른 딥러닝 모델의 성능 평가 (Performance Evaluation of Deep Learning Model according to the Ratio of Cultivation Area in Training Data)

  • 성선경;최재완
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1007-1014
    • /
    • 2022
  • 차세대중형위성(Compact Advanced Satellite 500, CAS500)은 식생, 산림, 농업 등의 분야를 포함한 다양한 목적을 위하여 사용될 수 있으며, 다양한 영역에 대한 빠른 위성영상의 취득이 가능할 것으로 기대되고 있다. 차세대중형위성을 통하여 취득된 위성영상을 농업분야에서 활용하기 위해서는 위성영상 기반 작물재배지역 추출 기법에 대한 개발이 필요하다. 특히, 최근 들어 딥러닝 분야에 대한 연구가 활발해짐에 따라서, 작물재배지역 추출을 위한 딥러닝 모델의 개발 및 훈련자료 생성에 관한 연구가 필요한 실정이다. 본 연구에서는 PlanetScope 위성영상과 팜맵을 이용하여 합천군 지역의 양파 및 마늘 재배지역을 분류하고자 하였다. 특히, 효과적인 모델의 학습을 위하여 작물재배지역의 비율에 따른 모델 성능을 분석하고자 하였다. 실험에 사용한 딥러닝 모델은 Fully Convolutional Densely Connected Convolutional Network (FC-DenseNet)을 작물재배지역 분류의 목적에 맞도록 재구성하여 활용하였다. 실험결과, 훈련자료 내 작물재배지역의 비율이 딥러닝 모델의 성능에 영향을 미치는 것을 확인하였다.

Application of GIS Technique for Fire Drill in Hillside Area

  • Chung Yeong-Jin
    • Spatial Information Research
    • /
    • 제12권4호
    • /
    • pp.321-328
    • /
    • 2004
  • 본 연구는 PhotoModeler Pro를 이용하여 공간 정보를 자동적으로 추출하기 위한 기법에 관한 것이다. PhotoModeler Pro는 Windows시스템에서 개인용 컴퓨터 상에서 3차원 공간 정보를 취득할 수 있는 우수한 도구이나 스테레오 이미지를 자동적으로 병행하여 처리하는 데는 충분하지 않은 단점이 있다. 따라서 본 연구는 PhotoModeler Pro상에서 자동생성 프로그램과 DDE인터페이스를 이용한 스테레오 매칭 연구에 관한 것으로, 적용 지역은 사면과 계단이 많은 타테야마 지역(일본 나가사키 시)을 대상으로 하였다. 연구 대상 지역에 대한 자동 스테레오 매칭 결과 $100\%$의 적중률을 보였다.

  • PDF

SegNet과 U-Net을 활용한 동남아시아 지역 홍수탐지 (Extracting Flooded Areas in Southeast Asia Using SegNet and U-Net)

  • 김준우;전현균;김덕진
    • 대한원격탐사학회지
    • /
    • 제36권5_3호
    • /
    • pp.1095-1107
    • /
    • 2020
  • 홍수 발생 시 위성영상을 활용하여 침수된 지역을 추출하는 것은 홍수 발생 기간 내의 위성영상 취득과 영상에 나타난 침수구역의 정확한 분류 등에서 많은 어려움이 존재한다. 딥러닝은 전통적인 영상분류기법들에 비해 보다 정확도가 높은 위성영상분류기법으로 주목받고 있지만, 광학영상에 비해 홍수 발생 시 위성영상의 취득이 용이한 SAR 영상의 분류 잠재력은 아직 명확히 규명되지 않았다. 본 연구는 대표적인 의미론적 영상 분할을 위한 딥러닝 모델인 SegNet과 U-Net을 활용하여 동남아시아의 라오스, 태국, 필리핀의 대표적인 홍수 발생지역인 코랏 유역(Khorat basin), 메콩강 유역(Mekong river basin), 카가얀강 유역(Cagayan river basin)에 대해 Sentinel-1 A/B 위성영상으로부터 침수지역 추출을 실시하였다. 분석결과 침수지역 탐지에서 SegNet의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9847, 0.6016, 0.6467로 나타났으며, U-Net의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9937, 0.7022, 0.7125로 나타났다. 국지적 분류결과 확인을 위한 육안검증에서 U-Net이 SegNet에 비해 보다 높은 분류 정확도를 보여주었지만, 모델의 훈련에 필요한 시간은 67분 17초와 187분 19초가 각각 소요되어 SegNet이 U-Net에 비해 약 3배 정도 빠른 처리속도를 보여주었다. 본 연구의 결과는 향후 딥러닝 기법을 활용한 SAR 영상기반의 홍수탐지 모델과 실무적으로 활용이 가능한 자동화된 딥러닝 기반의 수계탐지 기법의 제시를 위한 중요한 참고자료로 활용될 수 있을 것으로 판단된다.

자동화된 훈련 자료를 활용한 Landsat-8 OLI 위성영상의 반복적 분광혼합모델 기반 무감독 분류 (Unsupervised Classification of Landsat-8 OLI Satellite Imagery Based on Iterative Spectral Mixture Model)

  • 최재완;노신택;최석근
    • 대한공간정보학회지
    • /
    • 제22권4호
    • /
    • pp.53-61
    • /
    • 2014
  • Landsat OLI 위성영상은 다양한 분광정보 밴드를 포함하고 있기 때문에, 토지피복지도 생성, 도심지역의 분석, 식생지수의 추출, 변화탐지 모니터링 등과 같은 다양한 원격탐사 분야에 활용할 수 있다. 또한, 토지피복지도는 GIS 및 국토 모니터링에 있어서 필수적인 정보이다. 본 연구에서는 Landsat OLI 위성과 기존의 토지피복지도를 활용하여 토지피복지도를 생성하고자 하였다. 이를 위해, 기존의 토지피복지도와 K-means 기법의 상관관계를 활용하여 훈련자료를 자동으로 생성하였으며, 생성된 훈련자료를 이용하여 각 클래스 별 분광 반사율 값을 추정하였다. 최종적으로, 반복적인 분광혼합분석을 통하여 각 클래스 별 점유 비율 영상과 토지피복지도를 생성하였다. 청주시 일대에 대한 토지피복지도와 Landsat OLI 위성영상을 활용한 실험을 수행하였으며, 감독분류 기법에 대한 결과 및 기존 토지피복지도와의 비교평가를 통하여 본 연구에서 제안된 기법이 수동으로 취득한 훈련자료가 없어도 효과적으로 토지피복지도를 생성할 수 있음을 정량적, 시각적으로 확인하였다.

전이학습과 딥러닝 네트워크를 활용한 고해상도 위성영상의 변화탐지 (Change Detection for High-resolution Satellite Images Using Transfer Learning and Deep Learning Network)

  • 송아람;최재완;김용일
    • 한국측량학회지
    • /
    • 제37권3호
    • /
    • pp.199-208
    • /
    • 2019
  • 운용 가능한 위성의 수가 증가하고 기술이 진보함에 따라 영상정보의 성과물이 다양해지고 많은 양의 자료가 축적되고 있다. 본 연구에서는 기구축된 영상정보를 활용하여 부족한 훈련자료의 문제를 극복하고 딥러닝(deep learning) 기법의 장점을 활용하고자 전이학습과 변화탐지 네트워크를 활용한 고해상도 위성영상의 변화탐지를 수행하였다. 본 연구에서 활용한 딥러닝 네트워크는 공간 및 분광 정보를 추출하는 합성곱 레이어(convolutional layer)와 시계열 정보를 분석하는 합성곱 장단기 메모리 레이어(convolutional long short term memory layer)로 구성되었으며, 고해상도 다중분광 영상에 최적화된 정보를 추출하기 위하여 커널(kernel)의 차원에 따른 정확도를 비교하였다. 또한, 학습된 커널 정보를 활용하기 위하여 변화탐지 네트워크의 초기 합성곱 레이어를 고해상도 항공영상인 ISPRS (International Society for Photogrammetry and Remote Sensing) 데이터셋에서 추출된 40,000개의 패치로 학습된 값으로 초기화하였다. 다시기 KOMPSAT-3A (KOrean Multi-Purpose SATllite-3A) 영상에 대한 실험 결과, 전이학습과 딥러닝 네트워크를 활용할 경우 기복 변위 및 그림자 등으로 인한 변화에 덜 민감하게 반응하며 분류 항목이 달라진 지역의 변화를 보다 효과적으로 추출할 수 있었으며, 2차원 커널보다 3차원 커널을 사용할 때 변화탐지의 정확도가 높았다. 3차원 커널은 공간 및 분광정보를 모두 고려하여 특징 맵(feature map)을 추출하기 때문에 고해상도 영상의 분류뿐만 아니라 변화탐지에도 효과적인 것을 확인하였다. 본 연구에서는 고해상도 위성영상의 변화탐지를 위한 전이학습과 딥러닝 기법의 활용 가능성을 제시하였으며, 추후 훈련된 변화탐지 네트워크를 새롭게 취득된 영상에 적용하는 연구를 수행하여 제안기법의 활용범위를 확장할 예정이다.

재난지역에서의 신속한 건물 피해 정도 감지를 위한 딥러닝 모델의 정량 평가 (Quantitative Evaluations of Deep Learning Models for Rapid Building Damage Detection in Disaster Areas)

  • 서준호;양병윤
    • 한국측량학회지
    • /
    • 제40권5호
    • /
    • pp.381-391
    • /
    • 2022
  • 본 연구는 AI 기법 중에 최근 널리 사용되고 있는 딥러닝 모델들을 비교하여 재난으로 인해 손상된 건물의 신속한 감지에 가장 적합한 모델을 선정하는 데 목적이 있다. 먼저, 신속한 객체감지에 적합한 1단계 기반 검출기 중 주요 딥러닝 모델인 SSD-512, RetinaNet, YOLOv3를 후보 모델로 선정하였다. 이 방법들은 1단계 기반 검출기 방식을 적용한 모델로서 객체 인식 분야에 널리 이용되고 있다. 이 모델들은 객체 인식 처리방식의 구조와 빠른 연산의 장점으로 인해 객체 인식 분야에 널리 사용되고 있으나 재난관리에서의 적용은 초기 단계에 머물러 있다. 본 연구에서는 피해감지에 가장 적합한 모델을 찾기 위해 다음과 같은 과정을 거쳤다. 먼저, 재난에 의한 건물의 피해 정도 감지를 위해 재난에 의해 손상된 건물로 구성된 xBD 데이터셋을 활용하여 초고해상도 위성영상을 훈련시켰다. 다음으로 모델 간의 성능을 비교·평가하기 위하여 모델의 감지 정확도와 이미지 처리속도를 정량적으로 분석하였다. 학습 결과, YOLOv3는 34.39%의 감지 정확도와 초당 46개의 이미지 처리속도를 기록하였다. RetinaNet은 YOLOv3보다 1.67% 높은 36.06%의 감지 정확도를 기록하였으나, 이미지 처리속도는 YOLOv3의 3분의 1에 그쳤다. SSD-512는 두 지표에서 모두 YOLOv3보다 낮은 수치를 보였다. 대규모 재난에 의해 발생한 피해 정보에 대한 신속하고 정밀한 수집은 재난 대응에 필수적이다. 따라서 본 연구를 통해 얻은 결과는 신속한 지리정보 취득이 요구되는 재난관리에 효과적으로 활용될 수 있을 것이라 기대한다.

기계학습을 이용한 광학 위성 영상 기반의 도시 내 수목 피복률 추정 (Estimation of Fractional Urban Tree Canopy Cover through Machine Learning Using Optical Satellite Images)

  • 배세정;손보경;성태준;이연수;임정호;강유진
    • 대한원격탐사학회지
    • /
    • 제39권5_3호
    • /
    • pp.1009-1029
    • /
    • 2023
  • 도시 수목은 탄소를 저장하고 불투수면적을 감소시키는 도시 생태계의 중요 요소이며, 탄소 저장량 및 순환량 산정 시 주요 정보로 활용될 수 있다. 많은 선행 연구에서 항공 라이다 자료 및 인공지능 기법을 활용하여 고해상도 수목 정보를 산출하고 있으나, 항공 라이다 영상은 제공하는 플랫폼이 제한되어 있으며 비용적인 면에서도 한계가 다수 존재한다. 따라서 본 연구에서는 수원시를 대상으로 자료 취득이 용이한 고해상도 위성 영상인 Sentinel-2를 활용하여 기계학습 기반의 도시 내 수목 피복률(fractional tree canopy cover, FTC)을 추정하고자 하였다. Sentinel-2 시계열 영상으로부터 중앙값 합성을 수행하여 수원시 전역에 대한 단일 영상을 제작하여 활용하였다. 도시 내 토지 피복의 이질성을 반영하기 위하여, 30 m 격자내 10 m 해상도의 광학 지수의 평균 및 표준편차 값과 환경부 세분류 토지 피복 지도 기반 항목별 피복률을 계산하여 기계학습 모델의 입력 변수로 활용하였다. 총 4가지의 입력 변수 조합을 설정하여, 입력 변수 구성에 따른 FTC 추정 정확도를 비교 및 평가하였다. 광학 영상의 평균 정보만을 활용(Scheme 1)했을 때 보다 도시 내 이질적인 특성을 반영할 수 있는 표준 편차 및 피복률 정보를 모두 함께 고려(Scheme 4, S4)했을 때 향상된 성능을 나타낼 수 있었다. 검증용 자료에 대해 S4의 Random Forest (RF) 모델이 0.8196의 R2, 0.0749의 mean absolute error (MAE), 및 0.1022의 root mean squared error (RMSE)로 전체 기계학습 모델 중에서 성능이 가장 높게 나타났다. 변수 기여도 분석 결과 광학 지수의 표준 편차 정보는 도시 내 복잡한 토지 피복 지역에 대해 높은 기여도를 나타내었다. 훈련된 S4 구성의 RF 모델을 수원시 전역에 대해 확장 적용하였을 때, 참조 FTC 자료에 대해 0.8702의 R2, 0.0873의 MAE, 및 0.1335의 RMSE의 우수한 성능을 나타냈다. 본 연구의 FTC 추정 기법은 향후 다른 지역에 대한 적용성이 우수할 것으로 판단되며, 도시 생태계 탄소순환 파악의 기초자료로 활용될 수 있을 것으로 기대된다.