• 제목/요약/키워드: Aerial images

검색결과 699건 처리시간 0.025초

Automatic Change Detection Using Unsupervised Saliency Guided Method with UAV and Aerial Images

  • Farkoushi, Mohammad Gholami;Choi, Yoonjo;Hong, Seunghwan;Bae, Junsu;Sohn, Hong-Gyoo
    • 대한원격탐사학회지
    • /
    • 제36권5_3호
    • /
    • pp.1067-1076
    • /
    • 2020
  • In this paper, an unsupervised saliency guided change detection method using UAV and aerial imagery is proposed. Regions that are more different from other areas are salient, which make them more distinct. The existence of the substantial difference between two images makes saliency proper for guiding the change detection process. Change Vector Analysis (CVA), which has the capability of extracting of overall magnitude and direction of change from multi-spectral and temporal remote sensing data, is used for generating an initial difference image. Combined with an unsupervised CVA and the saliency, Principal Component Analysis(PCA), which is possible to implemented as the guide for change detection method, is proposed for UAV and aerial images. By implementing the saliency generation on the difference map extracted via the CVA, potentially changed areas obtained, and by thresholding the saliency map, most of the interest areas correctly extracted. Finally, the PCA method is implemented to extract features, and K-means clustering is applied to detect changed and unchanged map on the extracted areas. This proposed method is applied to the image sets over the flooded and typhoon-damaged area and is resulted in 95 percent better than the PCA approach compared with manually extracted ground truth for all the data sets. Finally, we compared our approach with the PCA K-means method to show the effectiveness of the method.

인터넷 항공영상의 왜곡보정과 실감적 3차원 건물 모델링 (Correction of Geometric Distortion of Internet Aerial Imagery and Photo-Realistic 3D Building Modeling)

  • 이동천
    • 한국측량학회지
    • /
    • 제29권6호
    • /
    • pp.687-695
    • /
    • 2011
  • 국내외의 많은 인터넷 포털 사이트는 지도 및 공간정보 서비스를 제공하고 있으며, 최근에는 지도뿐만 아니라 항공 및 위성영상, 거리영상, 실감적 3차원 도시공간모델 등 다양한 영상정보를 함께 제공하고 있다. 본 연구에서는 인터넷 지도 서비스에서 제공하는 파노라마 항공영상에 발생하는 왜곡을 보정하고, 입체영상으로부터 수치도화를 수행하여 3차원 건물 모델링을 용이하게 수행하는 방법을 제안하였다. 본 논문은 누구나 쉽게 접할 수 있는 인터넷 지도로부터 기준점 좌표를 획득하고, 이를 이용하여 인터넷에서 제공하는 항공영상과 지상사진을 이용하여 실사 객체 모델링을 가능하게 하였다는데 의의를 두고 있다. 도화에 필요한 기준점과 같은 데이터들이 인터넷에서 획득한 자료라는 점을 감안하면 높은 정확도를 요구하는 경우에 적용하기에는 한계가 있다. 수치도화 RMSE는 약 9m 이며, 좌표변환식을 이용하여 4m 정도로 향상시킬 수 있었다. 그러므로 높은 정밀도가 요구되지 않는 분야에서는 영상과 필요한 데이터 획득에 제약을 받지 않고 지형지물들을 용이하게 실감적으로 모델링할 수 있는 장점이 있다.

딥러닝 기반의 식생 모니터링 가능성 평가 (Evaluation of the Feasibility of Deep Learning for Vegetation Monitoring)

  • 김동우;손승우
    • 한국환경복원기술학회지
    • /
    • 제26권6호
    • /
    • pp.85-96
    • /
    • 2023
  • This study proposes a method for forest vegetation monitoring using high-resolution aerial imagery captured by unmanned aerial vehicles(UAV) and deep learning technology. The research site was selected in the forested area of Mountain Dogo, Asan City, Chungcheongnam-do, and the target species for monitoring included Pinus densiflora, Quercus mongolica, and Quercus acutissima. To classify vegetation species at the pixel level in UAV imagery based on characteristics such as leaf shape, size, and color, the study employed the semantic segmentation method using the prominent U-net deep learning model. The research results indicated that it was possible to visually distinguish Pinus densiflora Siebold & Zucc, Quercus mongolica Fisch. ex Ledeb, and Quercus acutissima Carruth in 135 aerial images captured by UAV. Out of these, 104 images were used as training data for the deep learning model, while 31 images were used for inference. The optimization of the deep learning model resulted in an overall average pixel accuracy of 92.60, with mIoU at 0.80 and FIoU at 0.82, demonstrating the successful construction of a reliable deep learning model. This study is significant as a pilot case for the application of UAV and deep learning to monitor and manage representative species among climate-vulnerable vegetation, including Pinus densiflora, Quercus mongolica, and Quercus acutissima. It is expected that in the future, UAV and deep learning models can be applied to a variety of vegetation species to better address forest management.

무인기 영상 병합을 위한 밝기값 보정 방법 개발 (Development of Brightness Correction Method for Mosaicking UAV Images)

  • 반승환;김태정
    • 대한원격탐사학회지
    • /
    • 제37권5_1호
    • /
    • pp.1071-1081
    • /
    • 2021
  • 무인기 원격탐사는 기존의 항공 및 위성 원격탐사보다 사용자가 원하는 시간에 높은 공간해상도의 영상을 취득하여 처리할 수 있다. 무인기 영상은 낮은 고도로 촬영되어 영상 한 장이 포괄하는 영역이 상대적으로 좁기 때문에 넓은 영역을 모니터링 하기 위해서는 다수의 영상을 병합하여 한 장의 영상으로 만드는 과정이 필요하다. 그러나 다수의 무인기 영상은 각각 다른 노출 조건에 의해 촬영되기 때문에 인접 영상 간에 밝기 값 차이가 존재하여 영상 병합시에 영상 접합선 부분에서 밝기 값이 대비되는 부자연스러운 병합영상을 생성하게 된다. 따라서 자연스러운 병합 영상 생성을 위해서는 영상간 밝기 값 차이를 보정해주고 접합선에 의한 효과를 제거하는 처리 과정이 필수적이다. 본 논문에서는 상대방사보정을 통해 인접 영상간 밝기 값이 대비되는 현상을 해결하고, 영상 블렌딩 기법을 적용하여 밝기 접합선을 제거할 수 있는 방안을 제시하였다. 제안된 방안의 성능 분석을 위해 두개의 데이터셋에 대한 병합영상을 생성하여 원본 병합영상과 비교하였다. 비교결과 중첩영역에서의 밝기 값 차이가 5, 제곱근에러가 7 부근의 차이를 보여 기존 방식 대비 우수한 제안 방법의 성능을 확인하였다.

항공영상과 라이다데이터의 기하학적 정합을 위한 외부표정요소의 조정 (Adjustment of Exterior Orientation Parameters Geometric Registration of Aerial Images and LIDAR Data)

  • 홍주석;이임평
    • 한국측량학회지
    • /
    • 제27권5호
    • /
    • pp.585-597
    • /
    • 2009
  • 본 연구는 항공다중센서시스템으로부터 동시에 취득되는 항공영상과 라이다데이터 사이에 존재하는 기하학적 불일치를 제거하는 정합 방법의 개발을 목표로 한다. 제안된 방법은 크게 정합요소의 추출, 정합요소간의 상호일치성 수립, 영상외부표정요소의 조정계산으로 구성된다. 정합요소로써 라이다데이터로부터 평면패치와 교면에지를 항공영상으로부터 객체점과 연결에지를 추출한다. 추출된 정합요소를 수평 및 수직요소로 구분하여 상호일치성을 수립한다. 이를 광속조정번에 확률제약조건으로 적용하며 외부표정요소를 정밀하게 조정한다. 제안된 방법을 실측 데이터에 적용한 결과에 따르면 외부표정요소 중에 자세변수에 대한 의미 있는 조정이 이루어졌으며, 조정에 사용된 대상객체에 존재하던 최대 2m 정도의 기하학적 불일치가 조정 후에 약 2cm 정도로 크게 감소된 것으로 분석되었다. 본 연구의 결과는 특히 도시지역의 고품질의 3차원 공간정보를 생성하기 위한 데이터 융합에 크게 기여할 것으로 판단된다.

무인비행체 영상을 활용한 벼 수량 분포 추정 (Estimation of Rice Grain Yield Distribution Using UAV Imagery)

  • 이경도;안호용;박찬원;소규호;나상일;장수용
    • 한국농공학회논문집
    • /
    • 제61권4호
    • /
    • pp.1-10
    • /
    • 2019
  • Unmanned aerial vehicle(UAV) can acquire images with lower cost than conventional manned aircraft and commercial satellites. It has the advantage of acquiring high-resolution aerial images covering in the field area more than 50 ha. The purposes of this study is to develop the rice grain yield distribution using UAV. In order to develop a technology for estimating the rice yield using UAV images, time series UAV aerial images were taken at the paddy fields and the data were compared with the rice yield of the harvesting area for two rice varieties(Singdongjin, Dongjinchal). Correlations between the vegetation indices and rice yield were ranged from 0.8 to 0.95 in booting period. Accordingly, rice yield was estimated using UAV-derived vegetation indices($R^2=0.70$ in Sindongjin, $R^2=0.92$ in Donjinchal). It means that the rice yield estimation using UAV imagery can provide less cost and higher accuracy than other methods using combine with yield monitoring system and satellite imagery. In the future, it will be necessary to study a variety of information convergence and integration systems such as image, weather, and soil for efficient use of these information, along with research on preparing management practice work standards such as pest control and nutrient use based on UAV image information.

무인기 기반 영상과 SVM 모델을 이용한 가을수확 작물 분류 - 충북 괴산군 이담리 지역을 중심으로 - (Classification of Fall Crops Using Unmanned Aerial Vehicle Based Image and Support Vector Machine Model - Focusing on Idam-ri, Goesan-gun, Chungcheongbuk-do -)

  • 정찬희;고승환;박종화
    • 농촌계획
    • /
    • 제28권1호
    • /
    • pp.57-69
    • /
    • 2022
  • Crop classification is very important for estimating crop yield and figuring out accurate cultivation area. The purpose of this study is to classify crops harvested in fall in Idam-ri, Goesan-gun, Chungcheongbuk-do by using unmanned aerial vehicle (UAV) images and support vector machine (SVM) model. The study proceeded in the order of image acquisition, variable extraction, model building, and evaluation. First, RGB and multispectral image were acquired on September 13, 2021. Independent variables which were applied to Farm-Map, consisted gray level co-occurrence matrix (GLCM)-based texture characteristics by using RGB images, and multispectral reflectance data. The crop classification model was built using texture characteristics and reflectance data, and finally, accuracy evaluation was performed using the error matrix. As a result of the study, the classification model consisted of four types to compare the classification accuracy according to the combination of independent variables. The result of four types of model analysis, recursive feature elimination (RFE) model showed the highest accuracy with an overall accuracy (OA) of 88.64%, Kappa coefficient of 0.84. UAV-based RGB and multispectral images effectively classified cabbage, rice and soybean when the SVM model was applied. The results of this study provided capacity usefully in classifying crops using single-period images. These technologies are expected to improve the accuracy and efficiency of crop cultivation area surveys by supplementing additional data learning, and to provide basic data for estimating crop yields.

수치항공사진으로부터 소형건물의 지붕 경계 추출 (Extracting Roof Edges of Small Buildings from Digital Aerial Photographs)

  • 이진덕;방건준;김성훈;이규달
    • 한국콘텐츠학회논문지
    • /
    • 제14권5호
    • /
    • pp.425-435
    • /
    • 2014
  • 항공사진이나 위성영상으로부터 건물, 도로 등과 같은 인공지물을 추출하기 위한 연구가 활발히 수행되어 왔으며, 최근 수치항공사진의 해상도가 크게 개선됨에 따라 인공지물 추출 시 종종 원치 않는 잡영들이 검출되곤 한다. 본 연구에서는 이러한 잡영 문제를 보완하고 필요로 하는 대상물을 추출해 내기 위한 목적으로 알고리즘을 개발하였다. 이 알고리즘은 RGB영상의 채널을 분리하고 채널간의 차연산을 수행한 후 각 결과를 이진화하고 잡영제거 및 형태복원을 통하여 경계를 추출하도록 구성되었다. 경계 검출을 수행하기에 앞서 실험에 사용될 수치항공칼라사진에 대하여 광속조정, 수치지형모형 추출, 수치정사사진 생성 및 모자이크 작업 등의 사전처리 과정을 거쳤으며, 이렇게 하여 얻어진 수치정사사진 상에서 소형건물의 지붕경계를 본 연구에서 개발한 알고리즘을 사용하여 추출하였다. 또한 지붕경계 추출 결과를 종래의 방법으로 얻어진 결과와 비교함으로써 알고리즘의 타당성이 입증될 수 있었다.

영상분할기법을 이용한 수치항공영상 해석에 관한 연구 (A STUDY ON THE ANALYSIS OF DIGITAL AERIAL PHOTO USING IMAGE SEGMENTATION)

  • 권현;이현직;박효근
    • 대한공간정보학회지
    • /
    • 제2권2호
    • /
    • pp.131-142
    • /
    • 1994
  • 현재 지형공간정보체계의 기본지도 자료 층을 생성하는 방법으로 기존도면을 수치화 하는 방법과 감지기로부터 영상을 취득하여 전산기로 자료편집을 하는 해석도화방법이 사용되고 있다. 그러나, 해석도화방법과 기존도면을 디지타이징하는 방법은 기술적으로 훨씬 복잡하고, 사용장비 및 작업공정면에서 많은 비용과 시간이 소요되는 단점을 가진다. 본 연구에서는 광양지역을 촬영한 항공사진에서 주거지와 교외의 농경지로 구분하여 대상지역을 선정하였으며, 항공사진 촬영축척은 1/6,000이었다. 항공사진을 스캐너로 주사하여 수치항공영상을 생성한 후, 히스토그램 균등화의 영상처리기법을 적용하여 영상의 질을 개선하고, 개선된 영상에 임케값 방법과 경계추출기법을 적용하므로써 지형공간정보체계 자료기반의 자료층을 자동갱신하는 방법을 개발하였다. 또한, 영상분할기법을 이용하여 얻은 영상, 원 영상 및 히스토그램의 처리결과로 얻은 영상의 특성들을 비교 분석하였다. 본 연구를 통한 영상분할기법으로 지형공간정보체계의 자료기반에 관한 자료층 제작의 연산법을 정립하므로써 지형공간정보체계를 신속하고 경제적으로 처리할 수 있음을 입증할 수 있었다.

  • PDF

LIDAR 데이터와 수치항공사진을 이용한 건물 자동추출 (Automatic Building Extraction Using LIDAR and Aerial Image)

  • 정재욱;장휘정;김유석;조우석
    • 대한공간정보학회지
    • /
    • 제13권3호
    • /
    • pp.59-67
    • /
    • 2005
  • 도시지역의 대부분을 차지하는 건물에 대한 3차원 공간정보는 지도제작뿐 아니라 무선 통신망 설계, 카 내비게이션, 가상도시 구축 등에 근간이 되는 주요 정보이다. 대표적인 수동센서(passive sensor)로부터 얻어진 수치항공사진은 높은 수평 위치정확도를 가지는 반면 중심투영과 폐색지역에 의한 원천적인 문제로 인하여 자동화 과정이 어렵다. 반면 능동센서인 LIDAR 시스템은 지표면에 대한 비정규 점군 형태의 3차원 정보를 빠르고 정확하게 제공한다. 하지만 데이터 취득 특성상 건물의 외곽선과 같은 정보의 획득에는 어려움이 있다. 본 연구에서는 수치항공사진과 LIDAR 데이터를 용합하여 건물의 외곽선을 자동으로 추출하는 방법을 제안하였다. 실험 결과 본 연구에서 제안한 방법은 복잡한 형태의 건물의 외곽선 추출에 우수한 결과를 보여주었으며, LIDAR 데이터와 수치항공사진을 이용해 건물을 자동으로 추출할 수 있는 가능성을 제시하였다.

  • PDF