• 제목/요약/키워드: Drone images

검색결과 200건 처리시간 0.02초

드론원격탐사 기반 SVM 알고리즘을 활용한 하천 피복 분류 모델 개발 (Development of Stream Cover Classification Model Using SVM Algorithm based on Drone Remote Sensing)

  • 정경수;고승환;이경규;박종화
    • 농촌계획
    • /
    • 제30권1호
    • /
    • pp.57-66
    • /
    • 2024
  • This study aimed to develop a precise vegetation cover classification model for small streams using the combination of drone remote sensing and support vector machine (SVM) techniques. The chosen study area was the Idong stream, nestled within Geosan-gun, Chunbuk, South Korea. The initial stage involved image acquisition through a fixed-wing drone named ebee. This drone carried two sensors: the S.O.D.A visible camera for capturing detailed visuals and the Sequoia+ multispectral sensor for gathering rich spectral data. The survey meticulously captured the stream's features on August 18, 2023. Leveraging the multispectral images, a range of vegetation indices were calculated. These included the widely used normalized difference vegetation index (NDVI), the soil-adjusted vegetation index (SAVI) that factors in soil background, and the normalized difference water index (NDWI) for identifying water bodies. The third stage saw the development of an SVM model based on the calculated vegetation indices. The RBF kernel was chosen as the SVM algorithm, and optimal values for the cost (C) and gamma hyperparameters were determined. The results are as follows: (a) High-Resolution Imaging: The drone-based image acquisition delivered results, providing high-resolution images (1 cm/pixel) of the Idong stream. These detailed visuals effectively captured the stream's morphology, including its width, variations in the streambed, and the intricate vegetation cover patterns adorning the stream banks and bed. (b) Vegetation Insights through Indices: The calculated vegetation indices revealed distinct spatial patterns in vegetation cover and moisture content. NDVI emerged as the strongest indicator of vegetation cover, while SAVI and NDWI provided insights into moisture variations. (c) Accurate Classification with SVM: The SVM model, fueled by the combination of NDVI, SAVI, and NDWI, achieved an outstanding accuracy of 0.903, which was calculated based on the confusion matrix. This performance translated to precise classification of vegetation, soil, and water within the stream area. The study's findings demonstrate the effectiveness of drone remote sensing and SVM techniques in developing accurate vegetation cover classification models for small streams. These models hold immense potential for various applications, including stream monitoring, informed management practices, and effective stream restoration efforts. By incorporating images and additional details about the specific drone and sensors technology, we can gain a deeper understanding of small streams and develop effective strategies for stream protection and management.

A Study on the Analysis of the Current Situation of the Target Site Using the Image of Unmanned Aircraft in the Environmental Impact Assessment

  • Ki-Sun Song;Sun-Jib Kim
    • International Journal of Advanced Culture Technology
    • /
    • 제11권2호
    • /
    • pp.381-388
    • /
    • 2023
  • Small-scale environmental impact assessments have limitations in terms of survey duration and evaluation resources, which can hinder the assessment and analysis of the current situation. In this study, we propose the use of drone technology during the environmental impact assessment process to supplement these limitations in the current situation analysis. Drone photography can provide rapid and accurate high-resolution images, allowing for the collection of various information about the target area. This information can include different types of data such as terrain, vegetation, landscape, and real-time 3D spatial information, which can be collected and processed using GIS software to understand and analyze the environmental conditions. In this study, we confirmed that terrain and vegetation analysis and prediction of the target area using drone photography and GIS analysis software is possible, providing useful information for environmental impact assessments.

드론 영상 종합정보처리 및 분석용 시스템 개발 (Integrated Video Analytics for Drone Captured Video)

  • 임송원;조성만;박구만
    • 방송공학회논문지
    • /
    • 제24권2호
    • /
    • pp.243-250
    • /
    • 2019
  • 본 논문에서는 다양한 재난치안안전 임무 상황에서 적용할 수 있는 드론 영상 종합정보 처리 및 분석용 시스템을 제안한다. 제안하는 시스템은 드론에서 획득한 영상을 서버에 저장하고, 다양한 시나리오에 따른 영상 처리 및 분석을 수행한다. 각 임무에 따라 필요한 기능은 딥러닝을 활용하여 드론으로부터 확보하는 영상에서 영상분석 시스템을 구성한다. 실험 영상을 통해 교통량 측정, 용의자 및 차량 추적, 조난자 식별 및 해상 초계 임무에 적용할 수 있음을 확인했다. 드론 운용자가 임무에 따른 필요 기능을 선택하고 신속하게 대처할 수 있는 시스템을 구현하였다.

드론 영상을 이용한 딥러닝 기반 회전 교차로 교통 분석 시스템 (Deep Learning-Based Roundabout Traffic Analysis System Using Unmanned Aerial Vehicle Videos)

  • 이장훈;황윤호;권희정;최지원;이종택
    • 대한임베디드공학회논문지
    • /
    • 제18권3호
    • /
    • pp.125-132
    • /
    • 2023
  • Roundabouts have strengths in traffic flow and safety but can present difficulties for inexperienced drivers. Demand to acquire and analyze drone images has increased to enhance a traffic environment allowing drivers to deal with roundabouts easily. In this paper, we propose a roundabout traffic analysis system that detects, tracks, and analyzes vehicles using a deep learning-based object detection model (YOLOv7) in drone images. About 3600 images for object detection model learning and testing were extracted and labeled from 1 hour of drone video. Through training diverse conditions and evaluating the performance of object detection models, we achieved an average precision (AP) of up to 97.2%. In addition, we utilized SORT (Simple Online and Realtime Tracking) and OC-SORT (Observation-Centric SORT), a real-time object tracking algorithm, which resulted in an average MOTA (Multiple Object Tracking Accuracy) of up to 89.2%. By implementing a method for measuring roundabout entry speed, we achieved an accuracy of 94.5%.

개방형 다중 데이터셋을 활용한 Combined Segmentation Network 기반 드론 영상의 의미론적 분할 (Semantic Segmentation of Drone Images Based on Combined Segmentation Network Using Multiple Open Datasets)

  • 송아람
    • 대한원격탐사학회지
    • /
    • 제39권5_3호
    • /
    • pp.967-978
    • /
    • 2023
  • 본 연구에서는 다양한 드론 영상 데이터셋을 효과적으로 학습하여 의미론적 분할의 정확도를 향상시키기 위한 combined segmentation network (CSN)를 제안하고 검증하였다. CSN은 세 가지 드론 데이터셋의 다양성을 고려하기 위하여 인코딩 영역의 전체를 공유하며, 디코딩 영역은 독립적으로 학습된다. CSN의 경우, 학습 시 모든 데이터셋에 대한 손실값을 고려하기 때문에 U-Net 및 pyramid scene parsing network (PSPNet)으로 단일 데이터셋을 학습할 때보다 학습 효율이 떨어졌다. 그러나 국내 자율주행 드론 영상에 CSN을 적용한 결과, CSN이 PSPNet에 비해 초기 학습 없이도 영상 내 화소를 적절한 클래스로 분류할 수 있는 것을 확인하였다. 본 연구를 통하여 CSN이 다양한 드론 영상 데이터셋을 효과적으로 학습하고 새로운 지역에 대한 객체 인식 정확성을 향상시키는 데 중요한 도구로써 활용될 수 있을 것으로 기대할 수 있다.

벼 도열병 발생 탐지 및 확산 모니터링을 위한 기상자료, 위성영상, 드론영상의 공동 활용 (Utilization of Weather, Satellite and Drone Data to Detect Rice Blast Disease and Track its Propagation)

  • 류재현;안호용;이경도
    • 한국농림기상학회지
    • /
    • 제25권4호
    • /
    • pp.245-257
    • /
    • 2023
  • 우리나라 대표적인 식량 작물인 벼는 넓은 면적에서 장기간 재배되어 병해충에 대한 저항성이 낮아지고 있다. 대표적인 벼 질병 중 하나인 도열병이 대규모로 발생하면 수확량이 감소하여 조기에 병을 발견하고 방제를 하여야 한다. 하지만 농지 중심에서 도열병이 발생 하면 육안으로 병을 발견하기 어렵다. 드론을 이용한 작물 모니터링 기법은 생육 이상을 탐지하는데 유용하나 언제 발생할지 모르는 도열병 발생을 위해 빈번하게 촬영을 하는 것은 많은 인력과 비용이 소모된다. 본 연구의 목적은 드론, 위성과 같은 원격탐사 자료와 기상자료를 공동 활용하여 벼 도열병을 조기에 탐지하는 것이다. 위성영상은 벼 재배 필지를 추출하는데 유용하였다. 식생지수와 수분지수의 특성을 이용하여 관개가 된 논을 효과적으로 탐지하였다. 이후 기온, 상대습도, 강우일수 자료를 활용하여 벼 도열병 발생위험도를 계산하였다. 도열병 발생위험도가 증가하면 병이 발생할 가능성이 높아진다는 것을 의미하며, 해당 시점에 드론 관측을 수행하였다. 병이 발생한 지점, 병이 발생한 지점과 일반 벼가 혼재되어 있는 지점, 일반 벼 지점에서 분광반사도의 변화를 살펴보았으며, 갈색 병반을 가지는 도열병 특성상 적색과 근적외선 파장대에서 분광반사도의 변화가 급격한 것을 확인하였다. 도열병이 발생한 지점에서는 주변 지점에 비해 식생지수 값이 낮은 군집이 나타났으며, 시계열 드론 영상을 통해 해당 지점으로부터 벼 도열병 확산을 추적하였다. 최종적으로 수확 전 드론 영상을 활용하여 필지별 도열병 발생률에 대한 공간정보를 생산하였다.

위성 및 드론 영상을 이용한 해안쓰레기 모니터링 기법 개발 (Development of Marine Debris Monitoring Methods Using Satellite and Drone Images)

  • 김흥민;박수호;한정익;예건희;장선웅
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1109-1124
    • /
    • 2022
  • 본 연구에서는 단시간 내 광범위한 지역에 대한 해양쓰레기 발생 실태 파악이 가능하도록 위성 및 드론다중분광 영상을 이용한 해안쓰레기 모니터링 기법을 제안한다. Sentinel-2 위성 영상을 이용한 해안쓰레기 탐지를 위해 multi-layer perceptron (MLP) 모델을 적용하였고, 드론 다중분광 영상을 이용한 해안쓰레기 탐지를 위해 딥러닝 모델 중 U-Net, DeepLabv3+ (ResNet50), DeepLabv3+ (Inceptionv3)의 탐지 성능평가 및 비교를 수행하였다. 위성 영상을 이용한 해안쓰레기 탐지 결과 F1-Score 0.97을 보였다. 드론 다중분광 영상을 이용한 해안쓰레기 탐지는 초목류와 플라스틱류에 대한 탐지를 수행하였고, 탐지 결과 DeepLabv3+ (Inceptionv3) 모델이 mean Intersection over Union (mIoU) 0.68로 가장 우수한 성능을 보였다. 초목류는 F1-Score 0.93, IoU는 0.86을 보인 반면에 플라스틱류의 F1-Score 0.5, IoU는 0.33으로 낮은 성능을 보였다. 그러나 플라스틱류 마스크 영상 생성을 위해 적용된 분광 지수식의 F1-Score는 0.81로 DeepLabv3+ (Inceptionv3)의 플라스틱류 탐지 성능보다 높은 성능을 보이며, 분광 지수식을 이용한 플라스틱류 모니터링이 가능할 것으로 판단된다. 본 연구에서 제안된 해안쓰레기 모니터링 기법을 통해 해안쓰레기 발생에 대한 정량적 자료 제공과 더불어 해안쓰레기 수거·처리 계획 수립에 활용할 수 있다.

드론 다중분광영상과 컴퓨터 비전 기술을 이용한 배추 객체 탐지 알고리즘 개발 (Development of Chinese Cabbage Detection Algorithm Based on Drone Multi-spectral Image and Computer Vision Techniques)

  • 류재현;한중곤;안호용;나상일;이병모;이경도
    • 대한원격탐사학회지
    • /
    • 제38권5_1호
    • /
    • pp.535-543
    • /
    • 2022
  • 농업분야에서 드론을 활용하여 작물의 생육을 진단하고 정보를 영상으로 제공하고 있다. 들녘 단위에 대한 고해상도 드론 영상을 활용하는 경우 객체별 생육정보를 생산할 수 있으나 정확하게 작물을 탐지하고 인접한 객체를 효율적으로 구분하기 위한 작업이 요구된다. 본 연구에서는 작물 객체를 탐지하고 위치 정보를 추출하는 알고리즘을 개발하는 것이 목적이다. 드론 다중분광영상과 컴퓨터 비전 기술을 활용하여 객체 탐지를 위한 알고리즘을 개발하였으며, 대상 작물은 가을배추로 선정하였다. 2018년~2020년까지 가을배추를 대상으로 정식 후 7일~15일 사이의 드론 영상을 취득하였으며, 2019년 영상 기반으로 객체 탐지 알고리즘을 개발한 뒤 2018년, 2020년 영상을 기반으로 알고리즘 평가를 수행하였다. 분광반사도 기반 지수와 식생의 분광반사도 특성을 고려하여 식생 지역을 추출하였다. 이후 추출된 식생 지역에서 객체의 크기를 고려하여 팽창(Dilatation), 침식(Erosion), 이미지 분할 등과 같은 모폴로지(Morphology) 기법을 통해 객체 탐지 정확도를 향상시켰다. 개발된 객체 탐지 알고리즘의 정밀도는 95.19% 이상이었으며, 재현율과 정확도는 각각 95.4%, 93.68% 이상이었다. 객체 탐지 알고리즘의 F1-Score는 0.967 이상으로 나타났다. 본 연구에서 개발한 알고리즘을 이용하여 추출된 배추 객체 중심에 대한 위치 정보는 작물의 재배시기에 따라 영농단계별 의사결정 정보를 제공하기 위한 자료로써 활용될 것이다.

드론 영상으로부터 월동 작물 분류를 위한 의미론적 분할 딥러닝 모델 학습 최적 공간 해상도와 영상 크기 선정 (The Optimal GSD and Image Size for Deep Learning Semantic Segmentation Training of Drone Images of Winter Vegetables)

  • 정동기;이임평
    • 대한원격탐사학회지
    • /
    • 제37권6_1호
    • /
    • pp.1573-1587
    • /
    • 2021
  • 드론 영상은 위성이나 항공 영상보다 공간 해상도가 수배 혹은 수십 배가 높은 초고해상도 영상이다. 따라서 드론 영상 기반의 원격탐사는 영상에서 추출하고자 하는 객체의 수준과 처리해야 하는 데이터의 양이 전통적인 원격탐사와 다른 양상을 보인다. 또한, 적용되는 딥러닝(deep learning) 모델의 특성에 따라 모델 훈련에 사용되는 최적의 데이터의 축척과 크기가 달라질 수밖에 없다. 하지만 대부분 연구가 찾고자 하는 객체의 크기, 축척을 반영하는 영상의 공간 해상도, 영상의 크기 등을 고려하지 않고, 관성적으로 적용하고자 하는 모델에서 기존에 사용했던 데이터 명세를 그대로 적용하는 경우가 많다. 본 연구에서는 드론 영상의 공간 해상도, 영상 크기가 6가지 월동채소의 의미론적 분할(semantic segmentation) 딥러닝 모델의 정확도와 훈련 시간에 미치는 영향을 실험 통해 정량적으로 분석하였다. 실험 결과 6가지 월동채소 분할의 평균 정확도는 공간 해상도가 증가함에 따라 증가하지만, 개별 작물에 따라 증가율과 수렴하는 구간이 다르고, 동일 해상도에서 영상의 크기에 따라 정확도와 시간에 큰 차이가 있음을 발견하였다. 특히 각 작물에 따라 최적의 해상도와 영상의 크기가 다름을 알 수 있었다. 연구성과는 향후 드론 영상 데이터를 이용한 월동채소 분할 모델을 개발할 때, 드론 영상의 촬영과 학습 데이터의 제작 효율성 확보를 위한 자료로 활용할 수 있을 것이다.

드론영상과 YOLOv7x 모델을 이용한 활성산불 객체탐지 (Detection of Active Fire Objects from Drone Images Using YOLOv7x Model)

  • 박강현;강종구;최소연;윤유정;김근아;이양원
    • 대한원격탐사학회지
    • /
    • 제38권6_2호
    • /
    • pp.1737-1741
    • /
    • 2022
  • 고해상도 드론영상과 딥러닝 기술을 결합한 활성산불 감시는 이제 초기단계로 다방면의 연구개발을 필요로 한다. 이 단보에서는 드론영상 산불탐지에 아직 사용되지 않았던 state-of-the-art (SOTA) 모델인 You Only Look Once Version 7 (YOLOv7) 기반의 활성산불 객체탐지를 수행하였으며, 동일한 데이터셋을 사용한 선행연구에 비해 F1점수가 약 0.05 향상된 성과를 거두었다. 향후 우리나라에서도 광역적인 산불감시에 적용될 수 있도록 추가적인 기술 개발이 계속 필요할 것이다.