• 제목/요약/키워드: UAV images

검색결과 291건 처리시간 0.022초

드론 항공영상을 이용한 딥러닝 기반 앙상블 토지 피복 분할 알고리즘 개발 (Development of Deep Learning Based Ensemble Land Cover Segmentation Algorithm Using Drone Aerial Images)

  • 박해광;백승기;정승현
    • 대한원격탐사학회지
    • /
    • 제40권1호
    • /
    • pp.71-80
    • /
    • 2024
  • 이 연구에서는 무인 항공기(Unmanned Aerial Vehicle, UAV)가 캡처한 이미지의 의미론적 토지 피복 분할 성능을 향상시키기 위한 앙상블 학습 기법을 제안하고 있다. 도시 계획과 같은 분야에서 UAV 사용이 증가함에 따라 토지 피복 분할을 위한 딥러닝 분할 방법을 활용한 기술 개발이 활발히 이루어지고 있다. 이 연구는 대표적인 분할 모델인 U-Net, DeepLabV3 그리고 Fully Convolutional Network (FCN)를 사용하여 분할 예측 성능을 개선하는 방법을 제안한다. 제안된 접근 방식은 세 가지 분할 모델의 훈련 손실, 검증 정확도 및 클래스별 점수를 통합하여 앙상블 모델을 개발하고 전반적인 예측 성능을 향상시킨다. 이 방법은 건물, 도로, 주차장, 논, 밭, 나무, 빈 공간, 미분류 영역을 포함하는 일곱 가지 클래스가 있는 토지 피복 분할 문제에 적용하여 평가하였다. 앙상블 모델의 성능은 mean Intersection over Union (mIoU)으로 평가하였으며, 제안된 앙상블 모델과 기존의 세 가지 분할 방법을 비교한 결과 mIoU 성능이 향상되었음이 나타났다. 따라서 이 연구는 제안된 기술이 의미론적 분할 모델의 성능을 향상시킬 수 있음을 확인하였다.

다중센서를 이용한 해안선의 정량적 변화 추정: 방아머리 해빈을 중심으로 (Quantitative Estimation of Shoreline Changes Using Multi-sensor Datasets: A Case Study for Bangamoeri Beaches)

  • 윤공현;송영선
    • 대한원격탐사학회지
    • /
    • 제35권5_1호
    • /
    • pp.693-703
    • /
    • 2019
  • 해안지형의 자료는 장기간 해안선의 공간적 및 시간적 변화를 해석하는데 중요한 자료이다. 특히 누적된 자료를 분석하여 해빈지역의 해안침식 또는 퇴적의 추이를 이해하는 것은 향후 연안지역 관리의 측면에서 필수적이다. 본 논문에서는 경기도 안산시에 위치하고 있는 방아머리 해빈을 대상으로 2009년, 2018년, 2019년에 각각 취득된 디지탈 항공영상, 지상 레이져스캐닝 자료 그리고 드론촬영 영상과 국립해양조사원의 조위관측 자료를 이용하여 약 10년 동안의 해안선 변화를 정량적으로 분석하였다. 본 연구의 처리 과정에서는 사진측량학적 기법을 적용하여 2009년의 스테레오 영상으로부터 4.40 m인 해안선을 입체도화 방식으로 추출하였다. 2018년도에는 레이져스캐너로부터 취득한 원자료를 이용하여 수치표고모형을 생성하고 해당되는 해안선을 반자동으로 추출하였다. 2019년도에는 드론영상으로부터 수치표고모형을 생성하여 해안선을 추출하였고 3개년도의 해안선을 이용하여 해안선의 변화율을 산정하였고 정성적으로 분석하였다.

Combined Static and Dynamic Platform Calibration for an Aerial Multi-Camera System

  • Cui, Hong-Xia;Liu, Jia-Qi;Su, Guo-Zhong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권6호
    • /
    • pp.2689-2708
    • /
    • 2016
  • Multi-camera systems which integrate two or more low-cost digital cameras are adopted to reach higher ground coverage and improve the base-height ratio in low altitude remote sensing. To guarantee accurate multi-camera integration, the geometric relationship among cameras must be determined through platform calibration techniques. This paper proposed a combined two-step platform calibration method. In the first step, the static platform calibration was conducted based on the stable relative orientation constraint and convergent conditions among cameras in static environments. In the second step, a dynamic platform self-calibration approach was proposed based on not only tie points but also straight lines in order to correct the small change of the relative relationship among cameras during dynamic flight. Experiments based on the proposed two-step platform calibration method were carried out with terrestrial and aerial images from a multi-camera system combined with four consumer-grade digital cameras onboard an unmanned aerial vehicle. The experimental results have shown that the proposed platform calibration approach is able to compensate the varied relative relationship during flight, acquiring the mosaicing accuracy of virtual images smaller than 0.5pixel. The proposed approach can be extended for calibrating other low-cost multi-camera system without rigorously mechanical structure.

SfM 기반 RGB 및 TIR 영상해석을 통한 태양광 모듈 이상징후 정밀위치 검출 (Intended for photovoltaic modules Compare modeling between SfM based RGB and TIR Images)

  • 박준규;한웅지;권영훈;강준오;이용창
    • 도시과학
    • /
    • 제8권1호
    • /
    • pp.7-14
    • /
    • 2019
  • Recently, interest in solar energy, which is the center of new government energy policy, is increasing. However, the focus is on mass production of solar power plants, and policies and related technologies for maintenance and management of existing installed PV modules are insufficient. In this study, we use UAV (Unmanned Aerial Vehicle) to acquire RGB and infrared images, apply it to the structure-from-motion (SfM) based image analysis tool, model the three- And the position of the hot spot was monitored and coordinates were detected. As a result, it is possible to provide basic spatial information for maintenance of solar module by monitoring and position detection of hot-spot suspected solar cells by superimposing infrared image and RGB image based on unmanned aerial vehicle.

추적명령 지연보상을 통한 표적추적 성능향상 방안 연구 (A Study on Target Tracking Performance Enhancement Using Lock-on Time Delay Compensation Method)

  • 김미정;박가영;강명호
    • 한국항공우주학회지
    • /
    • 제47권5호
    • /
    • pp.358-363
    • /
    • 2019
  • 무인 항공기에 탑재된 EOIR 장비가 데이터 링크를 통해 영상과 데이터를 송수신할 경우 데이터의 전송 경로와 지상 장비 및 무선 네트워크 상태에 따라 데이터 전송이 지연될 수 있다. 이로 인해 수신한 영상을 보는 시간과 촬영하는 시간이 다르기 때문에 초기 표적의 LOCK-ON 실패 가능성이 높아진다. 따라서 본 논문은 영상과 동기화된 프레임 인덱스를 도입하고, 지상에서 명령에 프레임 인덱스를 추가하여 전송함으로써 영상추적의 성공률을 높이는 방법을 제안하였다.

Aerial Dataset Integration For Vehicle Detection Based on YOLOv4

  • Omar, Wael;Oh, Youngon;Chung, Jinwoo;Lee, Impyeong
    • 대한원격탐사학회지
    • /
    • 제37권4호
    • /
    • pp.747-761
    • /
    • 2021
  • With the increasing application of UAVs in intelligent transportation systems, vehicle detection for aerial images has become an essential engineering technology and has academic research significance. In this paper, a vehicle detection method for aerial images based on the YOLOv4 deep learning algorithm is presented. At present, the most known datasets are VOC (The PASCAL Visual Object Classes Challenge), ImageNet, and COCO (Microsoft Common Objects in Context), which comply with the vehicle detection from UAV. An integrated dataset not only reflects its quantity and photo quality but also its diversity which affects the detection accuracy. The method integrates three public aerial image datasets VAID, UAVD, DOTA suitable for YOLOv4. The training model presents good test results especially for small objects, rotating objects, as well as compact and dense objects, and meets the real-time detection requirements. For future work, we will integrate one more aerial image dataset acquired by our lab to increase the number and diversity of training samples, at the same time, while meeting the real-time requirements.

Comparison of estimating vegetation index for outdoor free-range pig production using convolutional neural networks

  • Sang-Hyon OH;Hee-Mun Park;Jin-Hyun Park
    • Journal of Animal Science and Technology
    • /
    • 제65권6호
    • /
    • pp.1254-1269
    • /
    • 2023
  • This study aims to predict the change in corn share according to the grazing of 20 gestational sows in a mature corn field by taking images with a camera-equipped unmanned air vehicle (UAV). Deep learning based on convolutional neural networks (CNNs) has been verified for its performance in various areas. It has also demonstrated high recognition accuracy and detection time in agricultural applications such as pest and disease diagnosis and prediction. A large amount of data is required to train CNNs effectively. Still, since UAVs capture only a limited number of images, we propose a data augmentation method that can effectively increase data. And most occupancy prediction predicts occupancy by designing a CNN-based object detector for an image and counting the number of recognized objects or calculating the number of pixels occupied by an object. These methods require complex occupancy rate calculations; the accuracy depends on whether the object features of interest are visible in the image. However, in this study, CNN is not approached as a corn object detection and classification problem but as a function approximation and regression problem so that the occupancy rate of corn objects in an image can be represented as the CNN output. The proposed method effectively estimates occupancy for a limited number of cornfield photos, shows excellent prediction accuracy, and confirms the potential and scalability of deep learning.

시계열 위성영상 기반 평년 식생지수 추정을 통한 산림생태계 피해 탐지 기법 (Forest Damage Detection Using Daily Normal Vegetation Index Based on Time Series LANDSAT Images)

  • 김은숙;이보라;임종환
    • 대한원격탐사학회지
    • /
    • 제35권6_2호
    • /
    • pp.1133-1148
    • /
    • 2019
  • 산림지역은 계절에 따라 생장 및 활력 특성이 변화하기 때문에 산림피해를 정확하게 탐지하기 위해서는 과거 동일한 계절적 시기의 영상정보 확보가 필요하다. 그러나 고해상도 또는 중해상도 영상은 영상촬영주가 높지 않아 동일 시기의 영상 정보들을 확보하는 것은 쉽지 않다. 따라서 본 연구에서는 산림생태계의 피해를 평가하기 위해 시계열 영상정보를 통해 피해발생 이전 과거 동일 시점의 분광정보를 추정하여 산림피해 평가의 기준정보로 활용하는 방법을 연구했다. 연구대상지는 2017년 우박과 가뭄으로 인해 대규모 산림피해가 발생한 전라남도 화순지역이며, 과거 3년간 해당 지역에서 촬영된 모든 Landsat 8 영상의 시계열 식생지수(NDVI, EVI, NDMI) 자료를 구축하고 이를 일별 연속자료로 자료보간을 실시하였다. 그리고 이를 통해 교란 발생 이전의 정상적인 일별 식생지수 추정 지도를 제작하였으며, 동일 날짜의 일별 평년 식생지수와 교란발생 이후의 식생지수의 차이값을 구하고 피해등급 기준을 적용하여 최종적인 위성자료 기반의 피해등급지도가 산출되었다. 위성기반 피해등급지도는 기존의 항공사진 기반 피해등급지도에 비해 미세한 식생활력도 변화를 효과적으로 탐지하였으며, 피해극심지역을 대상으로 비교하였을 때 SWIR 밴드를 이용한 식생지수(NDMI)가 기존의 피해등급평가 결과와 유사한 결과를 산출하여 활용도가 높은 것으로 평가되었다. 결과적으로, 일별 평년식생활력도 지도의 제작을 통해 신속하고 정확한 피해지 탐지가 가능해졌다.

무인항공기를 위한 증강/가상현실 기술 동향 (Augmented Reality and Virtual Reality Technology Trend for Unmanned Arial Vehicles)

  • 방준성;이영호;이헌주;이길행
    • 전자통신동향분석
    • /
    • 제32권5호
    • /
    • pp.117-126
    • /
    • 2017
  • With the advances of high-performance, lightweight hardware components and control software, unmanned aerial vehicles (UAVs) have expanded in terms of use, not only for military applications but also for civilian applications. To complete their task at a remote location, UAVs are generally equipped with a camera, and various sensors and types of hardware devices can be attached according to the particular task. When UAVs capture video images and transmit them into the user's interface, augmented reality (AR) and virtual reality (VR) technologies as a user interface may have advantages in controlling the UAV. In this paper, we review AR and VR applications for UAVs and discuss their future directions.

Matrix Pencil 방법에 의한 비행기 모형의 ISAR 영상화 (ISAR Imaging of Airplane-like Targets by Matrix Pencil Method)

  • 유지희;권경일;이용희
    • 한국전자파학회논문지
    • /
    • 제12권2호
    • /
    • pp.299-307
    • /
    • 2001
  • 이 논문에서는 MP(Matrix Pencil) 방법을 이용한 ISAR(Inverse Synthetic Aperture Radar) 영상에 대한 실험적 연구결과를 기술하였다. 측정은 CR(Compact Range) RCS 측정시설을 이용하였으며 두 가지 종류의 표적이 사용되었다. 첫 번째 표적은 MP의 성능을 확인하기 위하여 길이가 짧고 반경이 작은 원통형 표적이고 두 번째 표적은 실제 비행기 형상과 같이 복잡한 구조를 가진 무인항공기 모형이다. ISAR 영상을 얻기 위하여 MP와 FFT(Fast Fouier Transform)를 이용하였으며 실험결과를 비교해 보면 MP 방법을 사용하는 것이 기존의 FFT를 사용하는 것보다 더 좋은 영상을 얻을 수 있다는 것을 입증하였다.

  • PDF