• 제목/요약/키워드: Drone images

검색결과 203건 처리시간 0.028초

Comparison of Deep-Learning Algorithms for the Detection of Railroad Pedestrians

  • Fang, Ziyu;Kim, Pyeoungkee
    • Journal of information and communication convergence engineering
    • /
    • 제18권1호
    • /
    • pp.28-32
    • /
    • 2020
  • Railway transportation is the main land-based transportation in most countries. Accordingly, railway-transportation safety has always been a key issue for many researchers. Railway pedestrian accidents are the main reasons of railway-transportation casualties. In this study, we conduct experiments to determine which of the latest convolutional neural network models and algorithms are appropriate to build pedestrian railroad accident prevention systems. When a drone cruises over a pre-specified path and altitude, the real-time status around the rail is recorded, following which the image information is transmitted back to the server in time. Subsequently, the images are analyzed to determine whether pedestrians are present around the railroads, and a speed-deceleration order is immediately sent to the train driver, resulting in a reduction of the instances of pedestrian railroad accidents. This is the first part of an envisioned drone-based intelligent security system. This system can effectively address the problem of insufficient manual police force.

Semantic Segmentation of Heterogeneous Unmanned Aerial Vehicle Datasets Using Combined Segmentation Network

  • Ahram, Song
    • 대한원격탐사학회지
    • /
    • 제39권1호
    • /
    • pp.87-97
    • /
    • 2023
  • Unmanned aerial vehicles (UAVs) can capture high-resolution imagery from a variety of viewing angles and altitudes; they are generally limited to collecting images of small scenes from larger regions. To improve the utility of UAV-appropriated datasetsfor use with deep learning applications, multiple datasets created from variousregions under different conditions are needed. To demonstrate a powerful new method for integrating heterogeneous UAV datasets, this paper applies a combined segmentation network (CSN) to share UAVid and semantic drone dataset encoding blocks to learn their general features, whereas its decoding blocks are trained separately on each dataset. Experimental results show that our CSN improves the accuracy of specific classes (e.g., cars), which currently comprise a low ratio in both datasets. From this result, it is expected that the range of UAV dataset utilization will increase.

드론-지상 하이브리드 로봇 시스템 개발 및 검증 (Development and Verification of UAV-UGV Hybrid Robot System)

  • 우종운;김지훈;성창현;김병우
    • 로봇학회논문지
    • /
    • 제18권3호
    • /
    • pp.233-240
    • /
    • 2023
  • In this paper, we proposed a hybrid type robot that simultaneously surveillance and reconnaissance on the ground and in the air. It was possible to expand the surveillance and reconnaissance range by expanding the surveillance and reconnaissance area of the ground robot and quickly moving to the hidden area through the drone. First, ground robots go to mission areas through drones and perform surveillance and reconnaissance missions for urban warfare or mountainous areas. Second, drones move ground robots quickly. It transmits surveillance and reconnaissance images of ground robots to the control system and performs reconnaissance missions at the same time. Finally, in order to secure the interoperability of these hybrid robots, basic performance and environmental performance were verified. The evaluation method was tested and verified based on the KS standards.

드론 및 비전 프로세싱 기술을 활용한 디지털 건설현장 관리에 대한 연구 (Research on Digital Construction Site Management Using Drone and Vision Processing Technology)

  • 서민조;박경규;이승빈;김시욱;최원준;김치경
    • 한국건축시공학회:학술대회논문집
    • /
    • 한국건축시공학회 2023년도 가을학술발표대회논문집
    • /
    • pp.239-240
    • /
    • 2023
  • Construction site management involves overseeing tasks from the construction phase to the maintenance stage, and digitalization of construction sites is necessary for digital construction site management. In this study, we aim to conduct research on object recognition at construction sites using drones. Images of construction sites captured by drones are reconstructed into BIM (Building Information Modeling) models, and objects are recognized after partially rendering the models using artificial intelligence. For the photorealistic rendering of the BIM models, both traditional filtering techniques and the generative adversarial network (GAN) model were used, while the YOLO (You Only Look Once) model was employed for object recognition. This study is expected to provide insights into the research direction of digital construction site management and help assess the potential and future value of introducing artificial intelligence in the construction industry.

  • PDF

AR스마트안경 기술을 접목한 현장 지원용 드론(Drone)시스템 설계에 대한 연구 (Research on the Design of Drone System for Field Support Using AR Smart Glasses Technology)

  • 이경환;정진국;류갑상
    • 한국융합학회논문지
    • /
    • 제11권4호
    • /
    • pp.27-32
    • /
    • 2020
  • 드론이 촬영한 고해상도 영상은 모니터링 등 여러 정보로 활용되고 있다. 농업용 시설물 관리는 아직까지도 대부분 사람에 의한 조사방식을 사용하고 있다. 농업시설 측량, 농업시설 외관조사, 수면환경 등은 사람이 접근하기 힘든 법적·환경적 제약이 있다. 또한, 3D 지도나 위성 지도 등 정보가 오래 되거나 제공하지 않는 지역에서는 사람에 의한 조사가 불가피하여 많은 시간과 비용이 투자되고 있다. 본 논문에서는 농업시설물 유지·관리를 위한 AR스마트안경 기술을 접목한 현장 지원용 드론시스템을 설계하여 기존 드론 활용 시 애로사항을 개선하는데 목적이 있다. 아울러 영상촬영으로 발생할 수 있는 개인정보 노출로 인한 피해를 해소하기 위한 개인정보보호에 대한 안전성 확보 방안도 제시하고자 한다.

Discriminant analysis to detect fire blight infection on pear trees using RGB imagery obtained by a rotary wing drone

  • Kim, Hyun-Jung;Noh, Hyun-Kwon;Kang, Tae-Hwan
    • 농업과학연구
    • /
    • 제47권2호
    • /
    • pp.349-360
    • /
    • 2020
  • Fire-blight disease is a kind of contagious disease affecting apples, pears, and some other members of the family Rosaceae. Due to its extremely strong infectivity, once an orchard is confirmed to be infected, all of the orchards located within 100 m must be buried under the ground, and the sites are prohibited to cultivate any fruit trees for 5 years. In South Korea, fire-blight was confirmed for the first time in the Ansung area in 2015, and the infection is still being identified every year. Traditional approaches to detect fire-blight are expensive and require much time, additionally, also the inspectors have the potential to transmit the pathogen, Thus, it is necessary to develop a remote, unmanned monitoring system for fire-blight to prevent the spread of the disease. This study was conducted to detect fire-blight on pear trees using discriminant analysis with color information collected from a rotary-wing drone. The images of the infected trees were obtained at a pear orchard in Cheonan using an RGB camera attached to a rotary-wing drone at an altitude of 4 m, and also using a smart phone RGB camera on the ground. RGB and Lab color spaces and discriminant analysis were used to develop the image processing algorithm. As a result, the proposed method had an accuracy of approximately 75% although the system still requires many flaws to be improved.

입체영상 촬영을 위한 드론용 짐벌시스템 제어 (Gimbal System Control for Drone for 3D Image)

  • 김민;변기식;김관형
    • 한국정보통신학회논문지
    • /
    • 제20권11호
    • /
    • pp.2107-2112
    • /
    • 2016
  • 본 논문은 드론 같은 움직임이 불규칙한 환경에서 깨끗하고 안정된 입체영상을 촬영하기 위해서는 드론용 짐벌 시스템 제어 안정화기 설계가 필요하다. 짐벌 시스템은 카메라 모듈을 지지하는 구조와 외부로 부터의 진동을 차단하면서 정확한 각도를 추종하는 센서 등으로 구성된다. 움직임이 불규칙한 촬영장비나, 비행중인 드론에는 매우 다양한 주파수 성분의 진동의 발생으로 인해 안정된 영상물을 촬영하기에 어려움이 많다. 이러한 다양한 주파수 성분의 진동을 제어하기 위해 일반적으로 rolling-pitching-yawing 운동에 대하여 일반적인 PID 제어기를 설계하여 안정적으로 제어하지만, 드론용 짐벌시스템 구조가 변경되거나 시스템 일부 요소가 변경되게 되면 기존에 설계된 PID 제어 파라미터를 재조정을 해야 되는 경우가 빈번하게 있다. 이런 문제점을 개선하기 위해 본 논문에서 제기된 제어 기법인 지적 PID제어를 통하여 움직임과 짐벌시스템의 진동제어를 수행하여 외부 환경의 변화에 강인한 제어기법을 제시하고자 한다.

무감독 SVM 분류 기법을 통한 드론 영상 경계 박스 내 차량 자동 추출 연구 (A Study on Automatic Vehicle Extraction within Drone Image Bounding Box Using Unsupervised SVM Classification Technique)

  • 염준호
    • 토지주택연구
    • /
    • 제14권4호
    • /
    • pp.95-102
    • /
    • 2023
  • 도시 지역에서 객체를 탐지하기 위해 드론 고해상도 영상에 기계 학습 알고리즘을 적용하는 다양한 연구가 진행되었다. 그러나 대부분의 차량 추출 연구는 인스턴스 세그멘테이션 대신 경계 박스로 차량을 탐지하여 차량의 방향이나 정확한 경계를 알 수 없다는 한계점이 있다. 인스턴스 세그멘테이션은 개별 개체를 훈련하기 위한 노동 집약적인 레이블링 작업을 필요로 하므로, 차량 추출을 위해 자동 무감독 인스턴스 세그멘테이션을 수행하는 방법에 대한 연구가 필요하다. 따라서 본 연구에서는 드론 영상의 차량 경계 박스에 대해 무감독 SVM 분류 기반의 차량 추출 기법을 제안하였다. 연구 결과, 차량을 89% 정확도로 추출할 수 있음을 확인하였으며 차량 내의 분광 특성이 크게 다른 경우에도 차량을 추출할 수 있음을 확인하였다.

드론 영상기반 잔디밭 내 클로버의 퇴치 범위에 대한 시계열 분석 (Drone Image based Time Series Analysis for the Range of Eradication of Clover in Lawn)

  • 이용창;강준오;오성종
    • 한국측량학회지
    • /
    • 제39권4호
    • /
    • pp.211-221
    • /
    • 2021
  • 클로버는 잔디의 대표적 유해 식물로 양지식물인 잔디보다 일찍 생육활동을 시작하여 잔디의 상부에 수관을 형성하고 잔디의 광합성과 성장을 방해한다. 이로 인해 두 식생종 간 경쟁에서 대부분, 클로버 영역은 확산되고 잔디의 경우는 훼손과 고사가 진행되게 된다. 훼손된 부분은 장마 및 생장 휴면 기간 중, 토양표출 확산으로 전개되어 잔디 복구에 심리적 스트레스 및 많은 경제적 부담을 초래하고 있다. 본 연구의 목적은 잔디의 대표적 유해식물인 클로버를 구분하고 클로버의 확산에 따른 훼손지역 분포, 퇴치 전·후의 식생변화 추이를 고찰하는 것이다. 이를 위해 RGB, BG-NIR 센서를 탑재한 융·복합 드론기반 영상을 활용, 3가지 식생지수의 시계열 분석을 통해 선별적 퇴치를 위한 식생구분, 복구전략 수립을 위한 잔디 훼손 분포 등을 고찰하였다. 특히, 인력 및 기기에 의한 선별적 제초 및 예초 전·후, 클로버의 생태변화 추이를 시계열로 분석하였다. 또한, 잔디와 클로버의 성장 중반기 기간 중, 식생 종간 구분 방안도 모색하였다. 연구결과, 잔디와 클로버 생육 특성에 따른 RGB 및 BGNIR 드론영상의 MGRVI 및 NDVI, MSAVI 지수의 시계열 분석을 통해 잔디 훼손과 클로버 퇴치 후 변화 추이 분석의 활용성을 확인하여 잔디 유해 잡초에 대한 효율적 관리의 활용 가능성을 입증할 수 있었다.

UAV를 활용한 초분광 영상의 하천공간특성 분류 연구 (The Study on Spatial Classification of Riverine Environment using UAV Hyperspectral Image)

  • 김영주;한형준;강준구
    • 한국산학기술학회논문지
    • /
    • 제19권10호
    • /
    • pp.633-639
    • /
    • 2018
  • 하천환경을 구성하고 있는 복잡하고 다양한 인자의 특성에 따라 공간을 세밀하게 분류하기 위해서는 원격탐사(RS)를 통해 고해상도의 영상을 확보하는 것이 무엇보다 중요하다. 본 연구는 하천공간을 대상으로 환경 특성에 따른 공간 분류를 수행하기 위해 드론을 활용하여 취득한 고해상도 초분광 영상의 활용 가능성을 제시하고, 분류 결과에 대한 정확도를 평가하고자 하였다. 연구지역에서 획득한 초분광 영상은 노이즈로 인한 영향을 줄이고자 MNF와 PCA 기법으로 차원축소를 수행하였으며, MLC(Maximum Likelihood Classification)와 SVM(Support Vector Machine), SAM(Spectral Angle Mapping) 감독분류기법을 적용하여 하천환경특성에 따른 공간분류를 수행하였다. 연구 결과 MNF기법으로 차원 축소한 영상을 적용하여 MLC 감독분류를 수행하였을 때 가장 높은 분류정확도를 얻을 수 있었으나, 일부 클래스 및 수역의 경계와 그림자 공간에서 주로 오분류가 나타나는 것을 확인할 수 있었다. 이와 같은 연구 결과는 앞으로 드론과 초분광센서를 적용한 원격탐사를 위한 기초자료로 활용 할 수 있으며, 추가적인 알고리즘 개발을 통해 보다 광범위한 하천환경 분야에 적용할 수 있을 것으로 기대한다.