• 제목/요약/키워드: Detection of Aerial Vehicle

검색결과 145건 처리시간 0.027초

Swin Transformer를 이용한 항공사진에서 다중클래스 차량 검출 (The Detection of Multi-class Vehicles using Swin Transformer)

  • 이기춘;정유석;이창우
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.112-114
    • /
    • 2021
  • 도시 상태를 탐지하기 위해서는 운송 수단 수, 교통 흐름등이 필수적으로 파악되어야 할 요소이다. 본 논문에서는 기존의 Mask R-CNN을 이용하여 다양한 차량의 형태를 학습하고, 드론으로 촬영한 도시항공 영상에서 특정 유형의 차량 들을 검출하는 시스템을 오늘날 NLP 분야에서 널리 쓰이게 된 Transformer 모델을 컴퓨터 비전 문제에 도입하여 기존의 컨볼루션 신경망보다 높은 성능을 보여준 Swin Transformer 모델을 이용하여 기존의 연구에서 보여주었던 검출 시스템 능력을 향상시켰다.

  • PDF

UAV와 다시기 위성영상을 이용한 붕괴건물 탐지 (Detection of Collapse Buildings Using UAV and Bitemporal Satellite Imagery)

  • 정세정;이기림;윤예린;이원희;한유경
    • 한국측량학회지
    • /
    • 제38권3호
    • /
    • pp.187-196
    • /
    • 2020
  • 본 연구에서는 UAV (Unmanned Aerial Vehicle)와 PlanetScope 위성영상을 함께 이용한 붕괴건물 탐지를 수행하여 지표면에 위치한 특정 객체 탐지에 있어 이종 센서의 활용 가능성을 제시하였다. 이를 위해 지난해 4월 산불 피해로 붕괴된 20여 채의 건물들이 있는 곳을 실험장소로 선정하였다. 붕괴건물 탐지를 위해 1차적으로 객체기반 분할을 수행한 고해상도의 UAV 영상을 이용해 ExG (Excess Green), GLCM (Gray-Level Co-occurrence Matrix) 그리고 DSM (Digital Surface Model)과 같은 객체들의 특징(feature) 정보를 생성한 후 이를 붕괴건물 후보군 탐지에 이용하였다. 이 과정에서 탐지정확도 향상을 위해 PlanetScope를 이용한 변화탐지 결과를 함께 사용하였으며 이를 시드 화소(seed pixles)로 사용하여 붕괴건물 후보군에서 오탐지된 영역과 과탐지된 영역을 수정 및 보완하였다. 최종적인 탐지 결과는 참조 영상을 통해 그 성능을 분석하였으며 UAV 영상만을 이용한 붕괴건물 후보군 탐지 결과와 UAV 그리고 PlanetScope 영상을 함께 사용했을 때의 결과의 정확도를 비교, 분석하였다. 그 결과 UAV 영상만을 이용해 탐지한 붕괴건물의 정확도는 0.4867 F1-score를 가지며 UAV와 PlanetScope 영상을 함께 사용했을 때의 결과는 0.8064 F1-score로 그 값이 상승하였다. Kappa 지수 또한 0.3674에서 0.8225로 향상된 것을 확인할 수 있었다.

비관리 해변의 해안 쓰레기 모니터링을 위한 RT-DETR 적용 방안 연구 (Study on the Application of RT-DETR to Monitoring of Coastal Debris on Unmanaged Coasts)

  • 도예빈;윤홍주
    • 한국전자통신학회논문지
    • /
    • 제19권2호
    • /
    • pp.453-466
    • /
    • 2024
  • 한정된 정점과 인력 기반의 조사로 실제 국내 표착되는 해안 쓰레기의 총용량 추정이 어려운 우리나라의 해안 쓰레기 모니터링 방식 개선을 위해 비관리 해변에서 UAV(: Unmanned Aerial Vehicle) 이미지와 RT-DETR 모델을 기반으로 해안 쓰레기 탐지하고 현장 조사와의 비교 연구로 해안 쓰레기의 정량적 탐지 및 자연 해안선 기준 우리나라에 표착되는 전체 쓰레기 총용량 추정 가능성을 제시하였다. RT-DETR(: Realtime DEtection TRansformer) 모델 학습 결과 mAP@0.5는 0.894, mAP@0.5:0.95는 0.693의 정확도를 보였다. 모델을 비관리 해변에 적용한 전체 해안 쓰레기 개수에 대한 정확도는 72.9%로 나타났다. 본 연구와 비관리 해변에 대한 모니터링을 정의하는 관리지침 마련 연구가 동반된다면 우리나라에 표착되는 전체 해안 쓰레기의 총 용량 추정이 가능할 것으로 기대된다.

포병 표적탐지 레이더 운용의 계량적 효과 분석 (An Analysis of the Operational Effectiveness of Target Acquisition Radar)

  • 강신성;이재영
    • 한국시뮬레이션학회논문지
    • /
    • 제19권2호
    • /
    • pp.63-72
    • /
    • 2010
  • 미래전장에서 대화력전(Counter Fire)의 중요성은 더욱 부각되고 있다. 대화력전은 적 화력자산과 이를 지휘통제하는 모든 요소를 타격하여 적의 화력자산의 능력과 전투지속능력 및 전의를 약화시키는 화력전투를 말한다. 대화력전은 크게 공세적 (Proactive) 대화력전과 대응적(Reactive) 대화력전으로 구분된다. 지금까지의 연구들을 보면 공세적 대화력전의 탐지수단인 UAV(Unmanned Aerial Vehicle:무인항공기)에 대한 운용효과 연구는 지속적으로 발전되고 있지만, 대응적 대화력전 탐지수단인 포병 표적탐지 레이더에 대한 운용효과를 계량적으로 분석한 결과는 없는 실정이다. 이에 본 연구에서는 운용중인 포병 표적탐지 레이더의 운용효과를 C2(Command & Control : 지휘통제)이론과 행위자 기반 시뮬레이션인 MANA(Map Aware Non-uniform Automata)모델을 이용하여 계량적으로 분석 제시함으로써 표적탐지레이더 운용 효과를 구체적으로 보여주었다.

문화재 3차원 모델링을 위한 지상 LiDAR와 UAV 정확도 비교 연구 (Comparative Accuracy of Terrestrial LiDAR and Unmanned Aerial Vehicles for 3D Modeling of Cultural Properties)

  • 이호진;조기성
    • 지적과 국토정보
    • /
    • 제47권1호
    • /
    • pp.179-190
    • /
    • 2017
  • 문화재의 현황 파악 및 복원을 위한 3차원 모델링에 있어서 지상 LiDAR와 UAV의 활용방안을 제시하고자 대상 문화재에 대해 지상 LiDAR 측량을 실시하고 UAV 영상을 취득하였다. 이를 통해 생성된 포인트 클라우드의 정확도를 비교하고 3차원 모델의 중첩분석 및 융합 모델을 생성하였다. 그 결과, 문화재의 변위 및 변형을 감지하기 위해 실시하는 3차원 모델링의 경우에는 지상 LiDAR를 이용한 정밀한 모델링이 적합함을 알 수 있었으며, UAV 모델은 지상 LiDAR 모델에 비해 급격한 굴곡이 발생하는 부분을 상세하게 표현하지 못하는 한계가 있지만 UAV 모델은 모델링을 수행하는 범위가 넓으며 실물 문화재의 모델링이 가능한 이점이 있음을 알 수 있었다. 또한 최종적으로 지상 LiDAR 모델과 UAV 모델의 이점을 살린 융합 모델을 생성함으로써 문화재의 기초자료 구축 분야에서 효율적인 활용이 가능할 것으로 판단된다.

MMS로부터 취득된 LiDAR 점군데이터의 반사강도 영상과 UAV 영상의 정합을 위한 특징점 기반 매칭 기법 연구 (Feature-based Matching Algorithms for Registration between LiDAR Point Cloud Intensity Data Acquired from MMS and Image Data from UAV)

  • 최윤조;;홍승환;손홍규
    • 한국측량학회지
    • /
    • 제37권6호
    • /
    • pp.453-464
    • /
    • 2019
  • 최근 3차원 공간정보에 대한 수요가 증가함에 따라 신속하고 정확한 데이터 구축의 중요성이 증대되어 왔다. 정밀한 3차원 데이터 구축이 가능한 LiDAR (Light Detection and Ranging) 데이터를 기준으로 UAV (Unmanned Aerial Vehicle) 영상을 정합하기 위한 연구가 다수 수행되어 왔으나, MMS (Mobile Mapping System)로부터 취득된 LiDAR 점군데이터의 반사강도 영상을 활용한 연구는 미흡한 실정이다. 따라서 본 연구에서는 MMS로부터 취득된 LiDAR 점군데이터를 반사영상으로 변환한 데이터와 UAV 영상 데이터의 정합을 위해 9가지의 특징점 기반매칭 기법을 비교·분석하였다. 분석 결과 SIFT (Scale Invariant Feature Transform) 기법을 적용하였을 때 안정적으로 높은 매칭 정확도를 확보할 수 있었으며, 다양한 도로 환경에서도 충분한 정합점을 추출할 수 있었다. 정합 정확도 분석 결과 SIFT 알고리즘을 적용한 경우 중복도가 낮으며 동일한 패턴이 반복되는 경우를 제외하고는 약 10픽셀 수준으로 정확도를 확보할 수 있었으며, UAV 영상 촬영 당시 UAV 자세에 따른 왜곡이 포함되어 있음을 감안할 때 합리적인 결과라고 할 수 있다. 따라서 본 연구의 분석 결과는 향후 LiDAR 점군데이터와 UAV 영상의 3차원 정합을 위한 기초연구로 활용될 수 있을 것으로 기대된다.

Automatic Detection of Dead Trees Based on Lightweight YOLOv4 and UAV Imagery

  • Yuanhang Jin;Maolin Xu;Jiayuan Zheng
    • Journal of Information Processing Systems
    • /
    • 제19권5호
    • /
    • pp.614-630
    • /
    • 2023
  • Dead trees significantly impact forest production and the ecological environment and pose constraints to the sustainable development of forests. A lightweight YOLOv4 dead tree detection algorithm based on unmanned aerial vehicle images is proposed to address current limitations in dead tree detection that rely mainly on inefficient, unsafe and easy-to-miss manual inspections. An improved logarithmic transformation method was developed in data pre-processing to display tree features in the shadows. For the model structure, the original CSPDarkNet-53 backbone feature extraction network was replaced by MobileNetV3. Some of the standard convolutional blocks in the original extraction network were replaced by depthwise separable convolution blocks. The new ReLU6 activation function replaced the original LeakyReLU activation function to make the network more robust for low-precision computations. The K-means++ clustering method was also integrated to generate anchor boxes that are more suitable for the dataset. The experimental results show that the improved algorithm achieved an accuracy of 97.33%, higher than other methods. The detection speed of the proposed approach is higher than that of YOLOv4, improving the efficiency and accuracy of the detection process.

Real-time comprehensive image processing system for detecting concrete bridges crack

  • Lin, Weiguo;Sun, Yichao;Yang, Qiaoning;Lin, Yaru
    • Computers and Concrete
    • /
    • 제23권6호
    • /
    • pp.445-457
    • /
    • 2019
  • Cracks are an important distress of concrete bridges, and may reduce the life and safety of bridges. However, the traditional manual crack detection means highly depend on the experience of inspectors. Furthermore, it is time-consuming, expensive, and often unsafe when inaccessible position of bridge is to be assessed, such as viaduct pier. To solve this question, the real-time automatic crack detecting system with unmanned aerial vehicle (UAV) become a choice. This paper designs a new automatic detection system based on real-time comprehensive image processing for bridge crack. It has small size, light weight, low power consumption and can be carried on a small UAV for real-time data acquisition and processing. The real-time comprehensive image processing algorithm used in this detection system combines the advantage of connected domain area, shape extremum, morphology and support vector data description (SVDD). The performance and validity of the proposed algorithm and system are verified. Compared with other detection method, the proposed system can effectively detect cracks with high detection accuracy and high speed. The designed system in this paper is suitable for practical engineering applications.

드론 기반의 전력선 추적 제어 시스템 (Drone-based Power-line Tracking System)

  • 정종민;김재승;윤태성;박진배
    • 전기학회논문지
    • /
    • 제67권6호
    • /
    • pp.773-781
    • /
    • 2018
  • In recent years, a study of power-line inspection using an unmanned aerial vehicle (UAV) has been actively conducted. However, relevant studies have been conducting power-line inspection with an UAV operated by manual control, and they have developed just power-line detection algorithm on aerial images. To overcome limitations of existing research, we propose a drone-based power-line tracking system in this paper. The main contributions of this paper are to operate developed system under configured environment and to develop a power-line detection algorithm in real-time. Developed system is composed of the power-line detection and the image-based tracking control. To detect a power-line in real-time, a region of interest (ROI) image is extracted. Furthermore, clustering algorithm is used in order to discriminate the power-line from background. Finally, the power-line is detected by using the Hough transform, and a center position and a tilt angle are estimated by using the Kalman filter to control a drone smoothly. We design a position controller and an attitude controller for image-based tracking control, and both controllers are designed based on the proportional-derivative (PD) control method. The interaction between the position controller and the attitude controller makes the drone track the power-line. Several experiments were carried out in environments where conditions are similar to actual environments, which demonstrates the superiority of the developed system.

UAS 기반, 가시, 근적외 및 열적외 영상을 활용한 식생조사 (Vegetation Monitoring using Unmanned Aerial System based Visible, Near Infrared and Thermal Images)

  • 이용창
    • 지적과 국토정보
    • /
    • 제48권1호
    • /
    • pp.71-91
    • /
    • 2018
  • 최근 영농분야에서 종자파종, 병충해 방제 등에 무인항공기(UAV ; Unmanned Aerial Vehicle)를 활용한 응용이 활발히 진행되고 있다. 본 연구는 UAV에 다양한 파장대의 영상센서를 탑재하고 SfM(Structure from Motion) 영상해석기법과 연계한'고해상 저고도 원격탐측시스템(UAS ; Unmanned Aerial System)'를 구성, UAS 기반 식생조사의 효용성을 고찰하여 정밀영농의 활용성을 검토하였다. 이를 위해 저가 UAV에 가시 컬러(VIS_RGB ; Visible Red, Green, and Blue) 영상센서, 수정된 BG_NIR(Blue Green_Near Infrared Red) 근적외 영상 센서, $7.5{\sim}13.5{\mu}m$ 분광대역의 열적외 영상(TIR ; Thermal Infrared Red)센서를 조합 연계한 UAS를 구성하였다. 또한, 가시 근적외 및 열적외 파장대를 기본요소로 광합성에 따른 식물의 엽록소, 질소 및 수분 함유량 등을 검토할 수 있는 총 10종의 식생지수를 선정, 식생상태 검출에 활용하였다. 시험대상지에 대한 각 파장대역의 영상을 획득하고 사전에 조사된 지상 피복현황을 기준으로 각 식생지수의 분포도 및 식생지수 간 상관성(결정계수 R2) 등을 비교 고찰하여 무인항공기를 활용한 가시 컬러, 근 적외 및 열 적외 영상에 의한 식생상태의 검측 수행능력을 검토하였다. 저가 무인항공기에 VIS_RGB, BG_NIR 및 TIR 영상 센서를 탑재, 식생조사의 효용성을 종합적으로 검토한 결과, 인공위성과 항공영상에 의존한 과거의 식생조사방식 대비, 영상해상도, 경제성 및 운용성 면에서 UAV기반 고해상 저고도 원격탐측시스템(UAS)의 효용성을 입증할 수 있었으므로 정밀농업, 수계 및 산림조사 등의 분야에 그 활용이 기대된다.