• Title/Summary/Keyword: object detection system

검색결과 1,066건 처리시간 0.031초

심층학습 기반의 자동 객체 추적 및 핸디 모션 제어 드론 시스템 구현 및 검증 (Implementation and Verification of Deep Learning-based Automatic Object Tracking and Handy Motion Control Drone System)

  • 김영수;이준범;이찬영;전혜리;김승필
    • 대한임베디드공학회논문지
    • /
    • 제16권5호
    • /
    • pp.163-169
    • /
    • 2021
  • In this paper, we implemented a deep learning-based automatic object tracking and handy motion control drone system and analyzed the performance of the proposed system. The drone system automatically detects and tracks targets by analyzing images obtained from the drone's camera using deep learning algorithms, consisting of the YOLO, the MobileNet, and the deepSORT. Such deep learning-based detection and tracking algorithms have both higher target detection accuracy and processing speed than the conventional color-based algorithm, the CAMShift. In addition, in order to facilitate the drone control by hand from the ground control station, we classified handy motions and generated flight control commands through motion recognition using the YOLO algorithm. It was confirmed that such a deep learning-based target tracking and drone handy motion control system stably track the target and can easily control the drone.

딥러닝 기반의 객체 탐지 모델을 활용한 과수 생육 단계 판별 시스템 (A System for Determining the Growth Stage of Fruit Tree Using a Deep Learning-Based Object Detection Model)

  • 방지현;박준;박성욱;김준영;정세훈;심춘보
    • 스마트미디어저널
    • /
    • 제11권4호
    • /
    • pp.9-18
    • /
    • 2022
  • 인공지능 기술의 발전으로 다양한 분야에서 AI가 접목된 시스템에 대한 관심이 급증하고 있다. 농업에서도 정보통신 기술을 적용한 스마트팜이 활용되고 있으며, 자율주행, 인공위성, 빅데이터 등의 다양한 첨단 기술을 접목하여 데이터 기반의 정밀 농업이 상용화되고 있다. 국내의 경우 시설농업 분야 스마트농업의 상용화 사례가 증가하고 있으나 시설원예 분야에 투자 편증이 심하여, 시설농업과 노지 농업의 투자 격차가 지속해서 벌어지고 있다. 특히, 과수, 식물공장 분야는 투자 규모가 작다. 또한, 빅데이터 수집, 활용 체계가 미흡하다는 문제점이 있다. 이에 본 논문에서는 농업의 빅데이터를 활용하는 방안으로 딥러닝 기반의 객체 탐지 모델을 활용한 과수 생육 단계 판별 시스템을 제안한다. 해당 시스템은 농업 현장에서 사용할 수 있도록 하이브리드 앱을 설계 및 구현하며 과수 생육단계 판별을 위한 객체 탐지 기능을 제공한다.

적응적 배경영상을 이용한 교차로 내 정지 객체 검출 방법 (Stop Object Method within Intersection with Using Adaptive Background Image)

  • 강성준;서암석;정성환
    • 한국산학기술학회논문지
    • /
    • 제14권5호
    • /
    • pp.2430-2436
    • /
    • 2013
  • 본 논문에서는 교차로 내에 위험의 원인이 되는 정지 객체를 검지하는 방법을 제안한다. 교차로 내에 설치된 CCTV에서 실시간 영상을 입력받아 객체의 크기를 일정하게 하기 위하여 역원근변환을 수행하였다. 원근변환된 영상에서 검지영역을 설정하고 객체의 이동 정보를 이용한 적응적인 배경영상을 생성하였다. 정지한 객체의 검출은 배경영상 차이법을 사용하여 정지한 객체의 후보 영역을 검출하였다. 검출된 후보 영역의 진위 여부를 파악하기 위하여 영상의 기울기 정보와 EHD(Edge Histogram Descriptor)를 이용하는 방법을 제안한다. 제안한 알고리즘의 성능을 알아보기 위하여 교차로에 설치된 DVR을 통해 출퇴근 시간 및 주간 대의 영상을 저장하여 실험하였다. 실험 결과 교차로 내의 검지영역 내에 정지한 차량을 효율적으로 감지할 수 있었으며 검지영역의 면적에 따라 초당 13~18프레임의 처리속도를 나타내어 실시간 처리에 문제가 없을 것으로 판단된다.

실내 문화시설 안전을 위한 딥러닝 기반 방문객 검출 및 동선 추적에 관한 연구 (Deep Learning-based Approach for Visitor Detection and Path Tracking to Enhance Safety in Indoor Cultural Facilities)

  • 신원섭;노승민
    • Journal of Platform Technology
    • /
    • 제11권4호
    • /
    • pp.3-12
    • /
    • 2023
  • 포스트-코로나 시대에는 방역 조치의 중요성이 크게 강조되고 있으며, 이에 맞춰 딥러닝을 이용한 마스크 착용 상태 검출 및 다른 전염병 예방에 관련된 연구가 진행되고 있다. 그러나 질병 확산 방지를 위한 문화시설 관람객 탐지 및 추적 연구도 마찬가지로 중요하므로 이에 대한 연구가 진행되어야 한다. 본 논문에서는 사전 수집된 데이터 셋을 이용하여 컨볼루션 신경망 기반 객체 탐지 모델을 전이 학습시키고, 학습된 탐지 모델의 가중치를 다중 객체 추적 모델에 적용하여 방문객을 모니터링 한다. 방문객 탐지 모델은 Precision 96.3%, Recall 85.2% F1-Score 90.4%의 결과를 보여주었다. 추적 모델의 정량적 결과로 MOTA 65.6%, IDF1 68.3%. HOTA 57.2%의 결과를 보여주었으며, 본 논문의 모델과 다른 다중 객체 추적 모델 간의 정성적 비교에서 우수한 결과를 보여주었다. 본 논문의 연구는 포스트-코로나 시대의 문화시설 내 방역 시스템에 적용될 수 있을 것이다.

  • PDF

열화상 이미지를 이용한 배전 설비 검출 및 진단 (Detection and Diagnosis of Power Distribution Supply Facilities Using Thermal Images)

  • 김주식;최규남;이형근;강성우
    • 대한안전경영과학회지
    • /
    • 제22권1호
    • /
    • pp.1-8
    • /
    • 2020
  • Maintenance of power distribution facilities is a significant subject in the power supplies. Fault caused by deterioration in power distribution facilities may damage the entire power distribution system. However, current methods of diagnosing power distribution facilities have been manually diagnosed by the human inspector, resulting in continuous pole accidents. In order to improve the existing diagnostic methods, a thermal image analysis model is proposed in this work. Using a thermal image technique in diagnosis field is emerging in the various engineering field due to its non-contact, safe, and highly reliable energy detection technology. Deep learning object detection algorithms are trained with thermal images of a power distribution facility in order to automatically analyze its irregular energy status, hereby efficiently preventing fault of the system. The detected object is diagnosed through a thermal intensity area analysis. The proposed model in this work resulted 82% of accuracy of detecting an actual distribution system by analyzing more than 16,000 images of its thermal images.

Depth Evaluation from Pattern Projection Optimized for Automated Electronics Assembling Robots

  • Park, Jong-Rul;Cho, Jun Dong
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제3권4호
    • /
    • pp.195-204
    • /
    • 2014
  • This paper presents the depth evaluation for object detection by automated assembling robots. Pattern distortion analysis from a structured light system identifies an object with the greatest depth from its background. An automated assembling robot should prior select and pick an object with the greatest depth to reduce the physical harm during the picking action of the robot arm. Object detection is then combined with a depth evaluation to provide contour, showing the edges of an object with the greatest depth. The contour provides shape information to an automated assembling robot, which equips the laser based proxy sensor, for picking up and placing an object in the intended place. The depth evaluation process using structured light for an automated electronics assembling robot is accelerated for an image frame to be used for computation using the simplest experimental set, which consists of a single camera and projector. The experiments for the depth evaluation process required 31 ms to 32 ms, which were optimized for the robot vision system that equips a 30-frames-per-second camera.

멧돼지 감시 시스템을 위한 객체 검출 방법 (Object Detection Method for The Wild Pig Surveillance System)

  • 김동우;송영준;김애경;홍유식;안재형
    • 한국인터넷방송통신학회논문지
    • /
    • 제10권5호
    • /
    • pp.229-235
    • /
    • 2010
  • 본 논문은 실시간 감시 카메라 시스템에서 움직임 검출 효율을 높일 수 있는 방법을 제안하였다. 기존 방법인 차영상에 의한 방법과 배경 영상에 의한 객체 추적 방법은 외부에서 촬영되는 동영상에서의 움직이고 있는 객체를 검출하는 것이 상당히 어려운 일이다. 제안 방법은 배경 영상을 바로 이전 프레임과의 차를 구하여 급격하게 움직임이 검출되지 않으면 기존 배경 영상을 유지하고 해당 영역에서 움직임 객체가 사려졌을 때를 감지하여 배경 영상을 갱신하는 방법을 제안하였다. 멧돼지와 사람을 판단하기 위해 검출 영역 안에 있는 움직임 객체 각각에 박스로 표시하였다. 실시간 영상으로 시뮬레이션 한 결과 기존 방법보다 우수한 결과를 보여주었다.

A Video Traffic Flow Detection System Based on Machine Vision

  • Wang, Xin-Xin;Zhao, Xiao-Ming;Shen, Yu
    • Journal of Information Processing Systems
    • /
    • 제15권5호
    • /
    • pp.1218-1230
    • /
    • 2019
  • This study proposes a novel video traffic flow detection method based on machine vision technology. The three-frame difference method, which is one kind of a motion evaluation method, is used to establish initial background image, and then a statistical scoring strategy is chosen to update background image in real time. Finally, the background difference method is used for detecting the moving objects. Meanwhile, a simple but effective shadow elimination method is introduced to improve the accuracy of the detection for moving objects. Furthermore, the study also proposes a vehicle matching and tracking strategy by combining characteristics, such as vehicle's location information, color information and fractal dimension information. Experimental results show that this detection method could quickly and effectively detect various traffic flow parameters, laying a solid foundation for enhancing the degree of automation for traffic management.

비전 기반 움직임 영역 탐지를 이용한 전차 승무원 보호 시스템 개발 (Development of a Tank Crew Protection System Using Moving Object Area Detection from Vision based)

  • 최광모;장동식
    • 한국군사과학기술학회지
    • /
    • 제8권2호
    • /
    • pp.14-21
    • /
    • 2005
  • This paper describes the system for detecting the tank crew's(loader's) hand, arm, head and the upper half of the body in a danger area between the turret ceiling and the upper breech mechanism by computer vision-based method. This system informs danger of pressed to death to gunner and commander for the safety of operating mission. The camera mounted ort the top portion of the turret ceiling. The system sets search moving object from this image and detects by using change of image, laplacian operator and clustering algorithm in this area. It alarms the tank crews when it's judged that dangerous situation for operating mission. The result In this experiment shows that the detection rate maintains in $81{\sim}98$ percents.

유전자 알고리즘과 퍼지규칙을 기반으로한 지능형 자동감시 시스템의 개발 (A Fuzzy Logic System for Detection and Recognition of Human in the Automatic Surveillance System)

  • 장석윤;박민식;이영주;박민용
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(3)
    • /
    • pp.237-240
    • /
    • 2001
  • An image processing and decision making method for the Automatic Surveillance System is proposed. The aim of our Automatic Surveillance System is to detect a moving object and make a decision on whether it is human or not. Various object features such as the ratio of the width and the length of the moving object, the distance dispersion between the principal axis and the object contour, the eigenvectors, the symmetric axes, and the areas if the segmented region are used in this paper. These features are not the unique and decisive characteristics for representing human Also, due to the outdoor image property, the object feature information is unavoidably vague and inaccurate. In order to make an efficient decision from the information, we use a fuzzy rules base system ai an approximate reasoning method. The fuzzy rules, combining various object features, are able to describe the conditions for making an intelligent decision. The fuzzy rule base system is initially constructed by heuristic approach and then, trained and tasted with input/output data Experimental result are shown, demonstrating the validity of our system.

  • PDF