• Title/Summary/Keyword: YOLOv7

Search Result 52, Processing Time 0.028 seconds

A Study on Filter Pruning for Real-Time Object Detection in Embedded Board Environments (임베디드 보드 환경에서 실시간 객체 탐지를 위한 필터 프루닝 연구)

  • Jongwoong Seo;Hanse Ahn;Seungwook Son;Yongwha Chung
    • Annual Conference of KIPS
    • /
    • 2023.11a
    • /
    • pp.536-539
    • /
    • 2023
  • 딥러닝 기술은 더 많은 분야와 과제에 적용되기 위해서 네트워크는 더 복잡하고 거대한 형태로 발전해왔다. YOLOv7-tiny과 같은 객체탐지 네트워크는 다양한 객체와 환경에서 활용하기 위해 COCO 데이터 세트를 대상으로 발전해왔다. 그러나 본 논문에서 적용할 모델은 임베디드 보드 환경에서 실시간으로 1개의 Class를 대상으로 객체를 탐지하는 네트워크 모델이 찾고자 프루닝을 적용하였다. 모델의 프루닝을 할 필터를 찾기 위해 본 논문에서는 클러스터링을 통한 필터 프루닝 방법을 제안한다. 본 논문의 제안 방법을 적용했을 때 기준 모델보다 정확도가 7.6% 감소하였으나, 파라미터가 1% 미만으로 남고, 속도는 2.1배 증가함을 확인하였다.

Study of a underpass inundation forecast using object detection model (객체탐지 모델을 활용한 지하차도 침수 예측 연구)

  • Oh, Byunghwa;Hwang, Seok Hwan
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.302-302
    • /
    • 2021
  • 지하차도의 경우 국지 및 돌발홍수가 발생할 경우 대부분 침수됨에도 불구하고 2020년 7월 23일 부산 지역에 밤사이 시간당 80mm가 넘는 폭우가 발생하면서 순식간에 지하차도 천장까지 물이 차면서 선제적인 차량 통제가 우선적으로 수행되지 못하여 미처 대피하지 못한 3명의 운전자 인명사고가 발생하였다. 수재해를 비롯한 재난 관리를 빠르게 수행하기 위해서는 기존의 정부 및 관주도 중심의 단방향의 재난 대응에서 벗어나 정형 데이터와 비정형 데이터를 총칭하는 빅데이터의 통합적 수집 및 분석을 수행이 필요하다. 본 연구에서는 부산지역의 지하차도와 인접한 지하터널 CCTV 자료(센서)를 통한 재난 발생 시 인명피해를 최소화 정보 제공을 위한 Object Detection(객체 탐지)연구를 수행하였다. 지하터널 침수가 발생한 부산지역의 CCTV 영상을 사용하였으며, 영상편집에 사용되는 CCTV 자료의 음성자료를 제거하는 인코딩을 통하여 불러오는 영상파일 용량파일 감소 효과를 볼 수 있었다. 지하차도에 진입하는 물체를 탐지하는 방법으로 YOLO(You Only Look Once)를 사용하였으며, YOLO는 가장 빠른 객체 탐지 알고리즘 중 하나이며 최신 GPU에서 초당 170프레임의 속도로 실행될 수 있는 YOLOv3 방법을 적용하였으며, 분류작업에서 보다 높은 Classification을 가지는 Darknet-53을 적용하였다. YOLOv3 방법은 기존 객체탐지 모델 보다 좀 더 빠르고 정확한 물체 탐지가 가능하며 또한 모델의 크기를 변경하기만 하면 다시 학습시키지 않아도 속도와 정확도를 쉽게 변경가능한 장점이 있다. CCTV에서 오전(일반), 오후(침수발생) 시점을 나눈 후 Car, Bus, Truck, 사람을 분류하는 YOLO 알고리즘을 적용하여 지하터널 인근 Object Detection을 실제 수행 하였으며, CCTV자료를 이용하여 실제 물체 탐지의 정확도가 높은 것을 확인하였다.

  • PDF

Vehicle Type Classification Model based on Deep Learning for Smart Traffic Control Systems (스마트 교통 단속 시스템을 위한 딥러닝 기반 차종 분류 모델)

  • Kim, Doyeong;Jang, Sungjin;Jang, Jongwook
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2022.05a
    • /
    • pp.469-472
    • /
    • 2022
  • With the recent development of intelligent transportation systems, various technologies applying deep learning technology are being used. To crackdown on illegal vehicles and criminal vehicles driving on the road, a vehicle type classification system capable of accurately determining the type of vehicle is required. This study proposes a vehicle type classification system optimized for mobile traffic control systems using YOLO(You Only Look Once). The system uses a one-stage object detection algorithm YOLOv5 to detect vehicles into six classes: passenger cars, subcompact, compact, and midsize vans, full-size vans, trucks, motorcycles, special vehicles, and construction machinery. About 5,000 pieces of domestic vehicle image data built by the Korea Institute of Science and Technology for the development of artificial intelligence technology were used as learning data. It proposes a lane designation control system that applies a vehicle type classification algorithm capable of recognizing both front and side angles with one camera.

  • PDF

Automated Analysis of Scaffold Joint Installation Status of UAV-Acquired Images

  • Paik, Sunwoong;Kim, Yohan;Kim, Juhyeon;Kim, Hyoungkwan
    • International conference on construction engineering and project management
    • /
    • 2022.06a
    • /
    • pp.871-876
    • /
    • 2022
  • In the construction industry, fatal accidents related to scaffolds frequently occur. To prevent such accidents, scaffolds should be carefully monitored for their safety status. However, manual observation of scaffolds is time-consuming and labor-intensive. This paper proposes a method that automatically analyzes the installation status of scaffold joints based on images acquired from a Unmanned Aerial Vehicle (UAV). Using a deep learning-based object detection algorithm (YOLOv5), scaffold joints and joint components are detected. Based on the detection result, a two-stage rule-based classifier is used to analyze the joint installation status. Experimental results show that joints can be classified as safe or unsafe with 98.2 % and 85.7 % F1-scores, respectively. These results indicate that the proposed method can effectively analyze the joint installation status in UAV-acquired scaffold images.

  • PDF

Automatic recognition of recycling marks and chatbot for proposing recycling waste disposal (재활용 마크 자동 인식 및 분리배출 방법 제안 챗봇)

  • Yea Bin Lim;Hyon Hee Kim
    • Annual Conference of KIPS
    • /
    • 2023.05a
    • /
    • pp.542-543
    • /
    • 2023
  • 최근 일회용품의 사용 증가 및 재질과 종류가 다양해짐에 따라, 올바른 분리배출 방법 공유 필요성이 대두되고 있다. 본 논문에서는 실시간 물체 인식 알고리즘인 YOLOv7 (You Only Look Once)를 이용하여 재활용 마크를 자동으로 분류하고 그에 따른 올바른 분리배출을 알려주는 시스템을 구현했다. 그 결과, mAP값이 90%로 좋은 객체 검출률을 보였다. 또한, 카카오톡 챗봇 API를 이용하여 올바른 분리배출 방법을 공유하는 서비스를 제공하며 사용자 접근성을 높여 많은 사람이 쉽게 사용할 수 있도록 구현했다.

Performance Analysis of Traffic Sign Detection in the Testbed Environment : A Preliminary Study (테스트베드 환경에서 교통 표지판 검출의 성능 분석: 예비 연구)

  • Jongwook Si;Sungyoung Kim
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.7-8
    • /
    • 2023
  • 자율주행 자동차에 관한 연구에서 상황을 인지하기 위한 교통 표지판을 다양한 환경에서 인식하도록 하는 과정은 필수적인 요소이다. 이러한 교통 표지판은 객체 검출 방법을 통해 인지할 수 있지만, 환경에 따라 성능 차이가 크다. 본 논문에서는 Yolov4 모델을 기반으로 공개된 데이터 세트를 이용해 학습하고, 테스트 배드 환경에서 교통 표지판을 검출한다. 테스트 배드에서 조건, 거리, 강수량에 따른 다양한 환경에 대한 교통 표지판 검출의 성능을 비교 및 분석한 결과를 보인다.

  • PDF

A Study on Tools Vehicle Detection and Vehicle Tracking (차량 탐지와 차량 추적에 대한 연구)

  • Se-Young Kim;Jae-Eun Min;Se-Hun Pyo;Sang-Il Choi
    • Annual Conference of KIPS
    • /
    • 2023.11a
    • /
    • pp.592-594
    • /
    • 2023
  • 차량 탐지와 차량 추적 기술은 교통관리 시스템, 자율주행 자동차 시스템 및 이를 응용한 보안 감시 시스템, 군사 작전 및 안전 등 다양한 산업 분야에서 활용되고 있다. 본 논문에서는 차량 탐지는 YOLOv7 모델을, 차량 추적은 DeepSORT 알고리즘을 사용하여 도로의 차량들에 대해 탐지 및 추적을 순차적으로 진행하였다. 실험환경은 차량 탐지 데이터 셋(dataset)을 직접 라벨링(labeling) 하여 실험하였고, 차량 추적은 차량 탐지에서 학습해서 얻은 체크포인트(checkpoint) 모델을 가중치로 설정하여 실험을 진행하였다. 차량 탐지 실험결과는 validation 과 test 에서 높은 정확도를 확인할 수 있었고, 차량 추적은 Namsa 비디오 및 Seohaegyo 비디오에서도 차량 추적이 잘 되고 있음을 확인할 수 있었다.

A study on accident prevention AI system based on estimation of bus passengers' intentions (시내버스 승하차 의도분석 기반 사고방지 AI 시스템 연구)

  • Seonghwan Park;Sunoh Byun;Junghoon Park
    • Smart Media Journal
    • /
    • v.12 no.11
    • /
    • pp.57-66
    • /
    • 2023
  • In this paper, we present a study on an AI-based system utilizing the CCTV system within city buses to predict the intentions of boarding and alighting passengers, with the aim of preventing accidents. The proposed system employs the YOLOv7 Pose model to detect passengers, while utilizing an LSTM model to predict intentions of tracked passengers. The system can be installed on the bus's CCTV terminals, allowing for real-time visual confirmation of passengers' intentions throughout driving. It also provides alerts to the driver, mitigating potential accidents during passenger transitions. Test results show accuracy rates of 0.81 for analyzing boarding intentions and 0.79 for predicting alighting intentions onboard. To ensure real-time performance, we verified that a minimum of 5 frames per second analysis is achievable in a GPU environment. his algorithm enhance the safety of passenger transitions during bus operations. In the future, with improved hardware specifications and abundant data collection, the system's expansion into various safety-related metrics is promising. This algorithm is anticipated to play a pivotal role in ensuring safety when autonomous driving becomes commercialized. Additionally, its applicability could extend to other modes of public transportation, such as subways and all forms of mass transit, contributing to the overall safety of public transportation systems.

Deep Learning-Based Roundabout Traffic Analysis System Using Unmanned Aerial Vehicle Videos (드론 영상을 이용한 딥러닝 기반 회전 교차로 교통 분석 시스템)

  • Janghoon Lee;Yoonho Hwang;Heejeong Kwon;Ji-Won Choi;Jong Taek Lee
    • IEMEK Journal of Embedded Systems and Applications
    • /
    • v.18 no.3
    • /
    • pp.125-132
    • /
    • 2023
  • Roundabouts have strengths in traffic flow and safety but can present difficulties for inexperienced drivers. Demand to acquire and analyze drone images has increased to enhance a traffic environment allowing drivers to deal with roundabouts easily. In this paper, we propose a roundabout traffic analysis system that detects, tracks, and analyzes vehicles using a deep learning-based object detection model (YOLOv7) in drone images. About 3600 images for object detection model learning and testing were extracted and labeled from 1 hour of drone video. Through training diverse conditions and evaluating the performance of object detection models, we achieved an average precision (AP) of up to 97.2%. In addition, we utilized SORT (Simple Online and Realtime Tracking) and OC-SORT (Observation-Centric SORT), a real-time object tracking algorithm, which resulted in an average MOTA (Multiple Object Tracking Accuracy) of up to 89.2%. By implementing a method for measuring roundabout entry speed, we achieved an accuracy of 94.5%.

Dog Activities Recognition System using Dog-centered Cropped Images (반려견에 초점을 맞춰 추출하는 영상 기반의 행동 탐지 시스템)

  • Othmane Atif;Jonguk Lee;Daihee Park;Yongwha Chung
    • Annual Conference of KIPS
    • /
    • 2023.05a
    • /
    • pp.615-617
    • /
    • 2023
  • In recent years, the growing popularity of dogs due to the benefits they bring their owners has contributed to the increase of the number of dogs raised. For owners, it is their responsibility to ensure their dogs' health and safety. However, it is challenging for them to continuously monitor their dogs' activities, which are important to understand and guarantee their wellbeing. In this work, we introduce a camera-based monitoring system to help owners automatically monitor their dogs' activities. The system receives sequences of RGB images and uses YOLOv7 to detect the dog presence, and then applies post-processing to perform dog-centered image cropping on each input sequence. The optical flow is extracted from each sequence, and both sequences of RGB and flow are input to a two-stream EfficientNet to extract their respective features. Finally, the features are concatenated, and a bi-directional LSTM is utilized to retrieve temporal features and recognize the activity. The experiments prove that our system achieves a good performance with the F-1 score exceeding 0.90 for all activities and reaching 0.963 on average.