• 제목/요약/키워드: YOLOv5 Model

검색결과 94건 처리시간 0.022초

실시간 객체 검출 기술 YOLOv5를 이용한 스마트 엘리베이터 시스템에 관한 연구 (A Study on the Elevator System Using Real-time Object Detection Technology YOLOv5)

  • 박선빈;정유정;이다은;김태국
    • 사물인터넷융복합논문지
    • /
    • 제10권2호
    • /
    • pp.103-108
    • /
    • 2024
  • 본 논문에서는 YOLO(You only look once)v5를 기반으로 한 실시간 객체 검출 기술을 활용하여 스마트 엘리베이터 시스템을 연구하였다. 외부 엘리베이터 버튼이 눌러지면 YOLOv5 모델이 카메라 영상을 분석하여 대기자의 유무를 판별하고, 대기자가 없다고 판별되면 해당 버튼을 자동으로 취소시킨다. 연구에서는 YOLOv5와 사물인터넷에서 활용되는 MQTT(Message Queuing Telemetry Transport)를 통한 객체 탐지 및 통신 기술의 효과적인 구현 방법을 소개한다. 그리고 이를 활용하여 대기자 유무를 실시간으로 판별하는 스마트 엘리베이터 시스템을 구현하였다. 제안한 시스템은 불필요한 소비 전력을 절감하면서 CCTV(closed-circuit television)의 역할을 할 수 있다. 따라서 제안한 스마트 엘리베이터 시스템은 안전 및 치안 문제에도 기여할 수 있을 것으로 기대한다.

A deep learning approach to permanent tooth germ detection on pediatric panoramic radiographs

  • Kaya, Emine;Gunec, Huseyin Gurkan;Aydin, Kader Cesur;Urkmez, Elif Seyda;Duranay, Recep;Ates, Hasan Fehmi
    • Imaging Science in Dentistry
    • /
    • 제52권3호
    • /
    • pp.275-281
    • /
    • 2022
  • Purpose: The aim of this study was to assess the performance of a deep learning system for permanent tooth germ detection on pediatric panoramic radiographs. Materials and Methods: In total, 4518 anonymized panoramic radiographs of children between 5 and 13 years of age were collected. YOLOv4, a convolutional neural network (CNN)-based object detection model, was used to automatically detect permanent tooth germs. Panoramic images of children processed in LabelImg were trained and tested in the YOLOv4 algorithm. True-positive, false-positive, and false-negative rates were calculated. A confusion matrix was used to evaluate the performance of the model. Results: The YOLOv4 model, which detected permanent tooth germs on pediatric panoramic radiographs, provided an average precision value of 94.16% and an F1 value of 0.90, indicating a high level of significance. The average YOLOv4 inference time was 90 ms. Conclusion: The detection of permanent tooth germs on pediatric panoramic X-rays using a deep learning-based approach may facilitate the early diagnosis of tooth deficiency or supernumerary teeth and help dental practitioners find more accurate treatment options while saving time and effort

딥러닝 모델을 적용한 장애인 주차구역 단속시스템의 개발 (Development of Disabled Parking System Using Deep Learning Model)

  • 이지원;이동진;장종욱;장성진
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.175-177
    • /
    • 2021
  • 장애인 주차구역은 보행장애인을 위한 주차시설로써, 장애인의 보행 안전 통로를 확보하기 위한 주차공간이다. 하지만 장애인 전용구역에 대한 사회적인 인식 부족으로 실제 주차구역을 이용해야 하는 장애인의 이용이 제한되고 불법 주차 행위 및 주차 방해 행위 등 위반사례들이 매년 급증하고 있다. 따라서, 본 연구에서는 장애인 주차 구역의 불법 주차 차량 및 주차공간 내부에서 주차를 방해하는 행위를 개선하기 위해 딥러닝 객체 인식 모델인 YOLOv5 모델을 적용한 장애인 주차구역 불법행위 단속시스템을 제안한다.

  • PDF

Bounding Box CutMix와 표준화 거리 기반의 IoU를 통한 재활용품 탐지 (Recyclable Objects Detection via Bounding Box CutMix and Standardized Distance-based IoU)

  • 이해진;정희철
    • 대한임베디드공학회논문지
    • /
    • 제17권5호
    • /
    • pp.289-296
    • /
    • 2022
  • In this paper, we developed a deep learning-based recyclable object detection model. The model is developed based on YOLOv5 that is a one-stage detector. The deep learning model detects and classifies the recyclable object into 7 categories: paper, carton, can, glass, pet, plastic, and vinyl. We propose two methods for recyclable object detection models to solve problems during training. Bounding Box CutMix solved the no-objects training images problem of Mosaic, a data augmentation used in YOLOv5. Standardized Distance-based IoU replaced DIoU using a normalization factor that is not affected by the center point distance of the bounding boxes. The recyclable object detection model showed a final mAP performance of 0.91978 with Bounding Box CutMix and 0.91149 with Standardized Distance-based IoU.

YOLOv5를 이용한 병원 내부환경에서의 환자 낙상 탐지모델에 관한 연구 (A Study on the Fallen Patient Detection Model in Indoor Hospital Using YOLOv5)

  • 홍상훈;배현재
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제66차 하계학술대회논문집 30권2호
    • /
    • pp.93-94
    • /
    • 2022
  • 최근 고령화 사회가 심각한 사회적 문제로 급부상하고 있으며, 이에 병원을 찾아 입원하는 비중이 이전에 비하여 높아지고 있다. 거동이 불편하거나 근력이 부족한 환자의 경우 스스로 거동할 능력이 다소 떨어지며, 낙상사고가 발생하면 부상 혹은 치명적일 경우 사망으로 이어질 수 있다. 하지만, 이들을 보살피는 간호 인력만으로 병원 내 모든 낙상사고를 파악하기에는 한계가 있다. 또한, 환자들의 낙상 탐지에 관한 연구는 지속해서 수행되어왔지만, 병원 내부환경에서의 낙상 탐지 연구는 부족하다. 이에 본 논문에서는 병원 내부환경에서 낙상을 탐지하기 위해 실제 병실에서 수집한 데이터로 YOLOv5 모델을 학습하여 환자 낙상 탐지모델을 구축 및 평가하였다.

  • PDF

YOLOv5를 이용한 딸기 병해 판별 모델 연구 (A Study on the Model for Determining Strawberry Disease Using YOLOv5)

  • 양진환;주형식;신보경;방진숙
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.709-710
    • /
    • 2023
  • 최근 농가 인구의 고령화 심화로 인한 농업 인력 감소로 농업 지속 가능성이 위협받고 있다. 국내 농가의 주요 형태인 시설 재배지에서는 병해에 의한 연쇄 피해가 발생할 수 있으므로 농업 생산성 증대를 위해 병해의 조기 진단이 필요하다. 본 논문에서는 병해의 조기 진단과 대처를 위해 YOLOv5를 이용한 딸기 병해 진단 모델을 제작, 데이터셋과 학습 세부사항에 변화를 주며 실험하였다. 실험 결과 데이터셋과 epochs 증량은 모델 성능에 영향을 주지만 임계점에 다다르면 성능 향상에 도움이 되지 않는 것을 알 수 있었다. 한편 학습한 모델 중 가장 좋은 성능을 가진 모델의 경우 F1 Score 0.98, mAP 0.99를 나타내 높은 정확도로 딸기의 병해 여부 진단이 가능하였다.

YOLO를 이용한 SAR 영상의 선박 객체 탐지: 편파별 모델 구성과 정확도 특성 분석 (Ship Detection from SAR Images Using YOLO: Model Constructions and Accuracy Characteristics According to Polarization)

  • 임윤교;윤유정;강종구;김서연;정예민;최소연;서영민;이양원
    • 대한원격탐사학회지
    • /
    • 제39권5_3호
    • /
    • pp.997-1008
    • /
    • 2023
  • 해상의 선박탐지는 다양한 방법으로 수행될 수 있는데, 위성은 광역적인 감시가 가능하고, 특히 합성개구레이더(Synthetic Aperture Radar, SAR) 영상은 주야간 및 전천후로 활용될 수 있다. 본 연구에서는 SAR 영상으로부터 효율적인 선박 탐지 방법을 제시하기 위하여, Sentinel-1 영상에 You Only Look Once Version 5 (YOLOv5) 모델을 적용하여 선박 탐지를 수행하고, 편파별 개별 모델과 통합 모델의 차이 및 편파별 정확도 특성을 분석하였다. 파라미터가 작고 가벼운 YOLOv5s와 파라미터가 많지만 정확도가 높은 YOLOv5x 두가지 모델에 대하여 각각 (1) HH, HV, VH, VV 각 편파별로 나누어 학습/검증 및 평가 그리고 (2) 모든 편파의 영상을 사용하여 학습/검증 및 평가를 실시한 결과, 네 가지 실험에서 모두 0.977 ≤ AP@0.5 ≤ 0.998의 비슷하면서 매우 높은 정확도를 나타냈다. 이러한 결과를 현업시스템의 관점에서 보면, 가벼운 YOLO 모델(YOLOv5s, YOLOv8s 등)로 4개 편파 통합 모델을 구축하는 것이 실시간 선박탐지에 효과적임을 시사하는 것이다. 이 실험에서 사용한 영상은 19,582장이었지만, Sentinel-1 이외에도 Capella, ICEYE 등 다른 SAR 영상을 추가적으로 활용한다면, 보다 더 유연하고 정확한 선박 탐지 모델이 구축될 수 있을 것이다.

수중영상을 이용한 저서성 해양무척추동물의 실시간 객체 탐지: YOLO 모델과 Transformer 모델의 비교평가 (Realtime Detection of Benthic Marine Invertebrates from Underwater Images: A Comparison betweenYOLO and Transformer Models)

  • 박강현;박수호;장선웅;공신우;곽지우;이양원
    • 대한원격탐사학회지
    • /
    • 제39권5_3호
    • /
    • pp.909-919
    • /
    • 2023
  • Benthic marine invertebrates, the invertebrates living on the bottom of the ocean, are an essential component of the marine ecosystem, but excessive reproduction of invertebrate grazers or pirate creatures can cause damage to the coastal fishery ecosystem. In this study, we compared and evaluated You Only Look Once Version 7 (YOLOv7), the most widely used deep learning model for real-time object detection, and detection tansformer (DETR), a transformer-based model, using underwater images for benthic marine invertebratesin the coasts of South Korea. YOLOv7 showed a mean average precision at 0.5 (mAP@0.5) of 0.899, and DETR showed an mAP@0.5 of 0.862, which implies that YOLOv7 is more appropriate for object detection of various sizes. This is because YOLOv7 generates the bounding boxes at multiple scales that can help detect small objects. Both models had a processing speed of more than 30 frames persecond (FPS),so it is expected that real-time object detection from the images provided by divers and underwater drones will be possible. The proposed method can be used to prevent and restore damage to coastal fisheries ecosystems, such as rescuing invertebrate grazers and creating sea forests to prevent ocean desertification.

Real-Time Comprehensive Assistance for Visually Impaired Navigation

  • Amal Al-Shahrani;Amjad Alghamdi;Areej Alqurashi;Raghad Alzahrani;Nuha imam
    • International Journal of Computer Science & Network Security
    • /
    • 제24권5호
    • /
    • pp.1-10
    • /
    • 2024
  • Individuals with visual impairments face numerous challenges in their daily lives, with navigating streets and public spaces being particularly daunting. The inability to identify safe crossing locations and assess the feasibility of crossing significantly restricts their mobility and independence. Globally, an estimated 285 million people suffer from visual impairment, with 39 million categorized as blind and 246 million as visually impaired, according to the World Health Organization. In Saudi Arabia alone, there are approximately 159 thousand blind individuals, as per unofficial statistics. The profound impact of visual impairments on daily activities underscores the urgent need for solutions to improve mobility and enhance safety. This study aims to address this pressing issue by leveraging computer vision and deep learning techniques to enhance object detection capabilities. Two models were trained to detect objects: one focused on street crossing obstacles, and the other aimed to search for objects. The first model was trained on a dataset comprising 5283 images of road obstacles and traffic signals, annotated to create a labeled dataset. Subsequently, it was trained using the YOLOv8 and YOLOv5 models, with YOLOv5 achieving a satisfactory accuracy of 84%. The second model was trained on the COCO dataset using YOLOv5, yielding an impressive accuracy of 94%. By improving object detection capabilities through advanced technology, this research seeks to empower individuals with visual impairments, enhancing their mobility, independence, and overall quality of life.

A Scene-Specific Object Detection System Utilizing the Advantages of Fixed-Location Cameras

  • Jin Ho Lee;In Su Kim;Hector Acosta;Hyeong Bok Kim;Seung Won Lee;Soon Ki Jung
    • Journal of information and communication convergence engineering
    • /
    • 제21권4호
    • /
    • pp.329-336
    • /
    • 2023
  • This paper introduces an edge AI-based scene-specific object detection system for long-term traffic management, focusing on analyzing congestion and movement via cameras. It aims to balance fast processing and accuracy in traffic flow data analysis using edge computing. We adapt the YOLOv5 model, with four heads, to a scene-specific model that utilizes the fixed camera's scene-specific properties. This model selectively detects objects based on scale by blocking nodes, ensuring only objects of certain sizes are identified. A decision module then selects the most suitable object detector for each scene, enhancing inference speed without significant accuracy loss, as demonstrated in our experiments.