• 제목/요약/키워드: YOLOv10

검색결과 256건 처리시간 0.019초

Comparison analysis of YOLOv10 and existing object detection model performance

  • Joon-Yong Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권8호
    • /
    • pp.85-92
    • /
    • 2024
  • 본 논문에서는 최신 객체 탐지 모델인 YOLOv10과 이전 버전들 간의 성능을 비교 분석하였다. YOLOv10은 NMS-Free 훈련, 향상된 모델 아키텍처, 효율성 중심의 설계 등을 도입하여 뛰어난 성능을 보인다. COCO 데이터셋을 사용한 실험 결과, 특히 YOLOv10-N은 2.3M의 적은 파라미터 수와 6.7G의 부동 소수점 연산(FLOPs)으로도 39.5%의 높은 정확도와 1.84ms의 낮은 지연 시간을 유지하였다. 주요 성능 지표로는 모델 파라미터 수, FLOPs, 평균 정확도(AP), 지연 시간을 사용하였다. 분석 결과, YOLOv10은 다양한 응용 분야에서 실시간 객체 탐지 모델로서의 효과성을 확인하였다. 향후 연구로는 다양한 데이터셋 테스트와 모델 최적화, 응용 사례 확대 등을 제안하였다. 이를 통해 YOLOv10의 범용성과 효율성을 더욱 높일 수 있을 것이다.

노상 주차 차량 탐지를 위한 YOLOv4 그리드 셀 조정 알고리즘 (YOLOv4 Grid Cell Shift Algorithm for Detecting the Vehicle at Parking Lot)

  • 김진호
    • 디지털산업정보학회논문지
    • /
    • 제18권4호
    • /
    • pp.31-40
    • /
    • 2022
  • YOLOv4 can be used for detecting parking vehicles in order to check a vehicle in out-door parking space. YOLOv4 has 9 anchor boxes in each of 13x13 grid cells for detecting a bounding box of object. Because anchor boxes are allocated based on each cell, there can be existed small observational error for detecting real objects due to the distance between neighboring cells. In this paper, we proposed YOLOv4 grid cell shift algorithm for improving the out-door parking vehicle detection accuracy. In order to get more chance for trying to object detection by reducing the errors between anchor boxes and real objects, grid cells over image can be shifted to vertical, horizontal or diagonal directions after YOLOv4 basic detection process. The experimental results show that a combined algorithm of a custom trained YOLOv4 and a cell shift algorithm has 96.6% detection accuracy compare to 94.6% of a custom trained YOLOv4 only for out door parking vehicle images.

핵의학 팬텀 영상에서 초매개변수 변화에 따른 YOLOv5 모델의 성능평가 (Performance Evaluation of YOLOv5 Model according to Various Hyper-parameters in Nuclear Medicine Phantom Images)

  • 이민관;박찬록
    • 한국방사선학회논문지
    • /
    • 제18권1호
    • /
    • pp.21-26
    • /
    • 2024
  • You only look once v5 (YOLOv5)는 객체 검출 과정에 우수한 성능을 보이고 있는 딥러닝 모델 중 하나다. 그러므로 본 연구의 목적은 양전차방출단층촬영 팬텀 영상에서 다양한 하이퍼 파라미터에 따른 YOLOv5 모델의 성능을 평가했다. 데이터 세트는 500장의 QIN PET segmentation challenge로부터 제공되는 오픈 소스를 사용하였으며, LabelImg 소프트웨어를 사용하여 경계박스를 설정했다. 학습의 적용된 하이퍼파라미터는 최적화 함수 SDG, Adam, AdamW, 활성화 함수 SiLu, LeakyRelu, Mish, Hardwish와 YOLOv5 모델 크기에 따라 nano, small, large, xlarge다. 학습성능을 평가하기 위한 정량적 분석방법으로 Intersection of union (IOU)를 사용하였다. 결과적으로, AdmaW의 최적화 함수, Hardwish의 활성화 함수, nano 크기에서 우수한 객체 검출성능을 보였다. 결론적으로 핵의학 영상에서의 객체 검출 성능에 대한 YOLOV5 모델의 유용성을 확인하였다.

고추 작물의 정밀 질병 진단을 위한 딥러닝 모델 통합 연구: YOLOv8, ResNet50, Faster R-CNN의 성능 분석 (Integrated Deep Learning Models for Precise Disease Diagnosis in Pepper Crops: Performance Analysis of YOLOv8, ResNet50, and Faster R-CNN)

  • 서지인;심현
    • 한국전자통신학회논문지
    • /
    • 제19권4호
    • /
    • pp.791-798
    • /
    • 2024
  • 본 연구의 목적은 YOLOv8, ResNet50, Faster R-CNN 모델을 활용하여 고추 작물의 질병을 진단하고, 각 모델의 성능을 비교하는 것이다. 첫 번째 모델은 YOLOv8을 사용하여 질병을 진단하였고, 두 번째 모델은 ResNet50을 단독으로 사용하였다. 세 번째 모델은 YOLOv8과 ResNet50을 결합하여 질병을 진단하였으며, 네 번째 모델은 Faster R-CNN을 사용하여 질병을 진단하였다. 각 모델의 성능은 정확도, 정밀도, 재현율, F1-Score 지표로 평가된다. 연구 결과, YOLOv8과 ResNet50을 결합한 모델이 가장 높은 성능을 보였으며, YOLOv8 단독 모델도 높은 성능을 나타냈다.

전산화단층영상 기반 뇌출혈 검출을 위한 YOLOv5s 성능 평가 (Performance Evaluation of YOLOv5s for Brain Hemorrhage Detection Using Computed Tomography Images)

  • 김성민;이승완
    • 한국방사선학회논문지
    • /
    • 제16권1호
    • /
    • pp.25-34
    • /
    • 2022
  • 뇌 전산화단층촬영은 비침습성, 3차원 영상 제공, 저방사선량 등의 장점 때문에 뇌출혈과 같은 질병 진단을 위해 시행된다. 하지만 뇌 전산화단층영상 판독을 위한 전문의의 인력 공급 부족 및 막대한 업무량으로 인해 수많은 판독 오류 및 오진이 발생하고 있다. 이와 같은 문제를 해결하기 위해 객체 검출을 위한 다양한 인공지능 기술이 개발되고 있다. 본 연구에서는 뇌 전산화단층영상으로부터 뇌출혈 검출을 위한 딥러닝 기반 YOLOv5s 모델의 적용 가능성을 확인하였다. 또한 YOLOv5s 모델 학습 시 초매개변수를 변화시켜 학습된 모델의 성능을 평가하였다. YOLOv5s 모델은 backbone, neck 및 output 모듈로 구성하였고, 입력 CT 영상 내 뇌출혈로 의심되는 부위를 검출하여 출력할 수 있도록 하였다. YOLOv5s 모델 학습 시 활성화함수, 최적화함수, 손실함수 및 학습 횟수를 변화시켰고, 학습된 모델의 뇌출혈 검출 정확도 및 학습 시간을 측정하였다. 연구결과 학습된 YOLOv5s 모델은 뇌출혈로 의심되는 부위에 대한 경계 박스 및 해당 경계박스에 대한 정확도를 출력할 수 있음을 확인하였다. Mish 활성화함수, stochastic gradient descent 최적화함수 및 completed intersection over union 손실함수 적용 시 YOLOv5s 모델의 뇌출혈 검출 정확도 향상 및 학습 시간이 단축되는 결과를 확인하였다. 또한 YOLOv5s 모델의 뇌출혈 검출 정확도 및 학습 시간은 학습 횟수에 비례하여 증가하는 결과를 확인하였다. 따라서 YOLOv5s 모델은 뇌 전산화단층영상을 이용한 뇌출혈 검출을 위해 활용할 수 있으며, 최적의 초매개변수 적용을 통해 성능을 향상 시킬 수 있다.

Evaluating Chest Abnormalities Detection: YOLOv7 and Detection Transformer with CycleGAN Data Augmentation

  • Yoshua Kaleb Purwanto;Suk-Ho Lee;Dae-Ki Kang
    • International journal of advanced smart convergence
    • /
    • 제13권2호
    • /
    • pp.195-204
    • /
    • 2024
  • In this paper, we investigate the comparative performance of two leading object detection architectures, YOLOv7 and Detection Transformer (DETR), across varying levels of data augmentation using CycleGAN. Our experiments focus on chest scan images within the context of biomedical informatics, specifically targeting the detection of abnormalities. The study reveals that YOLOv7 consistently outperforms DETR across all levels of augmented data, maintaining better performance even with 75% augmented data. Additionally, YOLOv7 demonstrates significantly faster convergence, requiring approximately 30 epochs compared to DETR's 300 epochs. These findings underscore the superiority of YOLOv7 for object detection tasks, especially in scenarios with limited data and when rapid convergence is essential. Our results provide valuable insights for researchers and practitioners in the field of computer vision, highlighting the effectiveness of YOLOv7 and the importance of data augmentation in improving model performance and efficiency.

조식동물 탐지 및 모니터링을 위한 딥러닝 기반 객체 탐지 모델의 강인성 평가 (Evaluation of Robustness of Deep Learning-Based Object Detection Models for Invertebrate Grazers Detection and Monitoring)

  • 박수호;김흥민;김탁영;임재영;장선웅
    • 대한원격탐사학회지
    • /
    • 제39권3호
    • /
    • pp.297-309
    • /
    • 2023
  • 최근 조식동물로 인한 갯녹음 현상으로 인해 연안 생태계 및 어장환경의 황폐화가 가속화되고 있다. 이러한 갯녹음 현상을 모니터링하고 방지대책을 세우기 위해서는 광범위한 해역에 대한 원격탐사 기반의 모니터링 기술 도입이 필요하다. 본 연구에서는 수중에서 촬영된 동영상으로부터 조식동물을 탐지하고 모니터링하기 위한 딥러닝 기반 객체 탐지 모델의 강인성(robustness)을 비교 분석하였다. 우리나라 연안의 대표적인 조식동물 7종을 대상으로 이미지 데이터셋을 구축하였으며, 이를 활용하여 딥러닝 기반 객체 탐지 모델인 You Only Look Once (YOLO)v7과 YOLOv8을 훈련시켰다. 총 6개의 YOLO 모델(YOLOv7, YOLOv7x, YOLOv8s, YOLOv8m, YOLOv8l, YOLOv8x)에 대해 탐지 성능과 탐지 속도를 평가하였으며, 수중환경에서 촬영 시 발생할 수 있는 다양한 이미지 왜곡에 대해서 강인성 평가를 실시하였다. 평가결과 YOLOv8 계열 모델이 파라미터(parameter) 수 대비 더 높은 탐지 속도(약 71-141 FPS [frame per second])를 보였다. 탐지 성능에 있어서도 YOLOv8 계열 모델(mean average precision [mAP] 0.848-0.882)이 YOLOv7 계열 모델(mAP 0.847-0.850)에 비해 더 높은 성능을 보이는 것을 확인하였다. 모델의 강인함에 있어서 형태 왜곡에 대해서는 YOLOv7 계열 모델이 YOLOv8 계열 모델에 비해 강인한 것을 확인하였으며, 색상 왜곡에 대해서는 YOLOv8 계열 모델이 상대적으로 강인한 것을 확인 하였다. 따라서 실해역에서 수중 영상 촬영 시, 형태 왜곡은 발생 빈도가 낮으며 색상 왜곡은 연안에서 빈번하게 발생한다는 점을 고려했을 때, 연안해역에서 조식동물 탐지와 모니터링을 위해서는 YOLOv8 계열 모델을 활용하는 것이 타당한 것으로 판단된다.

Development of YOLOv5s and DeepSORT Mixed Neural Network to Improve Fire Detection Performance

  • Jong-Hyun Lee;Sang-Hyun Lee
    • International Journal of Advanced Culture Technology
    • /
    • 제11권1호
    • /
    • pp.320-324
    • /
    • 2023
  • As urbanization accelerates and facilities that use energy increase, human life and property damage due to fire is increasing. Therefore, a fire monitoring system capable of quickly detecting a fire is required to reduce economic loss and human damage caused by a fire. In this study, we aim to develop an improved artificial intelligence model that can increase the accuracy of low fire alarms by mixing DeepSORT, which has strengths in object tracking, with the YOLOv5s model. In order to develop a fire detection model that is faster and more accurate than the existing artificial intelligence model, DeepSORT, a technology that complements and extends SORT as one of the most widely used frameworks for object tracking and YOLOv5s model, was selected and a mixed model was used and compared with the YOLOv5s model. As the final research result of this paper, the accuracy of YOLOv5s model was 96.3% and the number of frames per second was 30, and the YOLOv5s_DeepSORT mixed model was 0.9% higher in accuracy than YOLOv5s with an accuracy of 97.2% and number of frames per second: 30.

YOLOv2와 무인항공기를 이용한 자동차 탐지에 관한 연구 (The Study of Car Detection on the Highway using YOLOv2 and UAVs)

  • 서창진
    • 전기학회논문지P
    • /
    • 제67권1호
    • /
    • pp.42-46
    • /
    • 2018
  • In this paper, we propose fast object detection method of the cars by applying YOLOv2(You Only Look Once version 2) and UAVs (Unmanned Aerial Vehicles) while on the highway. We operated Darknet, OpenCV, CUDA and Deep Learning Server(SDX-4185) for our simulation environment. YOLOv2 is recently developed fast object detection algorithm that can detect various scale objects as fast speed. YOLOv2 convolution network algorithm allows to calculate probability by one pass evaluation and predicts location of each cars, because object detection process has simple single network. In our result, we could find cars on the highway area as fast speed and we could apply to the real time.

SSD PCB Component Detection Using YOLOv5 Model

  • Pyeoungkee, Kim;Xiaorui, Huang;Ziyu, Fang
    • Journal of information and communication convergence engineering
    • /
    • 제21권1호
    • /
    • pp.24-31
    • /
    • 2023
  • The solid-state drive (SSD) possesses higher input and output speeds, more resistance to physical shock, and lower latency compared with regular hard disks; hence, it is an increasingly popular storage device. However, tiny components on an internal printed circuit board (PCB) hinder the manual detection of malfunctioning components. With the rapid development of artificial intelligence technologies, automatic detection of components through convolutional neural networks (CNN) can provide a sound solution for this area. This study proposes applying the YOLOv5 model to SSD PCB component detection, which is the first step in detecting defective components. It achieves pioneering state-of-the-art results on the SSD PCB dataset. Contrast experiments are conducted with YOLOX, a neck-and-neck model with YOLOv5; evidently, YOLOv5 obtains an mAP@0.5 of 99.0%, essentially outperforming YOLOX. These experiments prove that the YOLOv5 model is effective for tiny object detection and can be used to study the second step of detecting defective components in the future.