• 제목/요약/키워드: YOLOv7

검색결과 52건 처리시간 0.028초

다양한 컴퓨팅 환경에서 YOLOv7 모델의 추론 시간 복잡도 분석 (YOLOv7 Model Inference Time Complexity Analysis in Different Computing Environments)

  • 박천수
    • 반도체디스플레이기술학회지
    • /
    • 제21권3호
    • /
    • pp.7-11
    • /
    • 2022
  • Object detection technology is one of the main research topics in the field of computer vision and has established itself as an essential base technology for implementing various vision systems. Recent DNN (Deep Neural Networks)-based algorithms achieve much higher recognition accuracy than traditional algorithms. However, it is well-known that the DNN model inference operation requires a relatively high computational power. In this paper, we analyze the inference time complexity of the state-of-the-art object detection architecture Yolov7 in various environments. Specifically, we compare and analyze the time complexity of four types of the Yolov7 model, YOLOv7-tiny, YOLOv7, YOLOv7-X, and YOLOv7-E6 when performing inference operations using CPU and GPU. Furthermore, we analyze the time complexity variation when inferring the same models using the Pytorch framework and the Onnxruntime engine.

Evaluating Chest Abnormalities Detection: YOLOv7 and Detection Transformer with CycleGAN Data Augmentation

  • Yoshua Kaleb Purwanto;Suk-Ho Lee;Dae-Ki Kang
    • International journal of advanced smart convergence
    • /
    • 제13권2호
    • /
    • pp.195-204
    • /
    • 2024
  • In this paper, we investigate the comparative performance of two leading object detection architectures, YOLOv7 and Detection Transformer (DETR), across varying levels of data augmentation using CycleGAN. Our experiments focus on chest scan images within the context of biomedical informatics, specifically targeting the detection of abnormalities. The study reveals that YOLOv7 consistently outperforms DETR across all levels of augmented data, maintaining better performance even with 75% augmented data. Additionally, YOLOv7 demonstrates significantly faster convergence, requiring approximately 30 epochs compared to DETR's 300 epochs. These findings underscore the superiority of YOLOv7 for object detection tasks, especially in scenarios with limited data and when rapid convergence is essential. Our results provide valuable insights for researchers and practitioners in the field of computer vision, highlighting the effectiveness of YOLOv7 and the importance of data augmentation in improving model performance and efficiency.

조식동물 탐지 및 모니터링을 위한 딥러닝 기반 객체 탐지 모델의 강인성 평가 (Evaluation of Robustness of Deep Learning-Based Object Detection Models for Invertebrate Grazers Detection and Monitoring)

  • 박수호;김흥민;김탁영;임재영;장선웅
    • 대한원격탐사학회지
    • /
    • 제39권3호
    • /
    • pp.297-309
    • /
    • 2023
  • 최근 조식동물로 인한 갯녹음 현상으로 인해 연안 생태계 및 어장환경의 황폐화가 가속화되고 있다. 이러한 갯녹음 현상을 모니터링하고 방지대책을 세우기 위해서는 광범위한 해역에 대한 원격탐사 기반의 모니터링 기술 도입이 필요하다. 본 연구에서는 수중에서 촬영된 동영상으로부터 조식동물을 탐지하고 모니터링하기 위한 딥러닝 기반 객체 탐지 모델의 강인성(robustness)을 비교 분석하였다. 우리나라 연안의 대표적인 조식동물 7종을 대상으로 이미지 데이터셋을 구축하였으며, 이를 활용하여 딥러닝 기반 객체 탐지 모델인 You Only Look Once (YOLO)v7과 YOLOv8을 훈련시켰다. 총 6개의 YOLO 모델(YOLOv7, YOLOv7x, YOLOv8s, YOLOv8m, YOLOv8l, YOLOv8x)에 대해 탐지 성능과 탐지 속도를 평가하였으며, 수중환경에서 촬영 시 발생할 수 있는 다양한 이미지 왜곡에 대해서 강인성 평가를 실시하였다. 평가결과 YOLOv8 계열 모델이 파라미터(parameter) 수 대비 더 높은 탐지 속도(약 71-141 FPS [frame per second])를 보였다. 탐지 성능에 있어서도 YOLOv8 계열 모델(mean average precision [mAP] 0.848-0.882)이 YOLOv7 계열 모델(mAP 0.847-0.850)에 비해 더 높은 성능을 보이는 것을 확인하였다. 모델의 강인함에 있어서 형태 왜곡에 대해서는 YOLOv7 계열 모델이 YOLOv8 계열 모델에 비해 강인한 것을 확인하였으며, 색상 왜곡에 대해서는 YOLOv8 계열 모델이 상대적으로 강인한 것을 확인 하였다. 따라서 실해역에서 수중 영상 촬영 시, 형태 왜곡은 발생 빈도가 낮으며 색상 왜곡은 연안에서 빈번하게 발생한다는 점을 고려했을 때, 연안해역에서 조식동물 탐지와 모니터링을 위해서는 YOLOv8 계열 모델을 활용하는 것이 타당한 것으로 판단된다.

모바일 로봇을 위한 엣지 컴퓨팅에서의 실시간 2D/3D 객체인식 (Real time 2D/3D Object Detection on Edge Computing for Mobile Robot)

  • 김재영 ;문형필
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.1161-1162
    • /
    • 2023
  • 모바일 로봇의 자율주행을 위하여 인터넷이 제약된 환경에서도 가능한 Edge computing 에서의 Object Detection 이 필수적이다. 본 논문에서는 이를 위해 Orin 보드에서 YOLOv7 과 Complex_YOLOv4 를 구현하였다. 직접 취득한 데이터를 통해 YOLOv7 을 구현한 결과 0.56 의 mAP 로 프레임당 133ms 가 소요되었다. Kitti Dataset 을 통해 Complex_YOLOv4 를 구현한 결과 0.88 의 mAP 로 프레임당 236ms 가 소요되었다. Comple_YOLOv4 가 YOLOv7 보다 더 많은 데이터를 예측하기에 시간은 더 소요되지만 높은 정확성을 가지는 것을 확인할 수 있었다.

Jetson 임베디드 플랫폼에서의 YOLOv7 추론 속도 개선에 관한 연구 (A Study on the Improvement of YOLOv7 Inference Speed in Jetson Embedded Platform)

  • 강보찬;유동영
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.154-155
    • /
    • 2023
  • 오픈 소스인 YOLO(You Only Look Once) 객체 탐지 알고리즘이 공개된 이후, 산업 현장에서는 고성능 컴퓨터에서 벗어나 효율과 특수한 환경에 사용하기 위해 임베디드 시스템에 도입하고 있다. 그러나, NVIDIA의 Jetson nano의 경우, Pytorch의 YOLOv7 딥러닝 모델에 대한 추론이 진행되지 않는다. 따라서 제한적인 전력과 메모리, 연산능력 최적화 과정은 필수적이다. 본 논문은 NVIDIA의 임베디드 플랫폼 Jetson 계열의 Xavier NX, Orin AGX, Nano에서 딥러닝 모델을 적용하기 위한 최적화 과정과 플랫폼에서 다양한 크기의 YOLOv7의 PyTorch 모델들을 Tensor RT로 변환하여 FPS(Frames Per Second)를 측정 및 비교한다. 측정 결과를 통해, 각 임베디드 플랫폼에서 YOLOv7 모델의 추론은 Tensor RT는 Pytorch에서 약 4.1배 적은 FPS 변동성과 약 2.25배 정도의 FPS 속도향상을 보였다.

YOLOv7 알고리즘 기반 대형폐기물 검출 및 분류 (Detection and classification of Bulky Waste based on YOLOv7 algorithm)

  • 김시웅;고준혁;박정현;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.1215-1217
    • /
    • 2023
  • 가정에서 대형 폐기물을 배출하고 수거하는 과정에서 폐기물을 수동적으로 분류를 하는 것은 시간이 많이 소요되는 작업이다. 본 논문에서는 YOLOv4, 5, 7 모델을 비교하여 실생활에 사용가능한 대형 폐기물 탐지에 가장 적합한 모델을 찾는다. 이미지 증강 전 결과는 YOLOv7이 가장 좋은 성능을 보였다. 배출자가 촬영하는 각도나 위치, 시간 등의 변수를 고려하고자 증강을 시도하였고 증강 후 탐지 결과도 YOLOv7이 F1-score 93 %, mAP 96.6% 로 다른 모델보다 전체적으로 더 좋은 성능을 보였다.

A fast defect detection method for PCBA based on YOLOv7

  • Shugang Liu;Jialong Chen;Qiangguo Yu;Jie Zhan;Linan Duan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권8호
    • /
    • pp.2199-2213
    • /
    • 2024
  • To enhance the quality of defect detection for Printed Circuit Board Assembly (PCBA) during electronic product manufacturing, this study primarily focuses on optimizing the YOLOv7-based method for PCBA defect detection. In this method, the Mish, a smoother function, replaces the Leaky ReLU activation function of YOLOv7, effectively expanding the network's information processing capabilities. Concurrently, a Squeeze-and-Excitation attention mechanism (SEAM) has been integrated into the head of the model, significantly augmenting the precision of small target defect detection. Additionally, considering angular loss, compared to the CIoU loss function in YOLOv7, the SIoU loss function in the paper enhances robustness and training speed and optimizes inference accuracy. In terms of data preprocessing, this study has devised a brightness adjustment data enhancement technique based on split-filtering to enrich the dataset while minimizing the impact of noise and lighting on images. The experimental results under identical training conditions demonstrate that our model exhibits a 9.9% increase in mAP value and an FPS increase to 164 compared to the YOLOv7. These indicate that the method proposed has a superior performance in PCBA defect detection and has a specific application value.

딥러닝 기반 육상기인 부유쓰레기 탐지 모델 성능 비교 및 현장 적용성 평가 (A Performance Comparison of Land-Based Floating Debris Detection Based on Deep Learning and Its Field Applications)

  • 박수호;장선웅;김흥민;김탁영;예건희
    • 대한원격탐사학회지
    • /
    • 제39권2호
    • /
    • pp.193-205
    • /
    • 2023
  • 집중강우 시 육상으로부터 다량으로 유입된 부유쓰레기는 사회, 경제적 및 환경적으로 부정적인 영향을 주고 있으나 부유쓰레기 집적 구간 및 발생량에 대한 모니터링 체계는 미흡한 실정이다. 최근 인공지능 기술의 발달로 드론 영상과 딥러닝 기반 객체탐지 모델을 활용하여 수계 내 광범위한 지역을 신속하고 효율적인 연구의 필요성이 요구되고 있다. 본 연구에서는 육상기인 부유쓰레기의 효율적인 탐지 기법을 제시하기 위해 드론 영상뿐만 아니라 다양한 이미지를 확보하여 You Only Look Once (YOLO)v5s와 최근에 개발된 YOLO7 및 YOLOv8s로 학습하여 모델별로 성능을 비교하였다. 각 모델의 정성적인 성능 평가 결과, 세 모델 모두 일반적인 상황에서 탐지성능이 우수한 것으로 나타났으나, 이미지의 노출이 심하거나 수면의 태양광 반사가 심한 경우 YOLOv8s 모델에서 대상물을 누락 또는 중복 탐지하는 사례가 나타났다. 정량적인 성능 평가 결과, YOLOv7의 mean Average Precision (intersection over union, IoU 0.5)이 0.940으로 YOLOv5s (0.922)와 YOLOvs8(0.922)보다 좋은 성능을 나타냈다. 데이터 품질에 따른 모델의 성능 비교하기 위해 색상 및 고주파 성분에 왜곡을 발생시킨 결과, YOLOv8s 모델의 성능 저하가 가장 뚜렷하게 나타났으며, YOLOv7 모델이 가장 낮은 성능 저하 폭을 보였다. 이를 통해 수면 위에 존재하는 부유쓰레기 탐지에 있어서 YOLOv7 모델이 YOLOv5s와 YOLOv8s 모델에 비해 강인한 모델임을 확인하였다. 본 연구에서 제안하는 딥러닝 기반 부유쓰레기 탐지 기법은 부유쓰레기의 성상별 분포 현황을 공간적으로 파악할 수 있어 향후 정화작업 계획수립에 기여할 수 있을 것으로 판단된다.

YOLOv8을 이용한 실시간 야생동물 로드킬 탐지 기법 (A Real-Time Wildlife Roadkill Detection Approach Using YOLOv8)

  • 김해성;문지훈
    • 사물인터넷융복합논문지
    • /
    • 제10권5호
    • /
    • pp.185-196
    • /
    • 2024
  • 지속적인 도시화와 도로 개발로 인해 야생동물의 로드킬 사고가 심각한 사회적 문제로 대두되고 있다. 특히 한국은 높은 도로 밀도로 인해 야생동물이 로드킬 위험에 더욱 노출되어 있다. 본 연구는 최신 객체 탐지 기술인 YOLOv8 모델을 활용하여 국내 야생동물 로드킬 사고를 예방하기 위한 객체 탐지 시스템을 제안한다. Roboflow를 이용해 6종의 포유류 이미지 데이터를 전처리한 후, YOLOv8 모델을 학습시켜 높은 정확도(mAP50: 0.986, mAP50-95: 0.86)를 달성하였다. 또한, YOLOv5 및 YOLOv7과의 비교 실험을 통해 YOLOv8의 우수성을 입증하였다. 본 연구는 보호색을 가진 동물들에서도 높은 탐지 성능을 보여 로드킬 사고 감소와 야생동물의 안전한 이동을 지원하며, 생태 통로 및 유도 울타리의 설계와 배치에 중요한 기초 자료를 제공한다.

YOLOv4 네트워크를 이용한 자동운전 데이터 분할이 검출성능에 미치는 영향 (Influence of Self-driving Data Set Partition on Detection Performance Using YOLOv4 Network)

  • 왕욱비;진락;이추담;손진구;정석용;송정영
    • 한국인터넷방송통신학회논문지
    • /
    • 제20권6호
    • /
    • pp.157-165
    • /
    • 2020
  • 뉴-럴 네트워크와 자동운전 데이터 셋을 개발하는 목표중의 하나가 데이터 셋을 분할함에 따라서 움직이는 물체를 검출하는 성능을 개선하는 방법이 있다. 다크넷 (DarkNet) 프레임 워크에 있어서, YOLOv4 네트워크는 Udacity 데이터 셋에서 훈련하는 셋과 검증 셋으로 사용되었다. Udacity 데이터 셋의 7개 비율에 따라서 이 데이터 셋은 훈련 셋, 검증 셋, 테스트 셋을 포함한 3개의 부분 셋으로 나누어진다. K-means++ 알고리즘은 7개 그룹에서 개체 Box 차원 군집화를 수행하기 위해 사용되었다. 훈련을 위한 YOLOv4 네트워크의 슈퍼 파라메타를 조절하여 7개 그룹들에 대하여 최적 모델 파라메타가 각각 구해졌다. 이 모델 파라메타는 각각 7 개 테스트 셋 데이터에 비교하고 검출에 사용되었다. 실험결과에서 YOLOv4 네트워크는 Udacity 데이터 셋에서 트럭, 자동차, 행인으로 표현되는 움직이는 물체에 대하여 대/중/소 물체 검출을 할수 있음을 보여 주었다. 훈련 셋과 검증 셋, 테스트 셋의 비율이 7 ; 1.5 ; 1.5 일 때 최적의 모델 파라메타로서 가장 높은 검출 성능이었다. 그 결과값은, mAP50가 80.89%, mAP75가 47.08%에 달하고, 검출 속도는 10.56 FPS에 달한다.