• 제목/요약/키워드: YOLOv8

검색결과 54건 처리시간 0.019초

A Research on Cylindrical Pill Bottle Recognition with YOLOv8 and ORB

  • Dae-Hyun Kim;Hyo Hyun Choi
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권2호
    • /
    • pp.13-20
    • /
    • 2024
  • 본 논문은 영상에서 특정 원통형 약통을 식별할 수 있는 모델 이미지 생성 방식을 제시하고 데이터 수집에 대한 기술을 연구한다. 기존 연구들은 객체 인식과 특정 객체 식별이 분리되어 있어 이미지 스티칭(image stitching) 자동화에 적용하기 어려웠으며, 좌표 기반 이미지 추출 방식이 이미지 스티칭 과정에서 객체 영역 외의 정보도 모델 이미지에 포함시키는 문제를 갖고 있었다. 이를 해결하기 위해 본 논문은 최근에 출시된 YOLOv8(You Only Look Once)의 세그멘테이션(segmentation)기법을 수직축 회전하는 약통 영상에 적용하고 특징점 매칭 알고리즘인 ORB(Oriented FAST and Rotated BRIEF)를 활용하여 모델 이미지 생성을 자동화하였다. 연구 결과, 세그멘테이션 기법을 적용할 경우 특정 약통 식별시 인식률이 향상되었으며 특징점 매칭 알고리즘으로 생성된 모델 이미지는 특정 악통을 정확하게 식별해 낼 수 있었다.

UAV와 딥러닝을 활용한 야적퇴비 탐지 및 관리등급 산정 (Detection and Grading of Compost Heap Using UAV and Deep Learning)

  • 박미소;김흥민;김영민;박수호;김탁영;장선웅
    • 대한원격탐사학회지
    • /
    • 제40권1호
    • /
    • pp.33-43
    • /
    • 2024
  • 본 연구는 비점오염원 중 하나인 야적퇴비의 효율적인 탐지를 위해 You Only Look Once (YOLO)v8 모델과 DeepLabv3+ 모델의 적용 가능성을 평가하였다. 무인항공기(Unmanned Aerial Vehicle, UAV)를 이용하여 수집된 고해상도 영상을 바탕으로, 두 모델의 정량적 및 정성적 성능을 비교 분석하였다. 정량적 평가에서 YOLOv8 모델은 다양한 지표에서 우수한 성능을 나타내며, 특히 야적퇴비의 덮개 유무를 정확하게 식별할 수 있는 능력을 보였다. 이러한 결과는 YOLOv8 모델이 야적퇴비의 정밀한 탐지 및 분류에 효과적임을 시사하며, 이를 바탕으로 야적퇴비의 관리 등급을 산정하고 비점오염원 관리에 기여할 수 있는 새로운 접근 방법을 제공한다. 본 연구는 UAV와 딥러닝 기술을 활용한 야적퇴비 탐지 및 관리가 기존 현장 조사 방식의 한계를 극복하며 정확하고 효율적인 비점오염원 관리 전략 수립 및 수계환경 보호에 기여할 것으로 기대된다.

딥러닝에 의한 항공사진 구름 분류 및 탐지 비교 실험 (Comparative Experiment of Cloud Classification and Detection of Aerial Image by Deep Learning)

  • 송준영;원태연;조수민;어양담;박소영;신상호;박진수;김창재
    • 한국측량학회지
    • /
    • 제39권6호
    • /
    • pp.409-418
    • /
    • 2021
  • 항공사진 촬영량이 증가함에 따라 품질검사 자동화의 필요성이 대두되고 있다. 본 연구에서는 딥러닝 기법으로 항공사진 내 구름을 분류 또는 탐지하는 실험을 수행하였고, 또한 위성영상을 학습자료에 포함시켜 분류 및 탐지를 수행하였다. 실험에 사용한 알고리즘으로는 GoogLeNet, VGG16, Faster R-CNN과 YOLOv3을 적용하여 결과를 비교하였다. 또한 구름이 포함된 오류영상 확보의 현실적 제한을 고려하여 항공영상만 존재하는 학습 데이터세트에서 위성영상을 활용한 추가학습이 분류 및 탐지정확도에 영향을 미치는지도 분석하였다. 실험결과, 항공사진의 구름 분류와 탐지에서 각각 GoogLeNet과 YOLOv3 알고리즘이 상대적으로 우월한 정확도를 나타냈고, GoogLeNet은 구름에 대한 생산자정확도 83.8% 그리고 YOLOv3는 구름에 대한 생산자정확도 84.0%를 보여주었다. 또한, 위성영상 학습자료 추가가 항공사진 자료의 부족 시 대안으로 적용가능 함을 보여주었다.

YOLOv4 기반의 소형 물체탐지기법을 이용한 건설도면 내 철강 자재 문자 검출 및 인식기법 (Character Detection and Recognition of Steel Materials in Construction Drawings using YOLOv4-based Small Object Detection Techniques)

  • 심지우;우희조;김윤환;김응태
    • 방송공학회논문지
    • /
    • 제27권3호
    • /
    • pp.391-401
    • /
    • 2022
  • 최근 딥러닝 기반의 객체 검출 및 인식 연구가 발전해가면서 산업 및 실생활에 적용되는 범위가 넓어지고 있다. 건설 분야에도 딥러닝 기반의 시스템이 도입되고 있지만 아직은 미온적이다. 건설 도면에서 자재 산출이 수작업으로 이뤄지고 있어 많은 소요시간과 부정확한 적산 결과로 잘못된 물량산출의 거래가 생길 수 있다. 이를 해결하기 위해서 빠르고 정확한 자동 도면 인식시스템이 필요하다. 따라서 본 논문은 건설도면 내 철강 자재를 검출하고 인식하는 인공지능기반 자동 도면 인식 적산 시스템을 제안한다. 빠른 속도의 YOLOv4 기반에 소형 객체 검출성능을 향상하기 위한 복제 방식의 데이터 증강기법과 공간집중 모듈을 적용하였다. 검출한 철강 자재 영역을 문자 인식한 결과를 토대로 철강 자재를 적산한다. 실험 결과 제안한 방식은 기존 YOLOv4 대비 정확도와 정밀도를 각각 1.8%, 16% 증가시켰다. 제안된 방식의 Precision은 0.938, Recall은 1, AP0.5는 99.4%, AP0.5:0.95 68.8%의 향상된 결과를 얻었다. 문자 인식은 기존 데이터를 사용한 인식률 75.6%에 비해 건설도면에 사용되는 폰트에 맞는 데이터 세트를 구성하여 학습한 결과 99.9%의 인식률을 얻었다. 한 이미지 당 평균 소요시간은 검출 단계는 0.013초, 문자 인식은 0.65초, 적산 단계는 0.16초로 총 0.84초의 결과를 얻었다.

SMD Detection and Classification Using YOLO Network Based on Robust Data Preprocessing and Augmentation Techniques

  • NDAYISHIMIYE, Fabrice;Lee, Joon Jae
    • Journal of Multimedia Information System
    • /
    • 제8권4호
    • /
    • pp.211-220
    • /
    • 2021
  • The process of inspecting SMDs on the PCB boards improves the product quality, performance and reduces frequent issues in this field. However, undesirable scenarios such as assembly failure and device breakdown can occur sometime during the assembly process and result in costly losses and time-consuming. The detection of these components with a model based on deep learning may be effective to reduce some errors during the inspection in the manufacturing process. In this paper, YOLO models were used due to their high speed and good accuracy in classification and target detection. A SMD detection and classification method using YOLO networks based on robust data preprocessing and augmentation techniques to deal with various types of variation such as illumination and geometric changes is proposed. For 9 different components of data provided from a PCB manufacturer company, the experiment results show that YOLOv4 is better with fast detection and classification than YOLOv3.

YOLOv8 기반 군사용 가상훈련체계의 훈련자 캐릭터 검출 방법 (Training Participant Character Detection Method for YOLOv8-based Military Virtual Training System)

  • 박영제;한재혁;김미혜
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.760-763
    • /
    • 2024
  • 실제 전투와 유사한 군사 훈련을 수행하기 위해서는 훈련 공간 확보, 악천후 극복, 실 사격 훈련, 민간인 통제 등 다양한 제약이 있다. 이러한 제약을 극복하기 위해 과학화 훈련이 도입되었으며, 현대전의 양상이 대규모 전투에서 소규모 교전으로 전환되면서 가상 훈련 시스템이 주목을 받고 있다. 가상 현실에서 적을 감지하기 위해 광선투사방식이 사용되지만, 이 방법은 인간의 시각 지각능력을 넘어서기 때문에 현실적인 훈련을 시뮬레이션 하는 데 한계가 있다. 본 논문은 가상 환경 내 가상자율군(Computer Generated Forces)이 현실적인 적 시뮬레이션을 달성하기 위하여 이미지 기반의 적 검출을 적용하여, 광선투사방식에 비해 인간 시각 지각에 더 가까운 결과를 얻었다.

  • PDF

Detection of Traditional Costumes: A Computer Vision Approach

  • Marwa Chacha Andrea;Mi Jin Noh;Choong Kwon Lee
    • 스마트미디어저널
    • /
    • 제12권11호
    • /
    • pp.125-133
    • /
    • 2023
  • Traditional attire has assumed a pivotal role within the contemporary fashion industry. The objective of this study is to construct a computer vision model tailored to the recognition of traditional costumes originating from five distinct countries, namely India, Korea, Japan, Tanzania, and Vietnam. Leveraging a dataset comprising 1,608 images, we proceeded to train the cutting-edge computer vision model YOLOv8. The model yielded an impressive overall mean average precision (MAP) of 96%. Notably, the Indian sari exhibited a remarkable MAP of 99%, the Tanzanian kitenge 98%, the Japanese kimono 92%, the Korean hanbok 89%, and the Vietnamese ao dai 83%. Furthermore, the model demonstrated a commendable overall box precision score of 94.7% and a recall rate of 84.3%. Within the realm of the fashion industry, this model possesses considerable utility for trend projection and the facilitation of personalized recommendation systems.

불법 주정차 단속을 위한 딥러닝 기반 이미지 인식 모델 (A Deep Learning-Based Image Recognition Model for Illegal Parking Enforcement)

  • 조민규;김민준;김재환;김진욱;황병선;이승우;선준호;김진영
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.59-64
    • /
    • 2024
  • 최근 다양한 산업 분야에서 드론과 인공지능 기술이 융합된 연구 사례가 진행되고 있다. 본 논문에서는 딥러닝 기반 객체 인식과 객체 판별 알고리즘을 이용하여 불법 주정차 차량 인식 모델을 제안한다. 객체 인식 알고리즘은 YOLOv8를 사용하였으며, 객체 판별 알고리즘은 ResNet18을 사용하였다. 제안된 모델은 일반 도로 상황에서 수집한 이미지 데이터를 이용하여 모델 학습을 수행하였고, 학습된 모델은 이미지 기반 불법 주정차를 판별하는데 높은 정확도를 보였다. 이를 통해 제안된 모델은 다양한 이미지로부터 불법 주정차 차량을 식별하기 위한 일반화 성능을 갖추고 있음을 확인하였다.

SHOMY: Detection of Small Hazardous Objects using the You Only Look Once Algorithm

  • Kim, Eunchan;Lee, Jinyoung;Jo, Hyunjik;Na, Kwangtek;Moon, Eunsook;Gweon, Gahgene;Yoo, Byungjoon;Kyung, Yeunwoong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권8호
    • /
    • pp.2688-2703
    • /
    • 2022
  • Research on the advanced detection of harmful objects in airport cargo for passenger safety against terrorism has increased recently. However, because associated studies are primarily focused on the detection of relatively large objects, research on the detection of small objects is lacking, and the detection performance for small objects has remained considerably low. Here, we verified the limitations of existing research on object detection and developed a new model called the Small Hazardous Object detection enhanced and reconstructed Model based on the You Only Look Once version 5 (YOLOv5) algorithm to overcome these limitations. We also examined the performance of the proposed model through different experiments based on YOLOv5, a recently launched object detection model. The detection performance of our model was found to be enhanced by 0.3 in terms of the mean average precision (mAP) index and 1.1 in terms of mAP (.5:.95) with respect to the YOLOv5 model. The proposed model is especially useful for the detection of small objects of different types in overlapping environments where objects of different sizes are densely packed. The contributions of the study are reconstructed layers for the Small Hazardous Object detection enhanced and reconstructed Model based on YOLOv5 and the non-requirement of data preprocessing for immediate industrial application without any performance degradation.

Real-Time Comprehensive Assistance for Visually Impaired Navigation

  • Amal Al-Shahrani;Amjad Alghamdi;Areej Alqurashi;Raghad Alzahrani;Nuha imam
    • International Journal of Computer Science & Network Security
    • /
    • 제24권5호
    • /
    • pp.1-10
    • /
    • 2024
  • Individuals with visual impairments face numerous challenges in their daily lives, with navigating streets and public spaces being particularly daunting. The inability to identify safe crossing locations and assess the feasibility of crossing significantly restricts their mobility and independence. Globally, an estimated 285 million people suffer from visual impairment, with 39 million categorized as blind and 246 million as visually impaired, according to the World Health Organization. In Saudi Arabia alone, there are approximately 159 thousand blind individuals, as per unofficial statistics. The profound impact of visual impairments on daily activities underscores the urgent need for solutions to improve mobility and enhance safety. This study aims to address this pressing issue by leveraging computer vision and deep learning techniques to enhance object detection capabilities. Two models were trained to detect objects: one focused on street crossing obstacles, and the other aimed to search for objects. The first model was trained on a dataset comprising 5283 images of road obstacles and traffic signals, annotated to create a labeled dataset. Subsequently, it was trained using the YOLOv8 and YOLOv5 models, with YOLOv5 achieving a satisfactory accuracy of 84%. The second model was trained on the COCO dataset using YOLOv5, yielding an impressive accuracy of 94%. By improving object detection capabilities through advanced technology, this research seeks to empower individuals with visual impairments, enhancing their mobility, independence, and overall quality of life.