• 제목/요약/키워드: Yolo

검색결과 387건 처리시간 0.03초

Human Detection using Real-virtual Augmented Dataset

  • Jongmin, Lee;Yongwan, Kim;Jinsung, Choi;Ki-Hong, Kim;Daehwan, Kim
    • Journal of information and communication convergence engineering
    • /
    • 제21권1호
    • /
    • pp.98-102
    • /
    • 2023
  • This paper presents a study on how augmenting semi-synthetic image data improves the performance of human detection algorithms. In the field of object detection, securing a high-quality data set plays the most important role in training deep learning algorithms. Recently, the acquisition of real image data has become time consuming and expensive; therefore, research using synthesized data has been conducted. Synthetic data haves the advantage of being able to generate a vast amount of data and accurately label it. However, the utility of synthetic data in human detection has not yet been demonstrated. Therefore, we use You Only Look Once (YOLO), the object detection algorithm most commonly used, to experimentally analyze the effect of synthetic data augmentation on human detection performance. As a result of training YOLO using the Penn-Fudan dataset, it was shown that the YOLO network model trained on a dataset augmented with synthetic data provided high-performance results in terms of the Precision-Recall Curve and F1-Confidence Curve.

시각장애인을 위한 딥러닝 기반 음료수 캔 인식 시스템 (A Beverage Can Recognition System Based on Deep Learning for the Visually Impaired)

  • 이찬비;심수현;김선희
    • 디지털산업정보학회논문지
    • /
    • 제19권1호
    • /
    • pp.119-127
    • /
    • 2023
  • Recently, deep learning has been used in the development of various institutional devices and services to help the visually impaired people in their daily lives. This is because not only are there few products and facility guides written in braille, but less than 10% of the visually impaired can use braille. In this paper, we propose a system that recognizes beverage cans in real time and outputs the beverage can name with sound for the convenience of the visually impaired. Five commercially available beverage cans were selected, and a CNN model and a YOLO model were designed to recognize the beverage cans. After augmenting the image data, model training was performed. The accuracy of the proposed CNN model and YOLO model is 91.2% and 90.8%, respectively. For practical verification, a system was built by attaching a camera and speaker to a Raspberry Pi. In the system, the YOLO model was applied. It was confirmed that beverage cans were recognized and output as sound in real time in various environments.

시각 장애우를 위한 YOLO와 OCR 알고리즘 기반의 유통기한 자동 알림 시스템 (Automatic Notification System of Expiration Date Based on YOLO and OCR algorithm for Blind Person)

  • 김민수;문미경;한창희
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제64차 하계학술대회논문집 29권2호
    • /
    • pp.697-698
    • /
    • 2021
  • 본 논문에서는 시각 장애우의 식품 안전성 증진을 위해 광학 문자 인식 (optical character recognition, OCR) 및 실시간 객체 인식 (you only look once, YOLO) 알고리즘에 기반한 식품의 유통기한 자동 알림 시스템을 제안한다. 제안하는 시스템은 1) 스마트폰 카메라를 통해 실시간으로 입력되는 영상에서 YOLO 알고리즘을 활용하여 유통기한으로 예측되는 이미지 영역을 검출하고, 2) 검출된 영역에서 OCR 알고리즘을 활용하여 유통기한 데이터를 추출하며, 3) 최종 추출된 유통기한 데이터를 음성으로 변환하여 시각 장애우에게 전달한다. 개발된 시스템은 유통기한 정보를 추출해서 사용자에게 전달하기까지 평균 약 7초 이내의 빠른 응답 속도를 보였으며, 62.8%의 객체 인식 정확도와 93.6%의 문자 인식 정확도를 보였다. 이러한 결과들은 제안하는 시스템을 시각 장애우들이 실용적으로 활용할 수 있다는 가능성을 보여준다.

  • PDF

YOLO 환경에서 손가락 방향감지 알고리즘 설계 및 구현 (Design and Implementation of Finger Direction Detection Algorithm in YOLO Environment)

  • 이철민;민텟따;이동명
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.28-30
    • /
    • 2021
  • 본 논문에서는 YOLO (You Only Look Once) 라이브러리를 이용하여 사용자의 손가락 방향을 감지하는 알고리즘을 제안하였다. 제안한 손가락 방향감지 알고리즘의 처리단계는 학습 데이터 관리단계, 데이터 학습 단계, 그리고 손가락 방향감지 단계로 구성된다. 실험 결과, 카메라와 손가락간의 거리는 손가락 방향 감지 정확도에 매우 큰 영향을 미침을 알 수 있었다. 차후 제안 알고리즘의 정확도 및 신뢰도의 개선 후에 이 기능을 커틀봇3 (Turtlebot3)에 적용 할 예정이다.

  • PDF

YOLO 기반 과실 분류 모델 설계 및 구현 (An Design and Implementation of YOLO-based Fruit Classification Model.)

  • 구본근;정다운;김지영;최지원;박장우;조용윤;신창선
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.47-50
    • /
    • 2021
  • 일반적으로, 과실 재배 농가에서의 과실 분류 작업은 많은 노동력을 필요로 한다. 최근 코로나19 방역조치로 외국인 근로자 입국 제한으로 인해 농가에서는 인력 수급에 어려움을 겪고 있다. 본 연구에서는 이러한 농가 피해 상황을 해소하고 수급 문제를 해결하기 위해 YOLO 기반 과실 분류 모델설계 및 구현을 소개한다. 본 모델을 기반으로 여러 과실 중 사과에 적용하여 인력이 많이 동원되는 선별과정을 YOLO의 객체 인식을 통해 해결하고 적은 비용으로 효율성 있는 분류 모델을 구축한다.

조호환경 내 환자 탐지를 위한 YOLO 모델 기반 바운딩 박스 앙상블 기법 (YOLO models based Bounding-Box Ensemble Method for Patient Detection In Homecare Place Images)

  • 박준휘;김범준;김인기;곽정환
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.562-564
    • /
    • 2022
  • 조호환경이란 환자의 지속적인 추적 및 관찰이 필요한 환경으로써, 병원 입원실, 요양원 등을 의미한다. 조호환경 내 환자의 이상 증세가 발생하는 시간 및 이상 증세의 종류는 예측할 수 없기에 인력을 통한 상시 관리는 필수적이다. 또한, 환자의 이상 증세 발견 시간은 발병 시점부터의 소요 시간이 생사와 즉결되기에 빠른 발견이 매우 중요하다. 하지만, 인력을 통한 상시 관리는 많은 경제적 비용을 수반하기에 독거 노인, 빈민층 등 요양 비용을 충당하지 못하는 환자들이 수혜받는 것은 어려우며, 인력을 통해 이루어지기 때문에 이상 증세 발병 즉시 발견에 한계를 가진다. 즉, 기존까지 조호환경 내 환자 관리 방식은 경제적 비용과 이상 증세 발병 즉시 발견에 한계를 가진다는 문제점을 가진다. 따라서 본 논문은 YOLO 모델의 조호환경 내 환자 탐지 성능 비교 및 바운딩 박스 앙상블 기법을 제안한다. 이를 통해, 딥러닝 모델을 통한 환자 상시 관리가 이루어지기에 높은 경제적 비용문제를 해소할 수 있다. 또한, YOLO 모델 바운딩 박스 앙상블 기법 WBF를 통해 폐색이 짙은 조호환경 영상 데이터 내에 객체 탐지 영역 정확도 향상 방법을 연구하였다.

ANALYSIS OF THE FLOOR PLAN DATASET WITH YOLO V5

  • MYUNGHYUN JUNG;MINJUNG GIM;SEUNGHWAN YANG
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제27권4호
    • /
    • pp.311-323
    • /
    • 2023
  • This paper introduces the industrial problem, the solution, and the results of the research conducted with Define Inc. The client company wanted to improve the performance of an object detection model on the floor plan dataset. To solve the problem, we analyzed the operational principles, advantages, and disadvantages of the existing object detection model, identified the characteristics of the floor plan dataset, and proposed to use of YOLO v5 as an appropriate object detection model for training the dataset. We compared the performance of the existing model and the proposed model using mAP@60, and verified the object detection results with real test data, and found that the performance increase of mAP@60 was 0.08 higher with a 25% shorter inference time. We also found that the training time of the proposed YOLO v5 was 71% shorter than the existing model because it has a simpler structure. In this paper, we have shown that the object detection model for the floor plan dataset can achieve better performance while reducing the training time. We expect that it will be useful for solving other industrial problems related to object detection in the future. We also believe that this result can be extended to study object recognition in 3D floor plan dataset.

YOLO알고리즘을 활용한 시각장애인용 식사보조 시스템 개발 (Development a Meal Support System for the Visually Impaired Using YOLO Algorithm)

  • 이군호;문미경
    • 한국전자통신학회논문지
    • /
    • 제16권5호
    • /
    • pp.1001-1010
    • /
    • 2021
  • 시각이 온전한 사람들은 식사를 할 때 시각에 대한 의존도를 깊게 인지하지 못한다. 그러나 시각장애인은 식단에 어떤 음식이 있는지 알지 못하기 때문에 옆에 있는 보조인이 시각장애인 수저로 음식의 위치를 시계방향 또는 전후좌우 등 일정한 방향으로 설명하여 그릇 위치를 확인한다. 본 논문에서는 시각장애인이 스마트폰의 카메라를 이용하여 자신의 식단을 비추면 각각의 음식 이미지를 인식하여 음성으로 음식의 이름을 알려주는 식사보조 시스템의 개발 내용에 대해 기술한다. 이 시스템은 음식과 식기도구(숟가락)의 이미지를 학습한 YOLO모델을 통해 숟가락이 놓인 음식을 추출해 내고, 이 음식이 무엇인지를 인식하여 이를 음성으로 알려준다. 본 시스템을 통해 시각장애인은 식사보조인의 도움없이 식사를 할 수 있음으로써 자립의지와 만족도를 높일 수 있을 것으로 기대한다.

아두이노와 YOLO를 이용한 졸음 방지 시스템 구현 (Implementation of Drowsy Prevention System Using Arduino and YOLO)

  • 이현애;신성윤
    • 한국정보통신학회논문지
    • /
    • 제25권7호
    • /
    • pp.917-922
    • /
    • 2021
  • 현대 사회에서는 졸음으로 인한 사망사고와 재산피해 등이 해마다 막대하게 발생하고 있다. 이러한 피해를 줄이는 방법들은 사회 각계각층에서 많이 연구하고 있으며 특히, 자동차에서는 졸음운전 방지에 대한 연구가 활발하다. 본 논문에서는 요로(YOLO : You Only Look Once)를 이용하여 뜬눈과 감은 눈을 학습하는 아두이노 기반의 물총 발사를 수행하는 시스템으로써, 단순히 감은 눈의 지속 시간이 일정 시간을 초과하면 물총을 발사하는 졸음 방지 시스템을 제안한다. 본 시스템은 다양한 분야에 적용하여 사용할 수 있지만, 특히, 자동차에 적용 시 비싼 사양을 구매하지 않아도 되고 조금만 신경을 쓰면 아주 저렴한 비용으로도 졸음운전으로 인한 사고를 100% 줄일 수 있다. 또한, 회사별 각기 다른 사양들을 극복한 독립적 시스템이라고 할 수 있다.

YOLO 기반 개체 검출과 Node.js 서버를 이용한 반려견 행동 분류 시스템 구현 (Implementation of a Classification System for Dog Behaviors using YOLI-based Object Detection and a Node.js Server)

  • 조용화;이혁재;김영훈
    • 융합신호처리학회논문지
    • /
    • 제21권1호
    • /
    • pp.29-37
    • /
    • 2020
  • 본 논문은 실시간 영상 분석을 통해서 반려견에 대한 객체를 추출해 내고, 추출된 이미지로부터 반려견 행동을 분류하는 방법을 구현한다. 반려견 객체 탐지를 위해서 Darknet YOLO를 사용하였으며, 추출된 이미지로부터 행동 패턴 분류는 구글에서 제공하고 있는 Teachable Machine을 이용하였다. 학습된 Teachable Machine은 구글 드라이브에 저장되어 node.js 서버 상에서 ml5.js로 구현하여 사용할 수 있다. 분류된 행동 패턴 결과는 사용자의 스마트 폰 또는 PC로 실시간 전송되며, 언제 어디서든 확인 가능할 수 있게 node.js 서버에서 socket.io 모듈을 사용해서 상호반응 웹 서버를 구현하였다.