• 제목/요약/키워드: YOLO(You Only Look Once

검색결과 94건 처리시간 0.021초

딥러닝 기반의 연기 확산거리 예측을 위한 알고리즘 개발 기초연구 (Fundamental Study on Algorithm Development for Prediction of Smoke Spread Distance Based on Deep Learning)

  • 김별;황광일
    • 해양환경안전학회지
    • /
    • 제27권1호
    • /
    • pp.22-28
    • /
    • 2021
  • 본 연구는 화재진압 및 피난활동을 지원하는 딥러닝 기반의 알고리즘 개발에 관한 기초 연구로 선박 화재 시 연기감지기가 작동하기 전에 검출된 연기 데이터를 분석 및 활용하여 원격지까지 연기가 확산 되기 전에 연기 확산거리를 예측하는 것이 목적이다. 다음과 같은 절차에 따라 제안 알고리즘을 검토하였다. 첫 번째 단계로, 딥러닝 기반 객체 검출 알고리즘인 YOLO(You Only Look Once)모델에 화재시뮬레이션을 통하여 얻은 연기 영상을 적용하여 학습을 진행하였다. 학습된 YOLO모델의 mAP(mean Average Precision)은 98.71%로 측정되었으며, 9 FPS(Frames Per Second)의 처리 속도로 연기를 검출하였다. 두 번째 단계로 YOLO로부터 연기 형상이 추출된 경계 상자의 좌표값을 통해 연기 확산거리를 추정하였으며 이를 시계열 예측 알고리즘인 LSTM(Long Short-Term Memory)에 적용하여 학습을 진행하였다. 그 결과, 화재시뮬레이션으로부터 얻은 Fast 화재의 연기영상에서 경계 상자의 좌표값으로부터 추정한 화재발생~30초까지의 연기 확산거리 데이터를 LSTM 학습모델에 입력하여 31초~90초까지의 연기 확산거리 데이터를 예측하였다. 그리고 추정한 연기 확산거리와 예측한 연기 확산거리의 평균제곱근 오차는 2.74로 나타났다.

Face Detection Using Shapes and Colors in Various Backgrounds

  • Lee, Chang-Hyun;Lee, Hyun-Ji;Lee, Seung-Hyun;Oh, Joon-Taek;Park, Seung-Bo
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권7호
    • /
    • pp.19-27
    • /
    • 2021
  • 본 논문에서는 영상 속 인물을 탐지하고 얼굴 영역을 검출하는 방법을 제안하며, 이 방법은 2가지 작업으로 구성한다. 첫째, 서로 다른 두 명의 인물을 구분하여 프레임 내 인물의 얼굴 위치를 탐지한다. 빠른 탐지를 위해 영상 내 물체를 실시간으로 검출하는 YOLO(You Only Look Once)를 이용하여 얼굴의 위치를 탐지하고 객체탐지상자로 나타낸다. 둘째, 객체탐지상자를 바탕으로 정확한 얼굴 면적을 검출하기 위해 3가지 영상처리 방법을 제시한다. 각 방법은 검출 도형으로 추정한 영역에서 추출한 HSV 값을 이용하여 인물의 얼굴 영역을 검출하였으며 검출 도형의 크기와 모양을 바꾸어 각 방법의 정확도를 비교하였다. 각 얼굴 검출 방법은 신뢰성 검증을 위해 비교 데이터와 영상처리 데이터로 비교 및 분석하였다. 그 결과 원형, 직사각형, 분할 직사각형 방법 중 분할된 직사각형 방법을 사용했을 때 87%로 가장 높은 정확도를 달성하였다.

Deep Learning-Based Companion Animal Abnormal Behavior Detection Service Using Image and Sensor Data

  • Lee, JI-Hoon;Shin, Min-Chan;Park, Jun-Hee;Moon, Nam-Mee
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권10호
    • /
    • pp.1-9
    • /
    • 2022
  • 본 논문에서는 영상 데이터와 센서 데이터를 활용한 딥러닝 기반의 반려동물 이상행동 탐지 서비스를 제안한다. 최근 반려동물 보유 가구의 증가로 인해 기존 푸드 및 의료 중심의 반려동물 시장에서 인공지능을 더한 펫테크(Pet Tech) 산업이 성장하고 있다. 본 연구에서는 인공지능을 통한 반려동물의 건강관리를 위해 영상 및 센서 데이터를 활용한 딥러닝 모델을 기반으로 반려동물의 행동을 분류하고, 이상행동을 탐지하였다. 자택의 CCTV와 직접 제작한 펫 웨어러블 디바이스를 활용하여 반려동물의 영상 데이터 및 센서 데이터를 수집하고, 모델의 입력 데이터로 활용한다. 행동의 분류를 위해 본 연구에서는 반려동물의 객체를 검출하기 위한 YOLO(You Only Look Once) 모델과 관절 좌표를 추출하기 위한 DeepLabCut을 결합하여 영상 데이터를 처리하였고, 센서 데이터를 처리하기 위해 각 센서 별 연관관계 및 특징을 파악할 수 있는 GAT(Graph Attention Network)를 활용하였다.

스마트 교통 단속 시스템을 위한 딥러닝 기반 차종 분류 모델 (Vehicle Type Classification Model based on Deep Learning for Smart Traffic Control Systems)

  • 김도영;장성진;장종욱
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.469-472
    • /
    • 2022
  • 최근 지능형 교통 시스템의 발전에 따라 딥러닝을 기술을 적용한 다양한 기술들이 활용되고 있다. 도로를 주행하는 불법 차량 및 범죄 차량 단속을 위해서는 차량 종류를 정확히 판별할 수 있는 차종 분류 시스템이 필요하다. 본 연구는 YOLO(You Only Look Once)를 이용하여 이동식 차량 단속 시스템에 최적화된 차종 분류 시스템을 제안한다. 제안 시스템은 차량을 승용차, 경·소·중형 승합차, 대형 승합차, 화물차, 이륜차, 특수차, 건설기계, 7가지 클래스로 구분하여 탐지하기 위해 단일 단계 방식의 객체 탐지 알고리즘 YOLOv5를 사용한다. 인공지능 기술개발을 위하여 한국과학기술연구원에서 구축한 약 5천 장의 국내 차량 이미지 데이터를 학습 데이터로 사용하였다. 한 대의 카메라로 정면과 측면 각도를 모두 인식할 수 있는 차종 분류 알고리즘을 적용한 지정차로제 단속 시스템을 제안하고자 한다.

  • PDF

ROS 기반 지능형 무인 배송 로봇 시스템의 구현 (Implementation of ROS-Based Intelligent Unmanned Delivery Robot System)

  • 공성진;이원창
    • 전기전자학회논문지
    • /
    • 제27권4호
    • /
    • pp.610-616
    • /
    • 2023
  • 본 논문에서는 Robot Operating System(ROS) 기반의 모바일 매니퓰레이터(Manipulator)를 이용한 무인 배송 로봇 시스템을 구현하고 시스템 구현을 위해 사용된 기술에 대해 소개한다. 로봇은 엘리베이터를 이용해 건물 내부에서 자율주행이 가능한 모바일 로봇과 진공 펌프를 부착한 Selective Compliance Assembly Robot Arm(SCARA)-Type의 매니퓰레이터로 구성된다. 로봇은 매니퓰레이터에 부착된 카메라를 이용하여 이미지 분할과 모서리 검출을 통해 배송물을 들어올리기 위한 위치와 자세를 결정할 수 있다. 제안된 시스템은 스마트폰 앱 및 ROS와 연동된 웹서버를 통해 배송 현황을 조회하고 로봇의 실시간 위치를 파악할 수 있도록 사용자 인터페이스를 가지고 있으며, You Only Look Once(YOLO)와 Optical Character Recognition(OCR)을 통해 배송 스테이션에서 배송물과 주소지를 인식한다. 아울러 4층 건물 내부에서 진행한 배송 실험을 통해 시스템의 유효성을 검증하였다.

우회전 차량 사고 예방을 위한 객체 탐지 및 경고 모델 연구 (A Study on Object Detection and Warning Model for the Prevention of Right Turn Car Accidents)

  • 조상준;신성욱;노명재
    • 디지털정책학회지
    • /
    • 제2권4호
    • /
    • pp.33-39
    • /
    • 2023
  • 교차로에서의 우회전 교통사고가 지속적으로 발생하면서 우회전 교통사고에 대한 대책 마련이 촉구되고 있다. 이에 우회전 지역의 CCTV 영상에서의 객체 탐지를 통해 보행자의 유무를 탐지하고 이를 디스플레이에 경고 문구를 출력해 운전자에게 알리는 기술을 개발하였다. 객체 탐지 모델 중 하나인 YOLO(You Only Look Once) 모델을 이용하여 객체 탐지의 성능평가를 확인하고, 추가적인 후처리 알고리즘을 통해 오인식 문제 해결 및 보행자 확인 시 경고 문구를 출력하는 알고리즘을 개발 하였다. 보행자 혹은 객체를 인식하여 경고 문구를 출력하는 정확도는 82% 수준으로 측정되었으며 이를 통해 우회전 사고 예방에 기여할 수 있을 것으로 예상된다.

YOLOv8과 무인항공기를 활용한 고해상도 해안쓰레기 매핑 (High-Resolution Mapping Techniques for Coastal Debris Using YOLOv8 and Unmanned Aerial Vehicle)

  • 박수호;김흥민;김영민;이인지;박미소;김탁영;장선웅
    • 대한원격탐사학회지
    • /
    • 제40권2호
    • /
    • pp.151-166
    • /
    • 2024
  • 해안쓰레기 문제는 전 세계적으로 환경에 대한 심각한 위협이 되고 있다. 본 연구에서는 딥러닝과 원격탐사 기술을 활용하여 해안쓰레기의 모니터링 방법을 개선하고자 하였다. 이를 위해 You Only Look Once (YOLO)v8 모델을 이용한 객체 탐지 기법을 적용하여 우리나라 주요 해안쓰레기 11종에 대한 대규모 이미지 데이터셋을 구축하고, 실시간으로 쓰레기를 탐지 및 분석할 수 있는 프로토콜(Protocol)을 제안한다. 낙동강 하구에 위치한 신자도를 대상으로 드론 이미지 촬영 및 자체 개발한 YOLOv8 기반의 분석 프로그램을 적용하여 해안쓰레기 성상별 핫스팟을 식별하였다. 이러한 매핑(Mapping) 및 분석 기법의 적용은 해안쓰레기 관리에 효과적으로 활용될 수 있을 것으로 기대된다.

YOLO 기반 외곽 사각형을 이용한 근접 돼지 분리 (Separation of Touching Pigs using YOLO-based Bounding Box)

  • 서지현;주미소;최윤창;이준희;정용화;박대희
    • 한국멀티미디어학회논문지
    • /
    • 제21권2호
    • /
    • pp.77-86
    • /
    • 2018
  • Although separation of touching pigs in real-time is an important issue for a 24-h pig monitoring system, it is challenging to separate accurately the touching pigs in a crowded pig room. In this study, we propose a separation method for touching pigs using the information generated from Convolutional Neural Network(CNN). Especially, we apply one of the CNN-based object detection methods(i.e., You Look Only Once, YOLO) to solve the touching objects separation problem in an active manner. First, we evaluate and select the bounding boxes generated from YOLO, and then separate touching pigs by analyzing the relations between the selected bounding boxes. Our experimental results show that the proposed method is more effective than widely-used methods for separating touching pigs, in terms of both accuracy and execution time.

아두이노와 YOLO를 이용한 졸음 방지 시스템 구현 (Implementation of Drowsy Prevention System Using Arduino and YOLO)

  • 이현애;신성윤
    • 한국정보통신학회논문지
    • /
    • 제25권7호
    • /
    • pp.917-922
    • /
    • 2021
  • 현대 사회에서는 졸음으로 인한 사망사고와 재산피해 등이 해마다 막대하게 발생하고 있다. 이러한 피해를 줄이는 방법들은 사회 각계각층에서 많이 연구하고 있으며 특히, 자동차에서는 졸음운전 방지에 대한 연구가 활발하다. 본 논문에서는 요로(YOLO : You Only Look Once)를 이용하여 뜬눈과 감은 눈을 학습하는 아두이노 기반의 물총 발사를 수행하는 시스템으로써, 단순히 감은 눈의 지속 시간이 일정 시간을 초과하면 물총을 발사하는 졸음 방지 시스템을 제안한다. 본 시스템은 다양한 분야에 적용하여 사용할 수 있지만, 특히, 자동차에 적용 시 비싼 사양을 구매하지 않아도 되고 조금만 신경을 쓰면 아주 저렴한 비용으로도 졸음운전으로 인한 사고를 100% 줄일 수 있다. 또한, 회사별 각기 다른 사양들을 극복한 독립적 시스템이라고 할 수 있다.

A Comparative Study of Deep Learning Techniques for Alzheimer's disease Detection in Medical Radiography

  • Amal Alshahrani;Jenan Mustafa;Manar Almatrafi;Layan Albaqami;Raneem Aljabri;Shahad Almuntashri
    • International Journal of Computer Science & Network Security
    • /
    • 제24권5호
    • /
    • pp.53-63
    • /
    • 2024
  • Alzheimer's disease is a brain disorder that worsens over time and affects millions of people around the world. It leads to a gradual deterioration in memory, thinking ability, and behavioral and social skills until the person loses his ability to adapt to society. Technological progress in medical imaging and the use of artificial intelligence, has provided the possibility of detecting Alzheimer's disease through medical images such as magnetic resonance imaging (MRI). However, Deep learning algorithms, especially convolutional neural networks (CNNs), have shown great success in analyzing medical images for disease diagnosis and classification. Where CNNs can recognize patterns and objects from images, which makes them ideally suited for this study. In this paper, we proposed to compare the performances of Alzheimer's disease detection by using two deep learning methods: You Only Look Once (YOLO), a CNN-enabled object recognition algorithm, and Visual Geometry Group (VGG16) which is a type of deep convolutional neural network primarily used for image classification. We will compare our results using these modern models Instead of using CNN only like the previous research. In addition, the results showed different levels of accuracy for the various versions of YOLO and the VGG16 model. YOLO v5 reached 56.4% accuracy at 50 epochs and 61.5% accuracy at 100 epochs. YOLO v8, which is for classification, reached 84% accuracy overall at 100 epochs. YOLO v9, which is for object detection overall accuracy of 84.6%. The VGG16 model reached 99% accuracy for training after 25 epochs but only 78% accuracy for testing. Hence, the best model overall is YOLO v9, with the highest overall accuracy of 86.1%.