• 제목/요약/키워드: YOLO Object Detection

검색결과 204건 처리시간 0.021초

AI를 이용한 모자이크 처리의 자동화, 'B.A.M.O.S' (Automating mosaic processing using AI, 'B.A.M.O.S')

  • 심한뫼;조범석;염철준;오준휘;우영학
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제65차 동계학술대회논문집 30권1호
    • /
    • pp.17-18
    • /
    • 2022
  • 현재 국내에서는 1인 1스마트폰 시대를 맞이하게 되었고 이에 맞춰 많은 종류의 관련 산업들이 발전하고 있다. 특히 멀티미디어와 콘텐츠 산업 또한 크게 성장하고 있다. 이런 상황에서 필수적으로 사용되는 편집 기술을 위하여, 많은 소프트웨어가 등장하고 이용되고 있다. 편집을 자유롭게 이용하기 위해서는 전문적인 인력이 필요하거나 시간이나 자본을 들여서 이해와 학습을 필수적으로 해야 한다. 본 논문에서는 이러한 편집 과정의 수고로움을 덜어줄 수 있도록 인공지능의 객체탐지 기술을 이용하여 특정 상표에 대한 모자이크 처리 작업을 자동으로 할 수 있는 B.A.M.O.S를 개발하였다. YOLO 알고리즘을 이용하여 목표 상표를 학습시켜 이를 B.A.M.O.S에 적용하였고, 목표 상표를 인식하여 모자이크 처리를 하도록 하였다.

  • PDF

Real time instruction classification system

  • Sang-Hoon Lee;Dong-Jin Kwon
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권3호
    • /
    • pp.212-220
    • /
    • 2024
  • A recently the advancement of society, AI technology has made significant strides, especially in the fields of computer vision and voice recognition. This study introduces a system that leverages these technologies to recognize users through a camera and relay commands within a vehicle based on voice commands. The system uses the YOLO (You Only Look Once) machine learning algorithm, widely used for object and entity recognition, to identify specific users. For voice command recognition, a machine learning model based on spectrogram voice analysis is employed to identify specific commands. This design aims to enhance security and convenience by preventing unauthorized access to vehicles and IoT devices by anyone other than registered users. We converts camera input data into YOLO system inputs to determine if it is a person, Additionally, it collects voice data through a microphone embedded in the device or computer, converting it into time-domain spectrogram data to be used as input for the voice recognition machine learning system. The input camera image data and voice data undergo inference tasks through pre-trained models, enabling the recognition of simple commands within a limited space based on the inference results. This study demonstrates the feasibility of constructing a device management system within a confined space that enhances security and user convenience through a simple real-time system model. Finally our work aims to provide practical solutions in various application fields, such as smart homes and autonomous vehicles.

AI를 이용한 홈CCTV 영상의 반려묘 행동 패턴 분석 및 질병 예측 시스템 연구 (Cat Behavior Pattern Analysis and Disease Prediction System of Home CCTV Images using AI)

  • 한수연;박대우
    • 한국정보통신학회논문지
    • /
    • 제26권9호
    • /
    • pp.1266-1271
    • /
    • 2022
  • 반려동물 중 반려묘의 비중이 2012년 이후 연평균 25.4%의 증가율을 보이며 증가하는 추세이다. 고양이는 강아지에 비해 야생성이 강하게 남아있기 때문에 질병이 생기면 잘 숨기는 특성이 있다. 보호자가 반려묘가 질병이 있음을 알게 되었을 때는 병이 이미 악화되어진 상태일 수 있다. 반려묘의 식욕부진(식사회피), 구토, 설사, 다음, 다뇨 등과 같은 현상은 당뇨, 갑상선기능항진증, 신부전증, 범백혈구감소증 등 고양이 질병 시 나타나는 증상 중 일부이다. 반려묘의 다뇨(소변 양이 많음), 다음(물 많이 마심), 빈뇨(소변을 자주 봄) 현상을 보호자가 보다 빨리 알아차릴 수 있다면 반려묘의 질병 치료에 크게 도움이 될 것이다. 본 논문에서는 인공지능 디바이스에서 작동하는 1) 자세 예측 DeepLabCut의 Efficient 버전, 2) 객체 검출 YOLO v4, 3) 행동 예측 LSTM 4) 객체 추적은 BoT-SORT를 사용한다. 인공지능 기술을 이용하여 홈 CCTV의 영상에서 반려묘의 행동 패턴 분석과 물그릇의 무게 센서를 통해 반려묘의 다음, 다뇨 및 빈뇨를 예측한다. 그리고, 반려묘 행동 패턴 분석을 통해, 질병 예측 및 이상행동 결과를 보호자에게 리포트 하는, 메인 서버시스템과 보호자의 모바일로 전달하는 애플리케이션을 제안한다.

Real-Time Earlobe Detection System on the Web

  • Kim, Jaeseung;Choi, Seyun;Lee, Seunghyun;Kwon, Soonchul
    • International journal of advanced smart convergence
    • /
    • 제10권4호
    • /
    • pp.110-116
    • /
    • 2021
  • This paper proposed a real-time earlobe detection system using deep learning on the web. Existing deep learning-based detection methods often find independent objects such as cars, mugs, cats, and people. We proposed a way to receive an image through the camera of the user device in a web environment and detect the earlobe on the server. First, we took a picture of the user's face with the user's device camera on the web so that the user's ears were visible. After that, we sent the photographed user's face to the server to find the earlobe. Based on the detected results, we printed an earring model on the user's earlobe on the web. We trained an existing YOLO v5 model using a dataset of about 200 that created a bounding box on the earlobe. We estimated the position of the earlobe through a trained deep learning model. Through this process, we proposed a real-time earlobe detection system on the web. The proposed method showed the performance of detecting earlobes in real-time and loading 3D models from the web in real-time.

딥러닝을 이용한 육불화텅스텐(WF6) 제조 공정의 지능형 영상 감지 시스템 구현 (Implementation of an Intelligent Video Detection System using Deep Learning in the Manufacturing Process of Tungsten Hexafluoride)

  • 손승용;김영목;최두현
    • 한국재료학회지
    • /
    • 제31권12호
    • /
    • pp.719-726
    • /
    • 2021
  • Through the process of chemical vapor deposition, Tungsten Hexafluoride (WF6) is widely used by the semiconductor industry to form tungsten films. Tungsten Hexafluoride (WF6) is produced through manufacturing processes such as pulverization, wet smelting, calcination and reduction of tungsten ores. The manufacturing process of Tungsten Hexafluoride (WF6) is required thorough quality control to improve productivity. In this paper, a real-time detection system for oxidation defects that occur in the manufacturing process of Tungsten Hexafluoride (WF6) is proposed. The proposed system is implemented by applying YOLOv5 based on Convolutional Neural Network (CNN); it is expected to enable more stable management than existing management, which relies on skilled workers. The implementation method of the proposed system and the results of performance comparison are presented to prove the feasibility of the method for improving the efficiency of the WF6 manufacturing process in this paper. The proposed system applying YOLOv5s, which is the most suitable material in the actual production environment, demonstrates high accuracy (mAP@0.5 99.4 %) and real-time detection speed (FPS 46).

스트리트뷰 영상의 객체탐지를 활용한 보행 장애물 정보 갱신 (Updating Obstacle Information Using Object Detection in Street-View Images)

  • 박슬아;송아람
    • 한국측량학회지
    • /
    • 제39권6호
    • /
    • pp.599-607
    • /
    • 2021
  • 스트리트뷰(Street-view) 영상은 도로의 특정 위치를 중심으로 한 전방위 영상을 제공하며, 보행 환경에 대한 다양한 장애물 정보를 포함한다. 보행자용 길안내 서비스에 활용하기 위한 보행 네트워크(Pedestrian network) 데이터는 교통약자를 비롯한 보행자의 이동 편의성을 보장하기 위하여 보행 장애물에 대한 최신 정보를 반영해야 한다. 본 연구에서는 스트리트뷰 영상과 딥러닝 기반의 객체탐지 알고리즘을 활용하여 서울 전역에 위치한 주요 보행 장애물인 볼라드(Bollard)를 학습하였다. 또한, 탐지된 볼라드 정보와 보행 네트워크 간의 공간매칭을 통해 횡단보도 노드를 대상으로 볼라드의 유무와 개수 정보를 장애물 속성으로 입력하고, 동시에 누락된 횡단보도 정보를 갱신하기 위한 프로세스를 정의하였다. 스트리트뷰 영상으로 학습된 모델은 보행 상황에서 스마트폰으로 촬영한 사진에 대해서도 적용이 가능하며, 향후 스트리트뷰 영상에 포함된 다양한 보행 장애물에 대한 추가 학습을 통해 효율적인 보행 장애 정보 갱신이 가능할 것으로 기대된다.

Real-Time Comprehensive Assistance for Visually Impaired Navigation

  • Amal Al-Shahrani;Amjad Alghamdi;Areej Alqurashi;Raghad Alzahrani;Nuha imam
    • International Journal of Computer Science & Network Security
    • /
    • 제24권5호
    • /
    • pp.1-10
    • /
    • 2024
  • Individuals with visual impairments face numerous challenges in their daily lives, with navigating streets and public spaces being particularly daunting. The inability to identify safe crossing locations and assess the feasibility of crossing significantly restricts their mobility and independence. Globally, an estimated 285 million people suffer from visual impairment, with 39 million categorized as blind and 246 million as visually impaired, according to the World Health Organization. In Saudi Arabia alone, there are approximately 159 thousand blind individuals, as per unofficial statistics. The profound impact of visual impairments on daily activities underscores the urgent need for solutions to improve mobility and enhance safety. This study aims to address this pressing issue by leveraging computer vision and deep learning techniques to enhance object detection capabilities. Two models were trained to detect objects: one focused on street crossing obstacles, and the other aimed to search for objects. The first model was trained on a dataset comprising 5283 images of road obstacles and traffic signals, annotated to create a labeled dataset. Subsequently, it was trained using the YOLOv8 and YOLOv5 models, with YOLOv5 achieving a satisfactory accuracy of 84%. The second model was trained on the COCO dataset using YOLOv5, yielding an impressive accuracy of 94%. By improving object detection capabilities through advanced technology, this research seeks to empower individuals with visual impairments, enhancing their mobility, independence, and overall quality of life.

객체 식별 및 추적을 위한 히스토그램 기반 특이값 분해 (Histogram-Based Singular Value Decomposition for Object Identification and Tracking)

  • 강예연;박정민;고훈준;정경용
    • 인터넷정보학회논문지
    • /
    • 제24권5호
    • /
    • pp.29-35
    • /
    • 2023
  • CCTV는 범죄 예방, 공공 안전 강화, 교통 관리 등 다양한 목적으로 사용된다. 그러나 카메라의 범위와 해상도가 향상됨에 따라 영상에서 개인의 신상정보가 노출되는 위험성이 있다. 따라서 영상에서 개인 정보를 보호함과 동시에 개인을 식별할 수 있는 새로운 기술의 필요성이 존재한다. 본 논문에서는 객체 식별 및 추적을 위한 히스토그램 기반 특이값 분해를 제안한다. 제안하는 방법은 객체의 색상 정보를 이용하여 영상에 존재하는 서로 다른 객체를 구분한다. 객체 인식을 위하여 YOLO와 DeepSORT를 이용해 영상에 존재하는 사람을 탐지 및 추출한다. 탐지된 사람의 위치 정보를 이용해 흑백 히스토그램으로 색상 값을 추출한다. 추출한 색상 값 중 유의미한 정보만을 추출하여 사용하기 위해 특이값 분해를 이용한다. 특이값 분해를 이용할 때 결과에서 상위 특이값의 평균을 이용함으로 객체 색상 추출의 정확도를 높인다. 특이값 분해를 이용해 추출한 색상 정보를 다른 영상에 존재하는 색상과 비교하며 서로 다른 영상에 존재하는 동일 인물을 탐지한다. 색상 정보 비교를 위해 유클리드 거리를 이용하며 정확도 평가는 Top-N을 이용한다. 평가 결과 흑백 히스토그램과 특이값 분해를 사용하여 동일 인물을 탐지할 때 최대 100%에서 최소 74%를 기록하였다.

딥러닝 기반 육상기인 부유쓰레기 탐지 모델 성능 비교 및 현장 적용성 평가 (A Performance Comparison of Land-Based Floating Debris Detection Based on Deep Learning and Its Field Applications)

  • 박수호;장선웅;김흥민;김탁영;예건희
    • 대한원격탐사학회지
    • /
    • 제39권2호
    • /
    • pp.193-205
    • /
    • 2023
  • 집중강우 시 육상으로부터 다량으로 유입된 부유쓰레기는 사회, 경제적 및 환경적으로 부정적인 영향을 주고 있으나 부유쓰레기 집적 구간 및 발생량에 대한 모니터링 체계는 미흡한 실정이다. 최근 인공지능 기술의 발달로 드론 영상과 딥러닝 기반 객체탐지 모델을 활용하여 수계 내 광범위한 지역을 신속하고 효율적인 연구의 필요성이 요구되고 있다. 본 연구에서는 육상기인 부유쓰레기의 효율적인 탐지 기법을 제시하기 위해 드론 영상뿐만 아니라 다양한 이미지를 확보하여 You Only Look Once (YOLO)v5s와 최근에 개발된 YOLO7 및 YOLOv8s로 학습하여 모델별로 성능을 비교하였다. 각 모델의 정성적인 성능 평가 결과, 세 모델 모두 일반적인 상황에서 탐지성능이 우수한 것으로 나타났으나, 이미지의 노출이 심하거나 수면의 태양광 반사가 심한 경우 YOLOv8s 모델에서 대상물을 누락 또는 중복 탐지하는 사례가 나타났다. 정량적인 성능 평가 결과, YOLOv7의 mean Average Precision (intersection over union, IoU 0.5)이 0.940으로 YOLOv5s (0.922)와 YOLOvs8(0.922)보다 좋은 성능을 나타냈다. 데이터 품질에 따른 모델의 성능 비교하기 위해 색상 및 고주파 성분에 왜곡을 발생시킨 결과, YOLOv8s 모델의 성능 저하가 가장 뚜렷하게 나타났으며, YOLOv7 모델이 가장 낮은 성능 저하 폭을 보였다. 이를 통해 수면 위에 존재하는 부유쓰레기 탐지에 있어서 YOLOv7 모델이 YOLOv5s와 YOLOv8s 모델에 비해 강인한 모델임을 확인하였다. 본 연구에서 제안하는 딥러닝 기반 부유쓰레기 탐지 기법은 부유쓰레기의 성상별 분포 현황을 공간적으로 파악할 수 있어 향후 정화작업 계획수립에 기여할 수 있을 것으로 판단된다.

스마트 자율배송을 위한 클래스 분류와 객체별 학습데이터 유형 (Class Classification and Type of Learning Data by Object for Smart Autonomous Delivery)

  • 강영진;김기환;정석찬
    • 한국빅데이터학회지
    • /
    • 제7권1호
    • /
    • pp.37-47
    • /
    • 2022
  • 자율배송 운행 데이터는 코로나 시대의 라스트마일 배송에 대한 패러다임 변화를 주도하는 핵심이다. 국내 자율배송로봇과 해외 기술선도국가 간의 기술격차 해소를 위해서는 인공지능 학습에 사용 가능한 대규모 데이터 수집과 검증이 최우선으로 요구된다. 따라서 해외 기술선도국가에서는 인공지능 학습데이터를 누구든 사용가능한 공공데이터 형태로 오픈하여 검증과 기술발전에 기여하고 있다. 본 논문은 자율배송로봇 학습을 목적으로 326개의 객체를 수집하고 Mask r-cnn, Yolo v3 등의 인공지능 모델을 학습하고 검증하였다. 추가적으로 두 모델을 기반으로 비교하고 향후 자율배송로봇 연구에 요구되는 요소를 고찰하였다.