• 제목/요약/키워드: Custom Dataset

검색결과 21건 처리시간 0.024초

온-보드에서의 딥러닝을 활용한 드론의 실시간 객체 인식 연구 (A Study on Realtime Drone Object Detection Using On-board Deep Learning)

  • 이장우;김주영;김재경;권철희
    • 한국항공우주학회지
    • /
    • 제49권10호
    • /
    • pp.883-892
    • /
    • 2021
  • 본 논문에서는 드론을 활용한 감시정찰 임무의 효율성을 향상하기 위해 드론 탑재장비에서 실시간으로 구동 가능한 딥러닝 기반의 객체 인식 모델을 개발하는 연구를 수행하였다. 드론 영상 내 객체 인식 성능을 높이는 목적으로 학습 단계에서 학습 데이터 전처리 및 증강, 전이 학습을 수행하였고 각 클래스 별 성능 편차를 줄이기 위해 가중 크로스 엔트로피 방법을 적용하였다. 추론 속도를 개선하기 위해 양자화 기법이 적용된 추론 가속화 엔진을 생성하여 실시간성을 높였다. 마지막으로 모델의 성능을 확인하기 위해 학습에 참여하지 않은 드론 영상 데이터에서 인식 성능 및 실시간성을 분석하였다.

심층신경망을 이용한 스마트 양식장용 사료 공급 시점 감지 시스템 구현 (An Implementation of Feeding Time Detection System for Smart Fish Farm Using Deep Neural Network)

  • 전주현;이윤호;주문갑
    • 대한임베디드공학회논문지
    • /
    • 제18권1호
    • /
    • pp.19-24
    • /
    • 2023
  • In traditional fish farming way, the workers have to observe all of the pools every time and every day to feed at the right timing. This method causes tremendous stress on workers and wastes time. To solve this problem, we implemented an automatic detection system for feeding time using deep neural network. The detection system consists of two steps: classification of the presence or absence of feed and checking DO (Dissolved Oxygen) of the pool. For the classification, the pretrained ResNet18 model and transfer learning with custom dataset are used. DO is obtained from the DO sensor in the pool through HTTP in real time. For better accuracy, the next step, checking DO proceeds when the result of the classification is absence of feed several times in a row. DO is checked if it is higher than a DO reference value that is set by the workers. These actions are performed automatically in the UI programs developed with LabVIEW.

객체 영역에 특화된 뎁스 추정 기반의 충돌방지 기술개발 (Object-aware Depth Estimation for Developing Collision Avoidance System)

  • 황규태;송지민;이상준
    • 대한임베디드공학회논문지
    • /
    • 제19권2호
    • /
    • pp.91-99
    • /
    • 2024
  • Collision avoidance system is important to improve the robustness and functional safety of autonomous vehicles. This paper proposes an object-level distance estimation method to develop a collision avoidance system, and it is applied to golfcarts utilized in country club environments. To improve the detection accuracy, we continually trained an object detection model based on pseudo labels generated by a pre-trained detector. Moreover, we propose object-aware depth estimation (OADE) method which trains a depth model focusing on object regions. In the OADE algorithm, we generated dense depth information for object regions by utilizing detection results and sparse LiDAR points, and it is referred to as object-aware LiDAR projection (OALP). By using the OALP maps, a depth estimation model was trained by backpropagating more gradients of the loss on object regions. Experiments were conducted on our custom dataset, which was collected for the travel distance of 22 km on 54 holes in three country clubs under various weather conditions. The precision and recall rate were respectively improved from 70.5% and 49.1% to 95.3% and 92.1% after the continual learning with pseudo labels. Moreover, the OADE algorithm reduces the absolute relative error from 4.76% to 4.27% for estimating distances to obstacles.

최적화된 차량 탑승인원 감지시스템 개발을 위한 딥러닝 모델 분석 (Analysis of Deep Learning Model for the Development of an Optimized Vehicle Occupancy Detection System)

  • 이지원;이동진;장성진;최동규;장종욱
    • 한국정보통신학회논문지
    • /
    • 제25권1호
    • /
    • pp.146-151
    • /
    • 2021
  • 현재 국내외 여러 국가에서 한 가정의 차량의 수요가 증가하여 차량의 탑승 인원은 적어지고 도로의 차량 수는 증가하고 있는 추세이다. 이에 따른 문제점인 교통 체증을 해결하기 위해 이용 가능한 다인승 전용차로 제도가 시행되고 있다. 이 제도는 경찰들이 빠르게 움직이는 차량을 직접 눈으로 감시하여 불법 차량을 단속하는 실정이며, 이는 정확성이 낮고 사고의 위험성을 동반된다. 이러한 문제점을 해결하기 위해 도로 현장의 영상을 이용한 딥러닝 객체 인식 기술을 적용한다면 앞서 말한 문제점들이 해결될 것이다. 따라서, 본 논문에서는 기존의 딥러닝 모델의 성능을 비교·분석하여, 영상을 통해 실시간 차량 탑승 인원을 파악할 수 있는 딥러닝 모델을 선정하고 객체 인식 모델의 문제점을 보완한 차량 탑승 인원 감지 알고리즘을 제안한다.

도심로 주행을 위한 딥러닝 기반 객체 검출 및 거리 추정 알고리즘 적용 (Application of Deep Learning-based Object Detection and Distance Estimation Algorithms for Driving to Urban Area)

  • 서주영;박만복
    • 한국ITS학회 논문지
    • /
    • 제21권3호
    • /
    • pp.83-95
    • /
    • 2022
  • 본 논문은 자율주행 차량 적용을 위한 객체 검출과 거리 추정을 수행하는 시스템을 제안한다. 객체 검출은 최근 활발하게 사용되는 딥러닝 모델 YOLOv4의 특성을 이용해서 입력 이미지 비율에 맞춰 분할 grid를 조정하고 자체 데이터셋으로 전이학습된 네트워크로 수행한다. 검출된 객체까지의 거리는 bounding box와 homography를 이용해 추정한다. 실험 결과 제안하는 방법에서 전반적인 검출 성능 향상과 실시간에 가까운 처리 속도를 보였다. 기존 YOLOv4 대비 전체 mAP는 4.03% 증가했다. 도심로 주행시 빈출하는 보행자, 차량 및 공사장 고깔(cone), PE드럼(drum) 등의 객체 인식 정확도가 향상되었다. 처리 속도는 약 55 FPS이다. 거리 추정 오차는 X 좌표 평균 약 5.25m, Y 좌표 평균 0.97m으로 나타났다.

A Worker-Driven Approach for Opening Detection by Integrating Computer Vision and Built-in Inertia Sensors on Embedded Devices

  • Anjum, Sharjeel;Sibtain, Muhammad;Khalid, Rabia;Khan, Muhammad;Lee, Doyeop;Park, Chansik
    • 국제학술발표논문집
    • /
    • The 9th International Conference on Construction Engineering and Project Management
    • /
    • pp.353-360
    • /
    • 2022
  • Due to the dense and complicated working environment, the construction industry is susceptible to many accidents. Worker's fall is a severe problem at the construction site, including falling into holes or openings because of the inadequate coverings as per the safety rules. During the construction or demolition of a building, openings and holes are formed in the floors and roofs. Many workers neglect to cover openings for ease of work while being aware of the risks of holes, openings, and gaps at heights. However, there are safety rules for worker safety; the holes and openings must be covered to prevent falls. The safety inspector typically examines it by visiting the construction site, which is time-consuming and requires safety manager efforts. Therefore, this study presented a worker-driven approach (the worker is involved in the reporting process) to facilitate safety managers by developing integrated computer vision and inertia sensors-based mobile applications to identify openings. The TensorFlow framework is used to design Convolutional Neural Network (CNN); the designed CNN is trained on a custom dataset for binary class openings and covered and deployed on an android smartphone. When an application captures an image, the device also extracts the accelerometer values to determine the inclination in parallel with the classification task of the device to predict the final output as floor (openings/ covered), wall (openings/covered), and roof (openings / covered). The proposed worker-driven approach will be extended with other case scenarios at the construction site.

  • PDF

Object detection and tracking using a high-performance artificial intelligence-based 3D depth camera: towards early detection of African swine fever

  • Ryu, Harry Wooseuk;Tai, Joo Ho
    • Journal of Veterinary Science
    • /
    • 제23권1호
    • /
    • pp.17.1-17.10
    • /
    • 2022
  • Background: Inspection of livestock farms using surveillance cameras is emerging as a means of early detection of transboundary animal disease such as African swine fever (ASF). Object tracking, a developing technology derived from object detection aims to the consistent identification of individual objects in farms. Objectives: This study was conducted as a preliminary investigation for practical application to livestock farms. With the use of a high-performance artificial intelligence (AI)-based 3D depth camera, the aim is to establish a pathway for utilizing AI models to perform advanced object tracking. Methods: Multiple crossovers by two humans will be simulated to investigate the potential of object tracking. Inspection of consistent identification will be the evidence of object tracking after crossing over. Two AI models, a fast model and an accurate model, were tested and compared with regard to their object tracking performance in 3D. Finally, the recording of pig pen was also processed with aforementioned AI model to test the possibility of 3D object detection. Results: Both AI successfully processed and provided a 3D bounding box, identification number, and distance away from camera for each individual human. The accurate detection model had better evidence than the fast detection model on 3D object tracking and showed the potential application onto pigs as a livestock. Conclusions: Preparing a custom dataset to train AI models in an appropriate farm is required for proper 3D object detection to operate object tracking for pigs at an ideal level. This will allow the farm to smoothly transit traditional methods to ASF-preventing precision livestock farming.

스마트 교통 단속 시스템을 위한 딥러닝 기반 차종 분류 모델 (Vehicle Type Classification Model based on Deep Learning for Smart Traffic Control Systems)

  • 김도영;장성진;장종욱
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.469-472
    • /
    • 2022
  • 최근 지능형 교통 시스템의 발전에 따라 딥러닝을 기술을 적용한 다양한 기술들이 활용되고 있다. 도로를 주행하는 불법 차량 및 범죄 차량 단속을 위해서는 차량 종류를 정확히 판별할 수 있는 차종 분류 시스템이 필요하다. 본 연구는 YOLO(You Only Look Once)를 이용하여 이동식 차량 단속 시스템에 최적화된 차종 분류 시스템을 제안한다. 제안 시스템은 차량을 승용차, 경·소·중형 승합차, 대형 승합차, 화물차, 이륜차, 특수차, 건설기계, 7가지 클래스로 구분하여 탐지하기 위해 단일 단계 방식의 객체 탐지 알고리즘 YOLOv5를 사용한다. 인공지능 기술개발을 위하여 한국과학기술연구원에서 구축한 약 5천 장의 국내 차량 이미지 데이터를 학습 데이터로 사용하였다. 한 대의 카메라로 정면과 측면 각도를 모두 인식할 수 있는 차종 분류 알고리즘을 적용한 지정차로제 단속 시스템을 제안하고자 한다.

  • PDF

YOLOv8과 무인항공기를 활용한 고해상도 해안쓰레기 매핑 (High-Resolution Mapping Techniques for Coastal Debris Using YOLOv8 and Unmanned Aerial Vehicle)

  • 박수호;김흥민;김영민;이인지;박미소;김탁영;장선웅
    • 대한원격탐사학회지
    • /
    • 제40권2호
    • /
    • pp.151-166
    • /
    • 2024
  • 해안쓰레기 문제는 전 세계적으로 환경에 대한 심각한 위협이 되고 있다. 본 연구에서는 딥러닝과 원격탐사 기술을 활용하여 해안쓰레기의 모니터링 방법을 개선하고자 하였다. 이를 위해 You Only Look Once (YOLO)v8 모델을 이용한 객체 탐지 기법을 적용하여 우리나라 주요 해안쓰레기 11종에 대한 대규모 이미지 데이터셋을 구축하고, 실시간으로 쓰레기를 탐지 및 분석할 수 있는 프로토콜(Protocol)을 제안한다. 낙동강 하구에 위치한 신자도를 대상으로 드론 이미지 촬영 및 자체 개발한 YOLOv8 기반의 분석 프로그램을 적용하여 해안쓰레기 성상별 핫스팟을 식별하였다. 이러한 매핑(Mapping) 및 분석 기법의 적용은 해안쓰레기 관리에 효과적으로 활용될 수 있을 것으로 기대된다.

Research on Ocular Data Analysis and Eye Tracking in Divers

  • Ye Jun Lee;Yong Kuk Kim;Da Young Kim;Jeongtack Min;Min-Kyu Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권8호
    • /
    • pp.43-51
    • /
    • 2024
  • 본 논문은 수중 활동을 주로 하는 다이버를 대상으로 특수 목적용 다이버 마스크를 이용해서 안구 데이터를 획득 및 분석하고, 이를 이용해서 사용자의 시선을 추적하는 방법에 대해 제안한다. 안구 데이터 분석을 위해 자체 제작한 안구 데이터 셋을 구축하였고, YOLOv8-nano 모델을 활용해서 학습 모델을 생성하였다. 학습 모델의 프레임 당 소요 시간은 평균 45.52ms를 달성하였고, 눈을 뜬 상태와 감는 상태를 구별하는 인식 성공률은 99%를 달성하였다. 안구 데이터 분석 결과를 바탕으로 현실 세계 좌표를 매칭할 수 있는 시선 추적 알고리즘을 개발하였다. 이 알고리즘의 검증 결과 x축은 약 1%, y축은 약 6%의 평균 오차율을 나타내는 것을 알 수 있었다.