• 제목/요약/키워드: Real-time Object Classification

검색결과 74건 처리시간 0.031초

힐버트 스캔 거리값을 이용한 물체식별 알고리즘 (Object Classification Method using Hilbert Scanning Distance)

  • 최정환;백영민;최진영
    • 전기학회논문지
    • /
    • 제57권4호
    • /
    • pp.700-705
    • /
    • 2008
  • In this paper, we propose object classification algorithm for real-time surveillance system. We have approached this problem using silhouette-based template matching. The silhouette of the object is extracted, and then it is compared with representative template models. Template models are previously stored in the database. Our algorithm is similar to previous pixel-based template matching scheme like Hausdorff Distance, but we use 1D image array rather than 2D regions inspired by Hilbert Path. Transformation of images could reduce computational burden to compute similarity between the detected image and the template images. Experimental results show robustness and real-time performance in object classification, even in low resolution images.

실시간 기반 매우 작은 객체 탐지를 위한 딥러닝 알고리즘 개발 (Development of a Deep Learning Algorithm for Small Object Detection in Real-Time )

  • 여우성;박미영
    • 한국산업융합학회 논문집
    • /
    • 제27권4_2호
    • /
    • pp.1001-1007
    • /
    • 2024
  • Recent deep learning algorithms for object detection in real-time play a crucial role in various applications such as autonomous driving, traffic monitoring, health care, and water quality monitoring. The size of small objects, in particular, significantly impacts the accuracy of detection models. However, data containing small objects can lead to underfitting issues in models. Therefore, this study developed a deep learning model capable of quickly detecting small objects to provide more accurate predictions. The RE-SOD (Residual block based Small Object Detector) developed in this research enhances the detection performance for small objects by using RGB separation preprocessing and residual blocks. The model achieved an accuracy of 1.0 in image classification and an mAP50-95 score of 0.944 in object detection. The performance of this model was validated by comparing it with real-time detection models such as YOLOv5, YOLOv7, and YOLOv8.

연속 영상 기반 실시간 객체 분할 (Real-Time Object Segmentation in Image Sequences)

  • 강의선;유승훈
    • 정보처리학회논문지B
    • /
    • 제18B권4호
    • /
    • pp.173-180
    • /
    • 2011
  • 본 논문은 GPU(Graphics Processing Unit) 에서 CUDA(Compute Unified Device Architecture)를 사용하여 실시간으로 객체를 분할하는 방법을 소개한다. 최근에 감시 시스템, 오브젝트 추적, 모션 분석 등의 많은 응용 프로그램들은 실시간 처리가 요구된다. 이러한 단계의 선행부분인 객체 분할 기법은 기존 CPU 기반의 시스템으로는 실시간 처리에 제약이 발생한다. NVIDIA에서는 Parallel Processing for General Computation 을 위해 그래픽 하드웨어 제약을 개선한 CUDA platform을 제공하고 있다. 본 논문에서는 객체 추출 단계에 대표적인 적응적 가우시안 혼합 배경 모델링(Adaptive Gaussian Mixture Background Modeling) 알고리즘과 Classification 기법으로 사용되는 CCL (Connected Component Labeling) 알고리즘을 적용하였다. 본 논문은 2.4GHz를 갖는 Core2 Quad 프로세서와 비교하여 평가하였고 그 결과 3~4배 이상의 성능향상을 확인할 수 있었다.

카메라-라이다 센서 융합을 통한 VRU 분류 및 추적 알고리즘 개발 (Vision and Lidar Sensor Fusion for VRU Classification and Tracking in the Urban Environment)

  • 김유진;이호준;이경수
    • 자동차안전학회지
    • /
    • 제13권4호
    • /
    • pp.7-13
    • /
    • 2021
  • This paper presents an vulnerable road user (VRU) classification and tracking algorithm using vision and LiDAR sensor fusion method for urban autonomous driving. The classification and tracking for vulnerable road users such as pedestrian, bicycle, and motorcycle are essential for autonomous driving in complex urban environments. In this paper, a real-time object image detection algorithm called Yolo and object tracking algorithm from LiDAR point cloud are fused in the high level. The proposed algorithm consists of four parts. First, the object bounding boxes on the pixel coordinate, which is obtained from YOLO, are transformed into the local coordinate of subject vehicle using the homography matrix. Second, a LiDAR point cloud is clustered based on Euclidean distance and the clusters are associated using GNN. In addition, the states of clusters including position, heading angle, velocity and acceleration information are estimated using geometric model free approach (GMFA) in real-time. Finally, the each LiDAR track is matched with a vision track using angle information of transformed vision track and assigned a classification id. The proposed fusion algorithm is evaluated via real vehicle test in the urban environment.

실시간 영상처리를 이용한 표면흠검사기 개발 (The Development of Surface Inspection System Using the Real-time Image Processing)

  • 이종학;박창현;정진양
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2000년도 제15차 학술회의논문집
    • /
    • pp.171-171
    • /
    • 2000
  • We have developed m innovative surface inspection system for automated quality control for steel products in POSCO. We had ever installed the various kinds of surface inspection systems, such as a linear CCD and a laser typed surface inspection systems at cold rolled strips production lines. But, these systems cannot fulfill the sufficient detection and classification rate, and real time processing performance. In order to increase detection and classification rate, we have used the Dark, Bright and Transition Field illumination and area type CCD camera, and fur the real time image processing, parallel computing has been used. In this paper, we introduced the automatic surface inspection system and real time image processing technique using the Object Detection, Defect Detection, Classification algorithms and its performance obtained at the production line.

  • PDF

검출과 분류기능이 탑재된 실시간 지능형 PTZ카메라 (Real-Time PTZ Camera with Detection and Classification Functionalities)

  • 박종화;안태기;전지혜;조병목;박구만
    • 한국통신학회논문지
    • /
    • 제36권2C호
    • /
    • pp.78-85
    • /
    • 2011
  • 본 논문에서는 카메라 자체에서 움직임을 검출하고 분류된 객체를 추척할 수 있는 지능형 PTZ 카메라 시스템을 제안하였다. 추적하고자 하는 객체가 검출되면 분류하고, 객체의 움직임에 따라 PTZ 카메라가 실시간으로 추적한다. 검출을 위해 GMM을 사용하였고 검출성능을 높이기 위해 그림자 제거 기법을 적용하였다. 검출된 객체의 분류를 위해 Legendre 모멘트를 적용하였다. 본 논문에서는 카메라의 초점 조절을 사용하지않고 영상의 중심과 객체와의 방향, 거리, 속도 정보만을 이용하여 PTZ 카메라의 움직임을 제어하는 방법을 제안하였다. TI DM6446 Davinci를 이용하여 실시간으로 객체의 검출, 분류와 추적이 가능한 카메라 시스템을 구성하였다. 실험 결과 사람과 차량을 구분하고, 움직임의 속도가 빠른 차량에 대해서도 본 추적시스템은 안정적으로 동작함을 확인하였다.

딥러닝 모델을 이용한 비전이미지 내의 대상체 분류에 관한 연구 (A Study on The Classification of Target-objects with The Deep-learning Model in The Vision-images)

  • 조영준;김종원
    • 한국산학기술학회논문지
    • /
    • 제22권2호
    • /
    • pp.20-25
    • /
    • 2021
  • 본 논문은 Deep-learning 기반의 검출모델을 이용하여 연속적으로 입력되는 비디오 이미지 내의 해당 대상체를 의미별로 분류해야하는 문제에 대한 구현방법에 관한 논문이다. 기존의 대상체 검출모델은 Deep-learning 기반의 검출모델로서 유사한 대상체 분류를 위해서는 방대한 DATA의 수집과 기계학습과정을 통해서 가능했다. 대상체 검출모델의 구조개선을 통한 유사물체의 인식 및 분류를 위하여 기존의 검출모델을 이용한 분류 문제를 분석하고 처리구조를 변경하여 개선된 비전처리 모듈개발을 통해 이를 기존 인식모델에 접목함으로써 대상체에 대한 인식모델을 구현하였으며, 대상체의 분류를 위하여 검출모델의 구조변경을 통해 고유성과 유사성을 정의하고 이를 검출모델에 적용하였다. 실제 축구경기 영상을 이용하여 대상체의 특징점을 분류의 기준으로 설정하여 실시간으로 분류문제를 해결하여 인식모델의 활용성 검증을 통해 산업에서의 활용도를 확인하였다. 기존의 검출모델과 새롭게 구성한 인식모델을 활용하여 실시간 이미지를 색상과 강도의 구분이 용이한 HSV의 칼라공간으로 변환하는 비전기술을 이용하여 기존모델과 비교 검증하였고, 조도 및 노이즈 환경에서도 높은 검출률을 확보할 수 있는 실시간 환경의 인식모델 최적화를 위한 선행연구를 수행하였다.

무인 자동차의 2차원 레이저 거리 센서를 이용한 도시 환경에서의 빠른 주변 환경 인식 방법 (Fast Scene Understanding in Urban Environments for an Autonomous Vehicle equipped with 2D Laser Scanners)

  • 안승욱;최윤근;정명진
    • 로봇학회논문지
    • /
    • 제7권2호
    • /
    • pp.92-100
    • /
    • 2012
  • A map of complex environment can be generated using a robot carrying sensors. However, representation of environments directly using the integration of sensor data tells only spatial existence. In order to execute high-level applications, robots need semantic knowledge of the environments. This research investigates the design of a system for recognizing objects in 3D point clouds of urban environments. The proposed system is decomposed into five steps: sequential LIDAR scan, point classification, ground detection and elimination, segmentation, and object classification. This method could classify the various objects in urban environment, such as cars, trees, buildings, posts, etc. The simple methods minimizing time-consuming process are developed to guarantee real-time performance and to perform data classification on-the-fly as data is being acquired. To evaluate performance of the proposed methods, computation time and recognition rate are analyzed. Experimental results demonstrate that the proposed algorithm has efficiency in fast understanding the semantic knowledge of a dynamic urban environment.

EMOS: Enhanced moving object detection and classification via sensor fusion and noise filtering

  • Dongjin Lee;Seung-Jun Han;Kyoung-Wook Min;Jungdan Choi;Cheong Hee Park
    • ETRI Journal
    • /
    • 제45권5호
    • /
    • pp.847-861
    • /
    • 2023
  • Dynamic object detection is essential for ensuring safe and reliable autonomous driving. Recently, light detection and ranging (LiDAR)-based object detection has been introduced and shown excellent performance on various benchmarks. Although LiDAR sensors have excellent accuracy in estimating distance, they lack texture or color information and have a lower resolution than conventional cameras. In addition, performance degradation occurs when a LiDAR-based object detection model is applied to different driving environments or when sensors from different LiDAR manufacturers are utilized owing to the domain gap phenomenon. To address these issues, a sensor-fusion-based object detection and classification method is proposed. The proposed method operates in real time, making it suitable for integration into autonomous vehicles. It performs well on our custom dataset and on publicly available datasets, demonstrating its effectiveness in real-world road environments. In addition, we will make available a novel three-dimensional moving object detection dataset called ETRI 3D MOD.

딥러닝을 이용한 실시간 말벌 분류 시스템 (Real Time Hornet Classification System Based on Deep Learning)

  • 정윤주;이영학;이스라필 안사리;이철희
    • 전기전자학회논문지
    • /
    • 제24권4호
    • /
    • pp.1141-1147
    • /
    • 2020
  • 말벌 종은 모양이 매우 유사하기 때문에 비전문가가 분류하기 어렵고, 객체의 크기가 작고 빠르게 움직이기 때문에 실시간으로 탐지하여 종을 분류하는 것은 더욱 어렵다. 본 논문에서는 바운딩 박스를 이용한 딥러닝 알고리즘을 기반으로 말벌 종을 실시간으로 분류하는 시스템을 개발하였다. 훈련 영상의 레이블링 작업 시 바운딩 박스 안에 포함되는 배경 영역을 최소화하기 위하여 말벌의 머리와 몸통 부분만을 선택하는 방법을 제안한다. 또한 실시간으로 말벌을 탐지하고 그 종을 분류할 수 있는 최선의 알고리즘을 찾기 위하여 기존의 바운딩 박스 기반 객체 인식 알고리즘들을 실험을 통하여 비교한다. 실험 결과 컨볼루션 레이어의 활성함수로 mish 함수를 적용하고, 객체 검출 블록 전에 공간집중모듈(Spatial Attention Module, SAM)을 적용한 YOLOv4 모델을 사용하여 말벌 영상을 테스트한 경우 평균 97.89%의 정밀도(Precision)와 98.69%의 재현율(Recall)을 나타내었다.