• Title/Summary/Keyword: 객체 영상 인식

Search Result 588, Processing Time 0.03 seconds

Development of Recognition System for Traffic Violations Using Deep Learning Algorithms (딥러닝 상황 인식을 이용한 교통법규 위반 인식 시스템 개발)

  • Kim, Joong-wan;Jo, Hyun-jun;Choi, Jong-geon;Yun, Tae-jin
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.01a
    • /
    • pp.319-320
    • /
    • 2022
  • 교통량이 증가됨에 따라 높아지는 사고율을 줄이기 위해 효율적이며, 다양한 교통 위반 단속이 요구되고 있다. 기존의 유무인 교통법규 위반 단속 시스템의 도입으로 단속 구역 확대를 시도하고 있으나 높은 비용의 문제로 한정된 지역에서만 실시되고 있다. 해당 문제 해결을 위해 본 논문에서는 딥러닝 실시간 객체인식기술을 적용하여 차량의 교통법규 위반을 인식하며 이에 대한 정보를 제공하는 시스템을 개발하였다. 실시간 객체인식 알고리즘인 YOLOv4와 실시간 객체추적기술인 deepSORT 알고리즘을 데스크톱 PC에 적용하여 구현하였다. 개발한 시스템은 과속, 버스 전용 차로, 주정차, 급속 다차선 변경에 대한 인식 결과를 제공한다. 기존 설치된 CCTV 영상을 대상으로 시스템 적용이 가능하여 저비용으로 넓은 지역에 대한 교통법규 위반 상황 인식을 기대할 수 있다.

  • PDF

Realtime Object Extraction and Tracking System for Moving Object Monitoring (이동 객체 감시를 위한 실시간 객체추출 및 추적시스템)

  • Kang Hyun-Joong;Lee Hwang-hyoung
    • Journal of the Korea Society of Computer and Information
    • /
    • v.10 no.2 s.34
    • /
    • pp.59-68
    • /
    • 2005
  • Object tracking in a real time image is one of interesting subjects in computer vision and many practical application fields Past couple of years. But sometimes existing systems cannot find object by recognize background noise as object. This paper proposes a method of object detection and tracking using adaptive background image in real time. To detect object which does not influenced by illumination and remove noise in background image, this system generates adaptive background image by real time background image updating. This system detects object using the difference between background image and input image from camera. After setting up MBR(minimum bounding rectangle) using the internal point of detected otject, the system tracks otiect through this MBR. In addition, this paper evaluates the test result about performance of proposed method as compared with existing tracking algorithm.

  • PDF

Object Feature Extraction and Matching for Effective Multiple Vehicles Tracking (효과적인 다중 차량 추적을 위한 객체 특징 추출 및 매칭)

  • Cho, Du-Hyung;Lee, Seok-Lyong
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.2 no.11
    • /
    • pp.789-794
    • /
    • 2013
  • A vehicle tracking system makes it possible to induce the vehicle movement path for avoiding traffic congestion and to prevent traffic accidents in advance by recognizing traffic flow, monitoring vehicles, and detecting road accidents. To track the vehicles effectively, those which appear in a sequence of video frames need to identified by extracting the features of each object in the frames. Next, the identical vehicles over the continuous frames need to be recognized through the matching among the objects' feature values. In this paper, we identify objects by binarizing the difference image between a target and a referential image, and the labelling technique. As feature values, we use the center coordinate of the minimum bounding rectangle(MBR) of the identified object and the averages of 1D FFT(fast Fourier transform) coefficients with respect to the horizontal and vertical direction of the MBR. A vehicle is tracked in such a way that the pair of objects that have the highest similarity among objects in two continuous images are regarded as an identical object. The experimental result shows that the proposed method outperforms the existing methods that use geometrical features in tracking accuracy.

Obstacle Detection and Recognition System for Autonomous Driving Vehicle (자율주행차를 위한 장애물 탐지 및 인식 시스템)

  • Han, Ju-Chan;Koo, Bon-Cheol;Cheoi, Kyung-Joo
    • Journal of Convergence for Information Technology
    • /
    • v.7 no.6
    • /
    • pp.229-235
    • /
    • 2017
  • In recent years, research has been actively carried out to recognize and recognize objects based on a large amount of data. In this paper, we propose a system that extracts objects that are thought to be obstacles in road driving images and recognizes them by car, man, and motorcycle. The objects were extracted using Optical Flow in consideration of the direction and size of the moving objects. The extracted objects were recognized using Alexnet, one of CNN (Convolutional Neural Network) recognition models. For the experiment, various images on the road were collected and experimented with black box. The result of the experiment showed that the object extraction accuracy was 92% and the object recognition accuracy was 96%.

A Deep Neural Network for Activity Recognition of Multi-object (다중 객체의 행동 인식을 위한 심층신경망)

  • Kim, Seunghyun;Kim, Do-Yeon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.10a
    • /
    • pp.597-598
    • /
    • 2016
  • 행동 인식을 위한 기존의 심층신경망은 행동 패턴 모델링과 행동 인식 성능 향상에 큰 기여를 하였다. 그러나 이 신경망은 영상 전체를 하나의 행동 인식 대상으로 보기 때문에 다중 객체의 개별적인 행동 인식에는 한계가 있다. 이에 본 논문에서는 R-CNN과 LSTM을 융합한 RC-LSTM 심층신경망을 통해 다중 객체의 행동 인식을 위한 방법을 제안한다.

Object Recognition Technology Performance Comparison for Augmented Reality (증강현실을 위한 객체인식 기술 성능 비교)

  • Shin, Eun-ji;Shin, Kwang-seong
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2021.05a
    • /
    • pp.348-350
    • /
    • 2021
  • The core technology of augmented reality is object recognition technology. Recently, due to the development of various artificial intelligence algorithms such as CNN, it has become possible to effectively distinguish specific objects from images. It is possible to realize more realistic and immersive augmented reality contents only when technology for recognizing objects quickly and accurately is secured. In this study, an object recognition model using SSD (single shot multibox detector) and an object recognition model using YOLO were compared and evaluated.

  • PDF

Real-time Multi-Objects Recognition and Tracking Scheme (실시간 다중 객체 인식 및 추적 기법)

  • Kim, Dae-Hoon;Rho, Seung-Min;Hwang, Een-Jun
    • Journal of Advanced Navigation Technology
    • /
    • v.16 no.2
    • /
    • pp.386-393
    • /
    • 2012
  • In this paper, we propose an efficient multi-object recognition and tracking scheme based on interest points of objects and their feature descriptors. To do that, we first define a set of object types of interest and collect their sample images. For sample images, we detect interest points and construct their feature descriptors using SURF. Next, we perform a statistical analysis of the local features to select representative points among them. Intuitively, the representative points of an object are the interest points that best characterize the object. in addition, we make the movement vectors of the interest points based on matching between their SURF descriptors and track the object using these vectors. Since our scheme treats all the objects independently, it can recognize and track multiple objects simultaneously. Through the experiments, we show that our proposed scheme can achieve reasonable performance.

A Study on Extraction of Object in Color Image (칼라 영상에서의 객체 영역 추출에 관한 연구)

  • 김성영;권규복;김민환;박창민
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2001.11a
    • /
    • pp.121-125
    • /
    • 2001
  • 본 논문에서는 칼라영상에 포함된 객체를 추출할 수 있는 방법을 제시한다. 객체는 상이한 칼라와 텍스처로 구성되는데 이들을 포괄하여 사람이 인식하는 객체와 유사한 형태로 추출할 수 있도록 하였다. 이를 위해 해상도를 줄여가며 영역 분할한 후 그 결과를 조합함으로써 사소한 변화는 흡수하고 중요한 변화가 발생하는 영역 단위의 분할이 가능하도록 하였다. 분할된 영역들의 공간적 정보와 영역 크기 정보를 이용하여 분할된 영역 중에서 핵심 객체영역과 핵심 배경영역을 선택하고 객체 후보 영역에 대해 이들과 칼라 분포 유사도 조사를 하여 핵심객체영역과 유사한 유사도를 갖는 영역들을 최종 객체 영역으로 추출하였다. 본 논문에서 제안된 방법은 다양한 실험을 통해 단순한 배경을 가진 영상뿐만 아니라 복잡한 배경을 갖는 영상에 대해서도 어느 정도 만족할 만한 결과를 얻을 수 있음을 확인하였다. 본 논문에서 제안된 방법은 내용기반검색, 영상 DB의 인덱싱 등 다양한 분야에 활용될 수 있을 것으로 예상된다.

  • PDF

Behavior Recognition of Moving Object based on Multi-Fusion Network (다중 융합 네트워크 기반 이동 객체 행동 인식)

  • Kim, Jinah;Moon, Nammee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.641-642
    • /
    • 2022
  • 단일 데이터로부터의 이동 객체에 대한 행동 인식 연구는 데이터 수집 과정에서 발생하는 노이즈의 영향을 크게 받는다. 본 논문은 영상 데이터와 센서 데이터를 이용하여 다중 융합 네트워크 기반 이동 객체 행동 인식 방법을 제안한다. 영상으로부터 객체가 감지된 영역의 추출과 센서 데이터의 이상치 제거 및 결측치 보간을 통해 전처리된 데이터들을 융합하여 시퀀스를 생성한다. 생성된 시퀀스는 CNN(Convolutional Neural Networks)과 LSTM(Long Short Term Memory)기반 다중 융합 네트워크 모델을 통해 시계열에 따른 행동 특징들을 추출하고, 깊은 FC(Fully Connected) 계층을 통해 특징들을 융합하여 행동을 예측한다. 본 연구에서 제시된 방법은 사람을 포함한 동물, 로봇 등의 다양한 객체에 적용될 수 있다.

Fall Detection based on Fish-eye Lens Camera Image and Perspective Image (어안렌즈 카메라 영상과 투시영상을 이용한 기절동작 인식)

  • So, In-Mi;Kim, Young-Un;Kang, Sun-Kyung;Han, Dae-Gyeong;Jung, Sung-Tae
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06c
    • /
    • pp.468-471
    • /
    • 2008
  • 이 논문은 응급상황을 인식하기 위하여 어안렌즈를 통해 획득된 영상을 이용하여 기절 동작을 인식하는 방법을 제안한다. 거실의 천장 중앙에 위치한 어안렌즈(fish-eye lens)를 장착한 카메라로부터 화각이 170인 RGB 컬러 모델의 어안 영상을 입력 받은 뒤, 가우시안 혼합 모델 기반의 적응적 배경 모델링 방법을 이용하여 동적으로 배경 영상을 갱신한다. 입력 영상의 평균 밝기를 구하고 평균 밝기가 급격하게 변화하지 않도록 영상 픽셀을 보정한 뒤, 입력 영상과 배경 영상과 차이가 큰 픽셀을 찾음으로써 움직이는 객체를 추출하였다. 그리고 연결되어 있는 전경 픽셀 영역들의 외곽점들을 추적하여 타원으로 매핑하고 움직이는 객체 영역의 형태를 단순화하였다. 이 타원을 추적하면서 어안 렌즈 영상을 투시 영상으로 변환한 다음 타원의 크기 변화, 위치 변화, 이동 속도 정보를 추출하여 이동과 정지 및 움직임이 기절동작과 유사한지를 판단하도록 하였다. 본 논문에서는 실험자로 하여금 기절동작, 걷기 동작, 앉기 동작 등 여러 동작을 취하게 하고 기절 동작 인식을 실험하였다. 실험 결과 어안 렌즈 영상을 그대로 사용하는 것보다 투시 영상으로 변환하여 타원의 크기변화, 위치변화, 이동속도 정보를 이용하는 것이 높은 인식률을 보였다.

  • PDF