• 제목/요약/키워드: Video Surveillance Data

검색결과 128건 처리시간 0.021초

움직임 정보를 이용한 근접 돼지 분리와 추적 검증 (Touching Pigs Segmentation and Tracking Verification Using Motion Information)

  • 박창현;사재원;김희곤;정용화;박대희;김학재
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권4호
    • /
    • pp.135-144
    • /
    • 2018
  • 좁은 공간에 돼지들을 밀집 사육하는 구조가 대부분인 국내 돈사의 환경은 구제역과 같은 전염병 확산에 취약하다. 이러한 밀집 사육의 문제점을 해결하기 위한 방법으로 감시 카메라를 활용한 돈사 내 개별 돼지들의 행동을 자동으로 분석하는 연구가 진행 되고 있다. 그러나 공격행동 등 복잡한 상황에서 개별 돼지들을 추적하기 위해서는 근접한 돼지들에 대한 올바른 분리가 우선적으로 수행되어야 하지만, 정확도가 떨어지는 키넥트 카메라의 깊이 정보를 이용할 경우 돼지들 간의 경계선이 정확히 추출되지 않는다는 문제가 있다. 본 논문에서는 이러한 문제를 해결하기 위한 방법으로 움직임 정보를 활용하여 근접 돼지를 분리하는 방법을 제안한다. 또한, 제안된 방법은 혼잡한 돈방에서 개별 돼지를 추적하는 경우 추적 오류를 탐지하는 문제에도 적용될 수 있다. 실험 결과, 실제 돈사에서 획득한 두 개의 근접 돼지 시퀀스에 대하여 86%의 정확도로 분리 가능함을 확인하였고, 객체 추적에 대한 검증을 통하여 식별 번호가 잘못 부여된 객체를 정확히 탐지할 수 있음을 확인하였다.

RGB-D 모델을 이용한 강건한 객체 탐지 및 추적 방법 (A Robust Object Detection and Tracking Method using RGB-D Model)

  • 박서희;전준철
    • 인터넷정보학회논문지
    • /
    • 제18권4호
    • /
    • pp.61-67
    • /
    • 2017
  • 최근 지능형 CCTV는 빅 데이터, 인공지능 및 영상 분석과 같은 분야와 결합하여 다양한 이상 행위들을 탐지하고 보행자와 같은 객체의 전반적인 상황을 분석할 수 있으며, 이러한 지능형 영상 감시 기능에 대한 영상 분석 연구가 활발히 진행되고 있는 추세이다. 그러나 일반적으로 2차원 정보를 이용하는 CCTV 영상은 위상학적 정보 부족으로 인해 객체 오 인식과 같은 한계가 존재한다. 이러한 문제는 두 대의 카메라를 사용하여 생성된 객체의 깊이 정보를 영상에 추가함으로써 해결 할 수 있다. 본 논문에서는 가우시안 혼합기법을 사용하여 배경 모델링을 수행하고, 모델링 된 배경에서 전경을 분할하여 움직이는 객체의 존재 여부를 탐지한다. RGB 정보 기반 분할 결과를 이용하여 깊이 정보 기반 분할을 수행하기 위해 두 대의 카메라를 사용하여 스테레오 기반 깊이 지도를 생성한다. RGB 기반으로 분할된 영역을 깊이 정보를 추출하기 위한 도메인으로 설정하고, 도메인 내부에서 깊이 기반 분할을 수행한다. 강건하게 분할된 객체의 중심점을 탐지하고 방향을 추적하기 위해 가장 기본적인 객체 추적 방법인 CAMShift 기법을 적용하여 객체의 움직임을 추적한다. 실험을 통하여 제안된 RGB-D 모델을 이용한 객체 탐지 및 추적 방법의 우수성을 입증하였다.

스켈레톤 조인트 매핑을 이용한 딥 러닝 기반 행동 인식 (Deep Learning-based Action Recognition using Skeleton Joints Mapping)

  • 타스님;백중환
    • 한국항행학회논문지
    • /
    • 제24권2호
    • /
    • pp.155-162
    • /
    • 2020
  • 최근 컴퓨터 비전과 딥러닝 기술의 발전으로 비디오 분석, 영상 감시, 인터렉티브 멀티미디어 및 인간 기계 상호작용 응용을 위해 인간 행동 인식에 관한 연구가 활발히 진행되고 있다. 많은 연구자에 의해 RGB 영상, 깊이 영상, 스켈레톤 및 관성 데이터를 사용하여 인간 행동 인식 및 분류를 위해 다양한 기술이 도입되었다. 그러나 스켈레톤 기반 행동 인식은 여전히 인간 기계 상호작용 분야에서 도전적인 연구 주제이다. 본 논문에서는 동적 이미지라 불리는 시공간 이미지를 생성하기 위해 동작의 종단간 스켈레톤 조인트 매핑 기법을 제안한다. 행동 클래스 간의 분류를 수행하기 위해 효율적인 심층 컨볼루션 신경망이 고안된다. 제안된 기법의 성능을 평가하기 위해 공개적으로 액세스 가능한 UTD-MHAD 스켈레톤 데이터 세트를 사용하였다. 실험 결과 제안된 시스템이 97.45 %의 높은 정확도로 기존 방법보다 성능이 우수함을 보였다.

모델 기반의 보행자 신체 추적 기법 (Model-based Body Motion Tracking of a Walking Human)

  • 이우람;고한석
    • 대한전자공학회논문지SP
    • /
    • 제44권6호
    • /
    • pp.75-83
    • /
    • 2007
  • 본 논문은 영상 기반의 사람의 자세 추정에 대하여 다룬다. 특히 사람이 걷는 동안 카메라는 사람의 측면을 관찰하고 있다고 가정한다. 사람의 자세 추정의 문제는 인간-컴퓨터 상호 작용이나 지능형 감시 시스템을 위해 연구가 되는 분야이며, 본 논문에서는 일반적인 보행 상황에서 감시 시스템 또는 위치 추적, 자세 인식에 응용할 수 있는 알고리즘을 제시한다. 이 분야의 최근의 연구동향은 마코프 네트워크를 이용하여 신체 부분들의 위치나 움직임의 관계를 조건부 독립으로 가정하여 다루고 있다. 이러한 방법들의 경우 신체를 십여 개의 부분들로 모델링하고, 연결된 신체들의 관계를 고려하여 자세를 추정한다. 본 논문에서는 이러한 방법을 응용하여 모델을 단순화하고, 더 나아가 손쉽게 사람의 자세를 파악할 수 있는 방법을 제시한다. 이를 위해 신체 부분들이 독립적임을 가정하여 그 위치를 찾은 후에, 모션 캡쳐 데이터로부터 얻은 신체 부분들의 움직임 간의 관계를 고려하여 자세를 수정하여 주었다. 사람의 신체를 찾기 위해 edge matching을 이용하였으며, 그 과정에서 신체 부분의 edge 성분의 방향성을 강조하기 위해 Anisotropic Gaussian Filter를 사용하였다. 신체의 부분이 가려지는 경우, 모델의 silhouette을 이용하여 가려지는 부분에 대해 추가의 matching cost를 부여함으로써 occlusion 시에도 신체의 부분을 찾을 수 있도록 하였다.

머신 비전을 위한 열 적외선 영상의 객체 기반 압축 기법 (Object-based Compression of Thermal Infrared Images for Machine Vision)

  • 이예지;김신;임한신;추현곤;정원식;서정일;윤경로
    • 방송공학회논문지
    • /
    • 제26권6호
    • /
    • pp.738-747
    • /
    • 2021
  • 오늘날 딥러닝 기술의 향상으로 영상 분류, 객체 탐지, 객체 분할, 객체 추적 등 컴퓨터 비전 분야 또한 큰 발전을 이루고 있다. 지능적 감시, 로봇, 사물 인터넷, 자율주행 자동차 등 딥러닝 기술이 결합된 다양한 응용 기술들은 실제 산업에 적용되고 있으며, 이에 따라 사람의 소비를 위한 영상 데이터 뿐만 아니라 머신 비전을 위한 영상 데이터의 효율적인 압축 방식에 대한 필요성이 대두되고 있다. 본 논문에서는 머신 비전을 위한 열 적외선 영상의 객체 기반 압축 기법을 제안한다. 효율적인 영상 압축과 신경망의 좋은 성능을 유지하기 위해 본 논문에서는 신경망의 객체 탐지 결과와 객체 크기에 따라 입력 영상을 객체 부분과 배경 부분으로 나누어 서로 다른 압축률로 부호화를 수행하는 방법을 제안한다. 제안하는 방법은 VVC로 영상 전체를 압축하는 방식보다 BD-rate 값이 최대 -19.83%로 압축 효율이 뛰어나다는 것을 확인할 수 있다.

k-means 클러스터링을 이용한 CCTV의 효율적인 운영 설계 (Design of video surveillance system using k-means clustering)

  • 홍지훈;김승호;이근호
    • 사물인터넷융복합논문지
    • /
    • 제3권2호
    • /
    • pp.1-5
    • /
    • 2017
  • CCTV 기술이 발달하면서 여러 분야에서 사용하고 있다. 현제 CCTV 운영에 대해서 구체적으로 알아보고자 하며 또한 많은 분야에서 CCTV가 생기면서 운영에 대한 문제점이 생기고 있는데 문제점을 해결하기 위해 새로운 시스템을 설계하고자한다. 본 논문에서는 CCTV가 효율적으로 운영될 수 있도록 K-means을 이용하여 데이터 분석을 진행하고 영상기술도 증가시키고 효율적으로 운영이 가능하도록 기존 시스템에 새로운 기술을 및 기능을 추가하여 문제점을 해결하고 더 좋은 기술로 발전하고자 한다. 또한 관제센터에서 효율적으로 CCTV를 운영할 수 있도록 k-means를 이용하여 CCTV 기술에 새로운 시스템을 설계하여 문제점을 해결 효율적 관리를 위해 제안하고자 한다.

Real-time Zoom Tracking for DM36x-based IP Network Camera

  • Cong, Bui Duy;Seol, Tae In;Chung, Sun-Tae;Kang, HoSeok;Cho, Seongwon
    • 한국멀티미디어학회논문지
    • /
    • 제16권11호
    • /
    • pp.1261-1271
    • /
    • 2013
  • Zoom tracking involves the automatic adjustment of the focus motor in response to the zoom motor movements for the purpose of keeping an object of interest in focus, and is typically achieved by moving the zoom and focus motors in a zoom lens module so as to follow the so-called "trace curve", which shows the in-focus motor positions versus the zoom motor positions for a specific object distance. Thus, one can simply implement zoom tracking by following the most closest trace curve after all the trace curve data are stored in memory. However, this approach is often prohibitive in practical implementation because of its large memory requirement. Many other zoom tracking methods such as GZT, AZT and etc. have been proposed to avoid large memory requirement but with a deteriorated performance. In this paper, we propose a new zoom tracking method called 'Approximate Feedback Zoom Tracking method (AFZT)' on DM36x-based IP network camera, which does not need large memory by approximating nearby trace curves, but generates better zoom tracking accuracy than GZT or AZT by utilizing focus value as feedback information. Experiments through real implementation shows the proposed zoom tracking method improves the tracking performance and works in real-time.

Viewpoint Invariant Person Re-Identification for Global Multi-Object Tracking with Non-Overlapping Cameras

  • Gwak, Jeonghwan;Park, Geunpyo;Jeon, Moongu
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권4호
    • /
    • pp.2075-2092
    • /
    • 2017
  • Person re-identification is to match pedestrians observed from non-overlapping camera views. It has important applications in video surveillance such as person retrieval, person tracking, and activity analysis. However, it is a very challenging problem due to illumination, pose and viewpoint variations between non-overlapping camera views. In this work, we propose a viewpoint invariant method for matching pedestrian images using orientation of pedestrian. First, the proposed method divides a pedestrian image into patches and assigns angle to a patch using the orientation of the pedestrian under the assumption that a person body has the cylindrical shape. The difference between angles are then used to compute the similarity between patches. We applied the proposed method to real-time global multi-object tracking across multiple disjoint cameras with non-overlapping field of views. Re-identification algorithm makes global trajectories by connecting local trajectories obtained by different local trackers. The effectiveness of the viewpoint invariant method for person re-identification was validated on the VIPeR dataset. In addition, we demonstrated the effectiveness of the proposed approach for the inter-camera multiple object tracking on the MCT dataset with ground truth data for local tracking.

Adaptive Background Modeling Considering Stationary Object and Object Detection Technique based on Multiple Gaussian Distribution

  • Jeong, Jongmyeon;Choi, Jiyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제23권11호
    • /
    • pp.51-57
    • /
    • 2018
  • In this paper, we studied about the extraction of the parameter and implementation of speechreading system to recognize the Korean 8 vowel. Face features are detected by amplifying, reducing the image value and making a comparison between the image value which is represented for various value in various color space. The eyes position, the nose position, the inner boundary of lip, the outer boundary of upper lip and the outer line of the tooth is found to the feature and using the analysis the area of inner lip, the hight and width of inner lip, the outer line length of the tooth rate about a inner mouth area and the distance between the nose and outer boundary of upper lip are used for the parameter. 2400 data are gathered and analyzed. Based on this analysis, the neural net is constructed and the recognition experiments are performed. In the experiment, 5 normal persons were sampled. The observational error between samples was corrected using normalization method. The experiment show very encouraging result about the usefulness of the parameter.

딥 러닝 기반의 영상처리 기법을 이용한 겹침 돼지 분리 (Separation of Occluding Pigs using Deep Learning-based Image Processing Techniques)

  • 이한해솔;사재원;신현준;정용화;박대희;김학재
    • 한국멀티미디어학회논문지
    • /
    • 제22권2호
    • /
    • pp.136-145
    • /
    • 2019
  • The crowded environment of a domestic pig farm is highly vulnerable to the spread of infectious diseases such as foot-and-mouth disease, and studies have been conducted to automatically analyze behavior of pigs in a crowded pig farm through a video surveillance system using a camera. Although it is required to correctly separate occluding pigs for tracking each individual pigs, extracting the boundaries of the occluding pigs fast and accurately is a challenging issue due to the complicated occlusion patterns such as X shape and T shape. In this study, we propose a fast and accurate method to separate occluding pigs not only by exploiting the characteristics (i.e., one of the fast deep learning-based object detectors) of You Only Look Once, YOLO, but also by overcoming the limitation (i.e., the bounding box-based object detector) of YOLO with the test-time data augmentation of rotation. Experimental results with two-pigs occlusion patterns show that the proposed method can provide better accuracy and processing speed than one of the state-of-the-art widely used deep learning-based segmentation techniques such as Mask R-CNN (i.e., the performance improvement over Mask R-CNN was about 11 times, in terms of the accuracy/processing speed performance metrics).