• 제목/요약/키워드: Video Surveillance System

검색결과 301건 처리시간 0.048초

배경환경에 강인한 이동표적 탐지기법 연구 (A Study on Robust Moving Target Detection for Background Environment)

  • 강석종;김도종;배현덕
    • 전자공학회논문지CI
    • /
    • 제48권5호
    • /
    • pp.55-63
    • /
    • 2011
  • 본 논문은 방위각 및 고저방향으로 카메라 움직임이 있는 감시장치의 비디오 프레임 연속영상을 1)각각 $N{\times}M$ 개의 서브블록으로 나눈 후 각각의 서브블록에 대해 FFT 위상상관 기법을 적용하여 이동표적 위치를 구하고, 2)연속영상을 정합 후 차영상을 구하여 적응 문턱 값을 적용해서 표적후보군을 구하였으며, 3)두 기법을 적용하여 클러터를 제거하는 새로운 표적탐지기법을 제안하였다. 블록 내 다양한 크기의 영상 움직임이 있을 경우 FFT 위상상관 기법은 적용하여 움직임을 구하면 큰 영상의 움직임이 가장 큰 위상상관 값으로 나타나는 특성을 이용하여 배경환경에 강인한 이동표적 위치(블록)탐지를 하였다. 또한, 차영상을 영상분리하기 위한 적응 문턱 값은 카메라 움직임 등 배경환경 변화를 고려한 학습가중치를 이용하여 구하였다. 제안된 알고리즘 성능입증은 다양한 배경환경에서 카메라 이동/정지조건에서 다양한 이동표적에 대해 탐지 가능함을 시뮬레이션을 통해 확인하였으며 탐지성능은 ROC 커브를 통해 확인하였다.

Human activity recognition with analysis of angles between skeletal joints using a RGB-depth sensor

  • Ince, Omer Faruk;Ince, Ibrahim Furkan;Yildirim, Mustafa Eren;Park, Jang Sik;Song, Jong Kwan;Yoon, Byung Woo
    • ETRI Journal
    • /
    • 제42권1호
    • /
    • pp.78-89
    • /
    • 2020
  • Human activity recognition (HAR) has become effective as a computer vision tool for video surveillance systems. In this paper, a novel biometric system that can detect human activities in 3D space is proposed. In order to implement HAR, joint angles obtained using an RGB-depth sensor are used as features. Because HAR is operated in the time domain, angle information is stored using the sliding kernel method. Haar-wavelet transform (HWT) is applied to preserve the information of the features before reducing the data dimension. Dimension reduction using an averaging algorithm is also applied to decrease the computational cost, which provides faster performance while maintaining high accuracy. Before the classification, a proposed thresholding method with inverse HWT is conducted to extract the final feature set. Finally, the K-nearest neighbor (k-NN) algorithm is used to recognize the activity with respect to the given data. The method compares favorably with the results using other machine learning algorithms.

동적인 배경에서의 사람 검출 알고리즘 (People Detection Algorithm in Dynamic Background)

  • 최유정;이동렬;김윤
    • 산업기술연구
    • /
    • 제38권1호
    • /
    • pp.41-52
    • /
    • 2018
  • Recently, object detection is a critical function for any system that uses computer vision and is widely used in various fields such as video surveillance and self-driving cars. However, the conventional methods can not detect the objects clearly because of the dynamic background change in the beach. In this paper, we propose a new technique to detect humans correctly in the dynamic videos like shores. A new background modeling method that combines spatial GMM (Gaussian Mixture Model) and temporal GMM is proposed to make more correct background image. Also, the proposed method improve the accuracy of people detection by using SVM (Support Vector Machine) to classify people from the objects and KCF (Kernelized Correlation Filter) Tracker to track people continuously in the complicated environment. The experimental result shows that our method can work well for detection and tracking of objects in videos containing dynamic factors and situations.

유사한 색상을 지닌 다수의 이동 물체 영역 분류 및 식별과 추적 (Area Classification, Identification and Tracking for Multiple Moving Objects with the Similar Colors)

  • 이정식;주영훈
    • 전기학회논문지
    • /
    • 제65권3호
    • /
    • pp.477-486
    • /
    • 2016
  • This paper presents the area classification, identification, and tracking for multiple moving objects with the similar colors. To do this, first, we use the GMM(Gaussian Mixture Model)-based background modeling method to detect the moving objects. Second, we propose the use of the binary and morphology of image in order to eliminate the shadow and noise in case of detection of the moving object. Third, we recognize ROI(region of interest) of the moving object through labeling method. And, we propose the area classification method to remove the background from the detected moving objects and the novel method for identifying the classified moving area. Also, we propose the method for tracking the identified moving object using Kalman filter. To the end, we propose the effective tracking method when detecting the multiple objects with the similar colors. Finally, we demonstrate the feasibility and applicability of the proposed algorithms through some experiments.

실외 도로에서의 영상기반 차량 감시에 관한 연구 (A Study for Video-based Vehicle Surveillance on Outdoor Road)

  • 박근수;김현태
    • 한국전자통신학회논문지
    • /
    • 제8권11호
    • /
    • pp.1647-1654
    • /
    • 2013
  • 실외 도로에서의 차량 검출 성능은 기상 상태, 태양 이동에 의한 그림자, 조도 변화 등에 영향을 받는다. 본 논문에서는 낮 시간대의 실외도로에서 이러한 주변 환경변화에 강건한 배경 추정 알고리즘과 연동한 차량 검출 시스템을 제안한다. 배경 추정 알고리즘은 혼합 가우시안 모델을 적용하고 후보 영역에 대한 차량 검출은 Adaboost 알고리즘을 적용하였다. 흐린 날, 비오는 날 등 동일한 실제 도로에서 서로 다른 기후에 획득한 CCTV 비디오 영상을 사용한 실험을 통해 제안하는 방법이 일반 도로에서의 차량 검출에 유용한 것을 확인하였다.

움직임 벡터를 이용한 사람 활동성 분석 (Analysis of Human Activity Using Motion Vector)

  • 김선우;최연성;양해권
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.157-160
    • /
    • 2011
  • 본 논문에서는 실시간 감시 시스템에서 녹화 도중에 검출된 움직임 벡터를 이용하여 사람의 활동성을 인식하고 분석하고자 한다. 전경에서 블랍(사람)을 검출하는 방법은 기존에 연구했던 차 영상을 이용하였고, MPEG-4 동영상 녹화 시 EPZS(Enhanced Predictive Zonal Search)에서 검출되는 움직임 벡터의 값을 이용하였다. 본 논문에서는 사람의 행동을 크게 세 가지의 {Active, Inactive}, {Moving, Non-moving}, {Walking, Running} 메타 클래스로 분류하고 인식하였다. 각 단계에서는 단계별 임계값을 이용하여 구분하였다. 실험을 위해서 약 150개의 상황을 연출하였으며, 실험 영상에서 각 단계를 구분하는데 약 86% ~ 98% 까지의 높은 인식률을 보였다.

  • PDF

임베디드 영상감시 시스템 구현 (An Implementation of Embedded Video Surveillance System)

  • 안성호;이경희;곽지영;김두현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2003년도 춘계학술발표논문집 (상)
    • /
    • pp.47-50
    • /
    • 2003
  • 최근 IT분야에서 주목받고 있는 부분은 정보가전분야이다. 특히, 홈오토메이션(HA Home Automation)에서 중심이 되는 시스템은 홈서버라 할 수 있다. 즉, 가정내에 홈서버가 설치되어 이를 중심으로 내부적으로는 정보가전기기들이 네트워킹되어 있고, 밖으로는 인터넷을 기본 통신 환경으로 구성되는 것이 현실이다. 이러한 환경에서 홈시큐리티 방면의 영상감시기능은 핵심분야 중 하나이다. 영상감시기능을 수행하고자 가정의 홈서버상에 영상감시 모듈이 탑재되어진다. 이때, 홈서버는 임베디드 시스템으로 Qplus라고 하는 임베디드 리눅스 계열의 운영체제를 기본으로 하며, 영상감시 모듈은 SIP(Session Initiation Protocol)기반으로 수행된다. SIP은 VoIP(Voice over IP) 분야의 핵심기술로 최근 많이 부각되어 널리 활용되고 있는 응용 계층의 시그널링 프로토콜이다. 한편, 영상코덱은 ITU-T의 H.261표준을 따르고 있으며, 이러한 영상감시기능은 홈서버 뿐만 아니라, PDA와 같은 핸드헬드 장치를 통해서도 제공된다. 본 논문에서는 임베디드 영상가미 시스템의 설계 및 구현에 대해 기술하고 있다.

  • PDF

영상처리 기반 낙상 감지 알고리즘의 구현 (Implementation of fall-down detection algorithm based on Image Processing)

  • 김선기;안종수;김원호
    • 한국위성정보통신학회논문지
    • /
    • 제12권2호
    • /
    • pp.56-60
    • /
    • 2017
  • 본 논문은 영상처리 기반의 낙상 감지 알고리즘의 설계 및 구현에 관한 내용을 기술한다. 영상처리 기반의 낙상 감지 알고리즘은 카메라로 획득한 입력 영상을 그레이 스케일 변환 후 배경차분과 이진화를 통해 객체를 분리하고, 라벨링을 통해 인체를 인식한다. 인식된 인체는 출력 영상으로 확인이 가능하며 낙상을 감지하게 되면 알람이 발생한다. 컴퓨터 시뮬레이션을 통하여 제안한 알고리즘을 실험한 결과 90%의 검출율을 보여주었다. DSP 영상처리 보드에 구현한 시제품 시험을 통하여 기능을 검증함으로서 실용화 가능성을 확인하였다.

SG 정보를 이용한 강인한 물체 추출 알고리즘 (Robust Object Detection Algorithm Using Spatial Gradient Information)

  • 주영훈;김세진
    • 한국지능시스템학회논문지
    • /
    • 제18권3호
    • /
    • pp.422-428
    • /
    • 2008
  • 본 논문에서는 spatial gradient를 이용한 강인한 물체 추출 방법을 제안한다. 제안한 방법은 먼저 복잡한 환경과 다양한 빛의 변화에 의해 나타나는 에러 값 등을 해결하기 위해 기존에 제안된 입력 영상과 기준 영상에서 밝기와 색 성분을 이용하여 최초 배경을 제거한다. 배경을 제거한 다음, 그림자로 인식되어 전경 영역에 추가된 부분을 RGB 칼라 모델과 정규화 된 RGB 칼라 모델을 이용하여 제거하고, HSI 칼라 모델을 이용하여 불필요한 정보 값을 갖는 영역을 제거한다. 마지막으로, 배경으로 인식되어 전경으로부터 제거된 부분을 입력 영상의 공간상 정보인 spatial gradient와 HSI 칼라 모델을 이용하여 복구하는 방법을 제안한다. 마지막으로, 본 논문에서 제안한 알고리즘은 복잡하고 다양한 실내 외 환경에서의 실험을 통해 그 응용 가능성을 증명한다.

딥 러닝 기반의 영상처리 기법을 이용한 겹침 돼지 분리 (Separation of Occluding Pigs using Deep Learning-based Image Processing Techniques)

  • 이한해솔;사재원;신현준;정용화;박대희;김학재
    • 한국멀티미디어학회논문지
    • /
    • 제22권2호
    • /
    • pp.136-145
    • /
    • 2019
  • The crowded environment of a domestic pig farm is highly vulnerable to the spread of infectious diseases such as foot-and-mouth disease, and studies have been conducted to automatically analyze behavior of pigs in a crowded pig farm through a video surveillance system using a camera. Although it is required to correctly separate occluding pigs for tracking each individual pigs, extracting the boundaries of the occluding pigs fast and accurately is a challenging issue due to the complicated occlusion patterns such as X shape and T shape. In this study, we propose a fast and accurate method to separate occluding pigs not only by exploiting the characteristics (i.e., one of the fast deep learning-based object detectors) of You Only Look Once, YOLO, but also by overcoming the limitation (i.e., the bounding box-based object detector) of YOLO with the test-time data augmentation of rotation. Experimental results with two-pigs occlusion patterns show that the proposed method can provide better accuracy and processing speed than one of the state-of-the-art widely used deep learning-based segmentation techniques such as Mask R-CNN (i.e., the performance improvement over Mask R-CNN was about 11 times, in terms of the accuracy/processing speed performance metrics).