• 제목/요약/키워드: Intelligent Video Surveillance Systems

검색결과 53건 처리시간 0.032초

지능형 감시 카메라 동향 및 시나리오 연구 (A Study of Scenario and Trends in Intelligent Surveillance Camera)

  • 장일식;차현희;박구만;이광직;김성권;차재상
    • 한국ITS학회 논문지
    • /
    • 제8권4호
    • /
    • pp.93-101
    • /
    • 2009
  • 산업 사회가 급속도로 발전함에 따라 전 세계적으로 전쟁, 테러, 강력 범죄가 증가하고 있다. 이러한 위험 요소들은 인명 피해 및 자원에 대한 파괴로 이어지는 주된 원인이 된다. 최근 강력 범죄의 잦은 발생으로 사회적 불안감이 조장되고 있으며 이러한 이유로 더 나은 안전, 보안 시스템 분야를 점검하는 계기가 되었다. 보안 시스템의 대표적인 장비라고 할 수 있는 CCTV카메라 시스템은 각 지역 자체적으로 공공장소 등과 같이 유동인구가 많은 지역에 확대 설치될 계획이다. 이것은 감시의 목적뿐만 아니라 보안 기술의 중요성에 대한 인식이 점차 높아짐에 따라 최소 인력으로 최대한의 감시 효과를 가질 수 있는 지능형 영상 보안 기술의 확대 보급을 요구하고 있다. 본 논문에서는 이러한 지능형 감시 카메라의 동향 및 시나리오에 대해서 살펴본다.

  • PDF

Crowd escape event detection based on Direction-Collectiveness Model

  • Wang, Mengdi;Chang, Faliang;Zhang, Youmei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권9호
    • /
    • pp.4355-4374
    • /
    • 2018
  • Crowd escape event detection has become one of the hottest problems in intelligent surveillance filed. When the 'escape event' occurs, pedestrians will escape in a disordered way with different velocities and directions. Based on these characteristics, this paper proposes a Direction-Collectiveness Model to detect escape event in crowd scenes. First, we extract a set of trajectories from video sequences by using generalized Kanade-Lucas-Tomasi key point tracker (gKLT). Second, a Direction-Collectiveness Model is built based on the randomness of velocity and orientation calculated from the trajectories to express the movement of the crowd. This model can describe the movement of the crowd adequately. To obtain a generalized crowd escape event detector, we adopt an adaptive threshold according to the Direction-Collectiveness index. Experiments conducted on two widely used datasets demonstrate that the proposed model can detect the escape events more effectively from dense crowd.

Design of a Recognizing System for Vehicle's License Plates with English Characters

  • Xing, Xiong;Choi, Byung-Jae;Chae, Seog;Lee, Mun-Hee
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제9권3호
    • /
    • pp.166-171
    • /
    • 2009
  • In recent years, video detection systems have been implemented in various infrastructures such as airport, public transportation, power generation system, water dam and so on. Recognizing moving objects in video sequence is an important problem in computer vision, with applications in several fields, such as video surveillance and target tracking. Segmentation and tracking of multiple vehicles in crowded situations is made difficult by inter-object occlusion. In the system described in this paper, the mean shift algorithm is firstly used to filter and segment a color vehicle image in order to get candidate regions. These candidate regions are then analyzed and classified in order to decide whether a candidate region contains a license plate or not. And then some characters in the license plate is recognized by using the fuzzy ARTMAP neural network, which is a relatively new architecture of the neural network family and has the capability to learn incrementally unlike the conventional BP network. We finally design a license plate recognition system using the mean shift algorithm and fuzzy ARTMAP neural network and show its performance via some computer simulations.

Efficient Swimmer Detection Algorithm using CNN-based SVM

  • Hong, Dasol;Kim, Yoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권12호
    • /
    • pp.79-85
    • /
    • 2017
  • In this paper, we propose a CNN-based swimmer detection algorithm. Every year, water safety accidents have been occurred frequently, and accordingly, intelligent video surveillance systems are being developed to prevent accidents. Intelligent video surveillance system is a real-time system that detects objects which users want to do. It classifies or detects objects in real-time using algorithms such as GMM (Gaussian Mixture Model), HOG (Histogram of Oriented Gradients), and SVM (Support Vector Machine). However, HOG has a problem that it cannot accurately detect the swimmer in a complex and dynamic environment such as a beach. In other words, there are many false positives that detect swimmers as waves and false negatives that detect waves as swimmers. To solve this problem, in this paper, we propose a swimmer detection algorithm using CNN (Convolutional Neural Network), specialized for small object sizes, in order to detect dynamic objects and swimmers more accurately and efficiently in complex environment. The proposed CNN sets the size of the input image and the size of the filter used in the convolution operation according to the size of objects. In addition, the aspect ratio of the input is adjusted according to the ratio of detected objects. As a result, experimental results show that the proposed CNN-based swimmer detection method performs better than conventional techniques.

지능형 영상 보안 시스템의 얼굴 인식 성능 향상을 위한 얼굴 영역 초해상도 하드웨어 설계 (Hardware Design of Super Resolution on Human Faces for Improving Face Recognition Performance of Intelligent Video Surveillance Systems)

  • 김초롱;정용진
    • 대한전자공학회논문지SD
    • /
    • 제48권9호
    • /
    • pp.22-30
    • /
    • 2011
  • 최근 카메라를 통해 입력된 영상정보로부터 실시간으로 상황을 인지하고 자율 대응할 수 있는 지능형 영상 보안 시스템의 수요가 증가함에 따라, 고성능의 얼굴 인식 시스템이 요구되고 있다. 기존의 얼굴 인식 시스템의 성능 향상을 위해서는 원거리에서 획득된 저해상도 얼굴 영상 처리를 위한 솔루션이 반드시 필요하다. 따라서 본 논문에서는 실시간 감시가 요구되는 지능형 영상 보안 시스템의 얼굴 인식 성능 향상을 위한 저해상도 얼굴 영상 복원 알고리즘을 하드웨어로 구현하였다. 저해상도 얼굴 영상 복원 방법으로는 학습 기반의 초해상도 알고리즘을 사용한다. 해당 알고리즘은 먼저 고해상도 영상으로 구성된 학습 집합에서 주성분 분석(PCA)을 활용하여 복원에 필요한 사전 정보들을 추출하고, 저해상도 영상과의 관계를 모델링하여 가장 적합한 고해상도 얼굴을 복원해내는 것이다. 저해상도 얼굴 영상 복원 알고리즘을 임베디드 프로세서(S3C2440A)를 사용하여 구현하였을 때, 약 25 초의 긴 연산 시간이 소요되었다. 이는 실시간으로 사람을 판별 및 인식하기 위한 지능형 영상 보안 시스템의 구축에는 어려움이 있다. 이를 해결하기 위하여 얼굴 영역 초해상도의 연산을 하드웨어로 구현하고 Xilinx Virtex-4를 이용하여 검증하였다. 약 9MB의 학습 데이터를 사용하였으며, 100 MHz에서 약 30 fps의 속도로 연산이 가능하다. 이러한 학습 기반의 얼굴 영역 초해상도 알고리즘을 단일 하드웨어 IP로 설계함으로써 임베디드 환경에서의 실시간 처리가 가능할 뿐 만 아니라 기존의 다양한 얼굴 검출 시스템과의 통합이 용이하여 얼굴 인식 솔루션을 제공할 수 있을 것으로 판단된다.

공간지능화를 위한 색상기반 파티클 필터를 이용한 다중물체추적 (Multiple Object Tracking with Color-Based Particle Filter for Intelligent Space)

  • 진태석;하시모토 히데키
    • 로봇학회논문지
    • /
    • 제2권1호
    • /
    • pp.21-28
    • /
    • 2007
  • The Intelligent Space(ISpace) provides challenging research fields for surveillance, human-computer interfacing, networked camera conferencing, industrial monitoring or service and training applications. ISpace is the space where many intelligent devices, such as computers and sensors, are distributed. According to the cooperation of many intelligent devices, the environment, it is very important that the system knows the location information to offer the useful services. In order to achieve these goals, we present a method for representing, tracking and human following by fusing distributed multiple vision systems in ISpace, with application to pedestrian tracking in a crowd. And the article presents the integration of color distributions into particle filtering. Particle filters provide a robust tracking framework under ambiguity conditions. We propose to track the moving objects by generating hypotheses not in the image plan but on the top-view reconstruction of the scene. Comparative results on real video sequences show the advantage of our method for multi-object tracking. Also, the method is applied to the intelligent environment and its performance is verified by the experiments.

  • PDF

신경망을 이용한 실외 군중 밀도 측정 (Measurement of the Crowd Density in Outdoor Using Neural Network)

  • 송재원;안태기;김문현;홍유식
    • 한국인터넷방송통신학회논문지
    • /
    • 제12권2호
    • /
    • pp.103-110
    • /
    • 2012
  • 수동적인 보안감시 시스템의 문제점이 계속적으로 제기되면서 실시간으로 공공장소에서의 군중에 대한 관리 및 감독을 지원하는 자동화되고 지능적인 군중 밀도 측정에 대한 필요성이 증대되고 있다. 이에 따라, 군중의 밀도를 측정하기 위한 많은 연구가 시도되었으나 실시간 혼잡도 정보 취득이 어렵고, 조명변화 등에 취약한 한계가 드러났다. 본 논문에서는 이러한 문제점을 해결하기 위해 군중 특징 정보로써 옵티컬 플로우를 검출하고 또한 Sobel 외곽선 추출 알고리즘에 의해 외곽선을 추출하여 각 특징을 입력으로 학습된 다층 신경망을 통해 실시간으로 실외 공공장소에서의 군중 밀도를 측정하였다.

비디오 영상분석, 인식 및 추적을 위한 지능형 비디오 감시시스템 (Intelligent Video Surveillance System for Video Analysis, Recognition and Tracking)

  • 김태경;백준기
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(B)
    • /
    • pp.498-500
    • /
    • 2012
  • 비디오 해석 및 추적기술은 특정한 시스템에서만 적용되는 것이 아니다. 이것은 비디오 내에서 의미 있는 정보를 능동적으로 감시 대상을 정의, 해석, 모델화, 추정 및 추적 할 수 있는 기반 기술을 의미하다. 일반적으로 감시시스템에서 감시 대상은 사람이나 차량이며, 상황에 따라 출입통제 구역으로 설정하기도 한다. 이는 연속된 영상에서 객체의 형태, 모양, 행동 분석, 움직임, 색상정보를 가지고 데이터 정의, 검출, 모델화를 통하여 인식, 식별 그리고 추적한다. 본 논문에서는 비디오 영상분석을 통해 단일카메라기반의 감시시스템과 PTZ 카메라기반 감시시스템 제안한다. 이때 단일 카메라기반의 감시는 배경생성방법을 이용하여 연속된 영상내의 객체를 지속적으로 관리가 가능하도록 설계하였고, PTZ 카메라기반의 감시는 카메라의 이동에 따른 배경안정화 방법과 카메라의 절대좌표를 활용하여 카메라 이동을 제어함과 동시에 오검출 문제를 해결하였다. 실험 및 결과분석으로는 시나리오 환경에서 배경생성방법을 이용한 검출의 정확성과 PTZ카메라 위치 변화에도 강인한 검출 결과를 비교 분석하였다.

무선조종과 모션 센서를 이용한 지능형 무선감시카메라 구현 (An Intelligent Wireless Camera Surveillance System with Motion sensor and Remote Control)

  • 이영웅;김종남
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2009년도 춘계 종합학술대회 논문집
    • /
    • pp.672-676
    • /
    • 2009
  • 최근 지능형 감시카메라에 대한 연구가 활발히 진행되고 있다. 그러나 현재의 연구들은 대부분 통합시스템 구현보다는 단일 모듈에 대한 성능향상에 중점을 두고 있다. 따라서 본 논문에서는 얼굴검출, 모션 센서 통합 모듈로 구성하는 무선 감시 시스템을 구현하였다. 무선 감시 시스템의 구현에는 sharp사의 카메라 모듈과 ecom사의 무선영상전송 모듈, roboblock의 ZigBee RF 무선컨트롤 송수신 모듈을 사용 하였고, 모션 센서 모듈에는 PANASONIC의 AMN14111를 사용하였다. OpenCV 라이브러리를 이용한 얼굴검출과 MFC로 소프트웨어를 구현하였다. 본 논문에서 구현한 시스템은 모션 센서를 이용하는 영상 감시 시스템이나 얼굴검출이 필요한 시스템, 원격조정이 필요한 작업환경에 유용하게 사용될 수 있다.

  • PDF

A Study of Video-Based Abnormal Behavior Recognition Model Using Deep Learning

  • Lee, Jiyoo;Shin, Seung-Jung
    • International journal of advanced smart convergence
    • /
    • 제9권4호
    • /
    • pp.115-119
    • /
    • 2020
  • Recently, CCTV installations are rapidly increasing in the public and private sectors to prevent various crimes. In accordance with the increasing number of CCTVs, video-based abnormal behavior detection in control systems is one of the key technologies for safety. This is because it is difficult for the surveillance personnel who control multiple CCTVs to manually monitor all abnormal behaviors in the video. In order to solve this problem, research to recognize abnormal behavior using deep learning is being actively conducted. In this paper, we propose a model for detecting abnormal behavior based on the deep learning model that is currently widely used. Based on the abnormal behavior video data provided by AI Hub, we performed a comparative experiment to detect anomalous behavior through violence learning and fainting in videos using 2D CNN-LSTM, 3D CNN, and I3D models. We hope that the experimental results of this abnormal behavior learning model will be helpful in developing intelligent CCTV.