• 제목/요약/키워드: video-detection

검색결과 1,343건 처리시간 0.03초

푸리에 변환과 Dense-SIFT를 이용한 비디오 기반 Face Spoofing 검출 (Video Based Face Spoofing Detection Using Fourier Transform and Dense-SIFT)

  • 한호택;박운상
    • 정보과학회 논문지
    • /
    • 제42권4호
    • /
    • pp.483-486
    • /
    • 2015
  • 얼굴 인식기반의 사용자 보안 시스템은 접근이 허가된 사용자의 사진이나 비디오를 이용한 공격에 취약하다는 단점을 가지고 있다. 본 연구에서는 인증되지 않은 사용자가 비디오를 이용하여 시스템에 접근할 경우 해당 공격 시도를 검출하기 위한 위변조(Spoof) 검출 방법을 제안한다. 제안하는 방법은 연속된 3개의 Frame에서 푸리에 변환과 Dense-SIFT 구분자를 사용하여 400개의 실제 및 위변조 비디오 영상을 대상으로 실험한 결과 99%의 검출 정확도를 보였다.

스포츠 장르 분석을 위한 스포츠 뉴스 비디오의 의미적 장면 분류 (Semantic Scenes Classification of Sports News Video for Sports Genre Analysis)

  • 송미영
    • 한국멀티미디어학회논문지
    • /
    • 제10권5호
    • /
    • pp.559-568
    • /
    • 2007
  • 앵커 장면 검출은 내용기반 뉴스 비디오 색인과 검색 시스템에서 비디오 장면의 의미적 파싱과 색인을 추출하는데 중요한 역할을 한다. 이 논문은 스포츠 뉴스의 단위 구조화를 위해서 뉴스 동영상에 존재하는 앵커 구간을 구분해내는 효율적인 알고리즘을 제안한다. 앵커 장면을 검출하기 위해서, 우선 MPEG4 압축 비디오에서 DCT 계수치와 모션 방향성 정보를 이용하여 앵커 후보 장면을 결정한다. 그리고 검출된 후보앵커 장면으로부터 영상처리 방법을 활용하여 뉴스 비디오를 앵커 장면과 비앵커(스포츠) 장면으로 분류한다. 제안된 방법은 앵커 장면 검출 실험에서 평균적으로 98%의 정확도와 재현율을 얻었다.

  • PDF

Background Subtraction in Dynamic Environment based on Modified Adaptive GMM with TTD for Moving Object Detection

  • Niranjil, Kumar A.;Sureshkumar, C.
    • Journal of Electrical Engineering and Technology
    • /
    • 제10권1호
    • /
    • pp.372-378
    • /
    • 2015
  • Background subtraction is the first processing stage in video surveillance. It is a general term for a process which aims to separate foreground objects from a background. The goal is to construct and maintain a statistical representation of the scene that the camera sees. The output of background subtraction will be an input to a higher-level process. Background subtraction under dynamic environment in the video sequences is one such complex task. It is an important research topic in image analysis and computer vision domains. This work deals background modeling based on modified adaptive Gaussian mixture model (GMM) with three temporal differencing (TTD) method in dynamic environment. The results of background subtraction on several sequences in various testing environments show that the proposed method is efficient and robust for the dynamic environment and achieves good accuracy.

The Design of Error Detection Auto Correction for Conversion of Graphics to DTV Signal

  • Ryoo-Dongwan;Lee, Jeonwoo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -1
    • /
    • pp.106-109
    • /
    • 2002
  • In the integrated systems, that is integrated digital TV(DTV) internet and home automation, like home server, is needed integration of digital TV video signal and computer graphic signal. The graphic signal is operating at the high speed and has time-divide-stream. So the re-request of data is not easy at the time of error detection. therefore EDAC algorithm is efficient. This paper presents the efficiency error detection auto correction(EDAC) for conversion of graphics signal to DTV video signal. A presented EDAC algorithms use the modified Hamming code for enhancing video quality and reliability. A EDAC algorithm of this paper can detect single error, double error, triple error and more error for preventing from incorrect correction. And it is not necessary an additional memory. In this paper The comparison between digital TV video signal and graphic signal, a EBAC algorithm and a design of conversion graphic signal to DTV signal with EDAC function is described.

  • PDF

뉴스 비디오에서의 효율적인 장면 전환과 앵커 화면 검출 (Efficient Detection of Scene Change and Anchorperson Frame in News Video)

  • 강현철;이진성;이완주
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권12호
    • /
    • pp.1157-1163
    • /
    • 2005
  • 본 논문에서는 방대한 양의 방송 데이타를 처리하기 위하여 MPEG(Motion Picture Expert Group) 스트림 비디오에서 빠르고 효과적으로 비디오를 분할하는 기법을 제안한다. 이를 위해, MPEG 압축 도메인에서 최소 디코딩을 수행하여 I-프레임의 DC 이미지를 추출함으로써 통해 실행 시간을 단축하고, 밝기 정보와 색상 정보를 함께 고려한 변형된 히스토그램 비교법을 도입하여 장면전환을 빠르고 정확하게 검출하였다. 그리고 추출된 장면전환에 대해 앵커 프레임과 비앵커 프레임을 구별하기 위해 신경망 기법을 도입하였다.

DeepAct: A Deep Neural Network Model for Activity Detection in Untrimmed Videos

  • Song, Yeongtaek;Kim, Incheol
    • Journal of Information Processing Systems
    • /
    • 제14권1호
    • /
    • pp.150-161
    • /
    • 2018
  • We propose a novel deep neural network model for detecting human activities in untrimmed videos. The process of human activity detection in a video involves two steps: a step to extract features that are effective in recognizing human activities in a long untrimmed video, followed by a step to detect human activities from those extracted features. To extract the rich features from video segments that could express unique patterns for each activity, we employ two different convolutional neural network models, C3D and I-ResNet. For detecting human activities from the sequence of extracted feature vectors, we use BLSTM, a bi-directional recurrent neural network model. By conducting experiments with ActivityNet 200, a large-scale benchmark dataset, we show the high performance of the proposed DeepAct model.

Multi-stage Transformer for Video Anomaly Detection

  • Viet-Tuan Le;Khuong G. T. Diep;Tae-Seok Kim;Yong-Guk Kim
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.648-651
    • /
    • 2023
  • Video anomaly detection aims to detect abnormal events. Motivated by the power of transformers recently shown in vision tasks, we propose a novel transformer-based network for video anomaly detection. To capture long-range information in video, we employ a multi-scale transformer as an encoder. A convolutional decoder is utilized to predict the future frame from the extracted multi-scale feature maps. The proposed method is evaluated on three benchmark datasets: USCD Ped2, CUHK Avenue, and ShanghaiTech. The results show that the proposed method achieves better performance compared to recent methods.

MSE를 이용한 동영상데이터의 컷 검출시스템에 관한 연구 (A Study on the Cut Detection System of Video Data using MSE)

  • 김단환;정기봉;오무송
    • 한국정보통신학회논문지
    • /
    • 제8권7호
    • /
    • pp.1399-1404
    • /
    • 2004
  • 컴퓨터의 발전과 정보통신기술의 발달은 멀티미디어 기술 확산과 대용량의 멀티미디어 동영상데이터 사용을 증가시켰다. 동영상데이터는 전체적인 데이터를 파악하고, 원하는 동영상을 바로 재생 가능할 뿐만 아니라 동영상 데이터의 정보가 된 리스트제공이 필요하다. 그리고 효과적인 동영상 검색을 위해서는 동영상 데이터의 색인과정이 필수적이며 꼭 필요한 기술이다. 따라서 본 연구는 동영상 데이터 내용기반 색인에 기초가 될 프레임의 컷 검출의 효과적인 방법을 제안한다. 제안된 방법은 동영상데이터 각각의 프레임을 대각선 방향으로 나누어 일정한 픽셀 색상 정보 값을 추출하여 각각 프레임에서 추출된 칼라색상의 픽셀값은 A(i, ij행렬로 j는 프레임 수, i는 프레임의 영상 높이로 저장한다. 저장되어진 픽셀값은 MSE(Mean Square Error)을 이용하여 프레임간의 특정 값의 차이를 임계 값보다 클 경우 빠르고 정확하게 컷을 검출하였다. 프레임 컷 검출에 대한 실험을 포괄적으로 하기 위해 여러 종류의 동영상 데이터를 실험 대상으로 하여 컷 검출 시스템의 성능을 비교 분석하였다.

뮤직비디오 브라우징을 위한 중요 구간 검출 알고리즘 (Salient Region Detection Algorithm for Music Video Browsing)

  • 김형국;신동
    • 한국음향학회지
    • /
    • 제28권2호
    • /
    • pp.112-118
    • /
    • 2009
  • 본 논문은 모바일 단말기, Digital Video Recorder (DVR) 등에 적용할 수 있는 뮤직비디오 브라우징 시스템을 위한 실시간 중요 구간 검출 알고리즘을 제안한다. 입력된 뮤직비디오는 음악 신호와 영상 신호로 분리되어 음악 신호에서는 에너지기반의 음악 특징값 최고점기반의 구조분석을 통해 음악의 후렴 구간을 포함하는 음악 하이라이트 구간을 검출하고, SVM AdaBoost 학습방식에서 생성된 모델을 이용해 음악신호를 분위기별로 자동 분류한다. 음악신호로부터 검출된 음악 하이라이트 구간과 영상신호로부터 검출된 가수, 주인공의 얼굴이 나오는 영상장면을 결합하여 최종적으로 중요구간이 결정된다. 제안된 방식을 통해 사용자는 모바일 단말기나 DVR에 저장되어 있는 다양한 뮤직비디오들을 분위기별로 선택한 후에 뮤직비디오의 30초 내외의 중요구간을 빠르게 브라우징하여 자신이 원하는 뮤직비디오를 선택할 수 있게 된다. 제안된 알고리즘의 성능을 측정하기 위해 200개의 뮤직비디오를 정해진 수동 뮤직비디오 구간과 비교하여 MOS 테스트를 실행한 결과 제안된 방식에서 검출된 중요 구간이 수동으로 정해진 구간보다 사용자 만족도 측면에서 우수한 결과를 나타내었다.

Tripwire 및 Tracking 기반의 영상검지시스템 개발 (Autoscope와의 성능비교를 중심으로) (Development of Video Image Detection System based on Tripwire and Vehicle Tracking Technologies focusing performance analysis with Autoscope)

  • 오주택;민준영;김승우;허병도;김명섭
    • 대한교통학회지
    • /
    • 제26권2호
    • /
    • pp.177-186
    • /
    • 2008
  • 영상검지기(Video Image Detection System)는 교통운영 및 안전 등 교통류 관리를 위한 다양한 측면에서 이용될 수 있다. 영상검지기법은 크게 Tripwire System과 Tracking System으로 구분할 수 있으며, 가장 대표적으로 이용되는 Autoscope는 Tripwire System에 해당한다. 본 연구에서는 Autoscope의 성능을 구현할 수 있는 Tripwire 기반의 영상검지 기술을 자체적으로 개발함과 동시에, 미시적 교통정보를 취득할 수 있는 개별차량 추적기술을 이용한 Tracking 기반의 영상검지시스템을 개발하였다. 개발된 두 시스템의 통합에 앞서서, 동일한 영상과 분석시간을 가지고 기초적인 교통정보수집 능력에 대한 성능비교 및 분석을 수행하고자 하였으며, 우수성 및 정확성을 판단하기 위한 지표로는 가장 보편적이고 일반적으로 사용되고 있는 Autoscope를 이용하였다. 개발된 두 시스템과 Autoscope를 이용하여 성능비교를 수행한 결과, 교통량의 경우, 실제 교통량 대비 0.35%의 오차를 보였으며 Autoscope와 비교하여 1.78%의 오차를 보였다. 속도에 대한 성능비교는 Autoscope와 비교하여 최대 1.77%의 오차를 보여 개발된 두 시스템의 성능이 우수한 것으로 확인되었다.