• 제목/요약/키워드: Similar Video Detection

검색결과 62건 처리시간 0.019초

요약 비디오 영상과 PCA를 이용한 유사비디오 검출 기법 (Similar Video Detection Method with Summarized Video Image and PCA)

  • 유재만;김우생
    • 한국멀티미디어학회논문지
    • /
    • 제8권8호
    • /
    • pp.1134-1141
    • /
    • 2005
  • 웹 상의 출판이 보편화 될수록 많은 데이터의 내용물들이 압축, 포맷, 편집 등 변형된 상태로 중복해서 존재하게 된다. 이러한 유사한 데이터들은 검색 시 속도나 검색률 등에 문제를 야기 시킬 수도 있으며, 반면에 특정 사이트에 문제가 발생할 경우 다른 사이트의 중복된 데이터를 제공해 줄 수도 있게 된다. 따라서 본 논문에서는 대규모 데이터베이스 상에 존재하는 비디오들 중에서 유사한 데이터들에 대한 정보를 사전에 감지할 수 있는 효율적인 방법을 제안한다. 본 연구에서는 비디오들을 직접 비교하는 대신 비디오를 대표하는 요약 비디오 영상을 만들고, 주성분 분석(PCA-principle component analysis) 기법을 적용하여 저차원 특징벡터 상에 군집화를 통해 유사 비디오들을 검출하였다. 실험을 통하여 제안하는 방법의 효율성과 정확성이 우수함을 보였다.

  • PDF

이중 영역 이진 패턴을 이용한 회전된 비디오 검출 (Rotated Video Detection using Multi Region Binary Patterns)

  • 김세민;이승호;노용만
    • 한국멀티미디어학회논문지
    • /
    • 제17권9호
    • /
    • pp.1070-1075
    • /
    • 2014
  • Due to a number of illegal copied videos, many video content markets have been threatened. Since this copied videos have intercepted the profits of the content holders, content developers lose the will to generate new contents. Therefore, video copy detection approaches have been developed to protect the copyrights of video contents. However, many illegal uploader who generate copied videos used video transformations to avoid video copy detection systems. Among of the video transformations, rotation and flipping did not distorted the quality of video contents. Thus, these two video transformations were adopt to generate copied video. In order to detect rotated or flipping copy videos, rotation and flipping robust region binary pattern (RFR) recently was proposed. But, this RFR has a weakness according to rotated angles. Therefore, in order to overcome this problem, multi region binary patterns are proposed in this paper. The proposed method has the similar performance with the original RFR. But, it showed much higher efficiency for memory spaces.

Social Pedestrian Group Detection Based on Spatiotemporal-oriented Energy for Crowd Video Understanding

  • Huang, Shaonian;Huang, Dongjun;Khuhroa, Mansoor Ahmed
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권8호
    • /
    • pp.3769-3789
    • /
    • 2018
  • Social pedestrian groups are the basic elements that constitute a crowd; therefore, detection of such groups is scientifically important for modeling social behavior, as well as practically useful for crowd video understanding. A social group refers to a cluster of members who tend to keep similar motion state for a sustained period of time. One of the main challenges of social group detection arises from the complex dynamic variations of crowd patterns. Therefore, most works model dynamic groups to analysis the crowd behavior, ignoring the existence of stationary groups in crowd scene. However, in this paper, we propose a novel unified framework for detecting social pedestrian groups in crowd videos, including dynamic and stationary pedestrian groups, based on spatiotemporal-oriented energy measurements. Dynamic pedestrian groups are hierarchically clustered based on energy flow similarities and trajectory motion correlations between the atomic groups extracted from principal spatiotemporal-oriented energies. Furthermore, the probability distribution of static spatiotemporal-oriented energies is modeled to detect stationary pedestrian groups. Extensive experiments on challenging datasets demonstrate that our method can achieve superior results for social pedestrian group detection and crowd video classification.

통계적 분석 기반 불법 복제 비디오 영상 감식 방법 (A Novel Video Copy Detection Method based on Statistical Analysis)

  • 조혜정;김지은;손채봉;정광수;오승준
    • 방송공학회논문지
    • /
    • 제14권6호
    • /
    • pp.661-675
    • /
    • 2009
  • 인터넷과 멀티미디어 기술이 발달함에 따라 무분별한 불법 콘텐츠들의 유통으로 인한 저작권 침해가 심각한 사회적 문제로 대두되고 있어, 불법 복제 영상을 검출하는 시스템의 개발이 시급하다. 본 논문에서는 공간영역 상에서 다양하게 변형된 복제 영상과 원본 영상간의 통계적 특성을 이용하여 그 유사도를 측정하고 복제 여부를 판단하는 계층적 구조의 불법 비디오 감식 방법을 제안한다. 영상의 대표적 특성인 휘도 성분에 따라 순위를 매김으로써 공간적 변형에 영향을 받지 않도록 하였으며, 데이터베이스에 저장된 방대한 양의 영상들에 대한 검색시간과 계산량을 줄이기 위해 순위 표본 프레임을 이용하여 유사한 후보 영상군을 추출한다. 이러한 후보 영상군을 대상으로 일반적인 불법 복제 비디오의 형태를 감안하여 각 프레임의 가장자리에 위치한 검은색 영역을 제외함과 동시에 영상의 중앙 영역을 포함하여 통계 검정을 이용함으로써 복제 여부를 판단한다. 실험 결과, 제안하는 방법은 이전 방법에 비해 순위 표본 프레임의 정확도가 유사하면서 선택된 순위 표본 프레임 수가 약 61% 가량 적게 추출하여 특징 정보에 저장되는 메모리 양을 절약할 수 있었다. 또한 영상의 화질 열화, 대비 변형, 확대 및 축소, 화면비 변환, 자막 삽입 등 다양한 공간적 변형에도 포괄적으로 복제 여부를 판단할 수 있음을 실험을 통해 확인하였다.

동영상을 위한 움직임 보상 기반 Non-Local Means 필터를 이용한 우적 검출 및 제거 알고리즘 (Rain Detection and Removal Algorithm using Motion-Compensated Non-local Means Filter for Video Sequences)

  • 서승지;송병철
    • 방송공학회논문지
    • /
    • 제20권1호
    • /
    • pp.153-163
    • /
    • 2015
  • 본 논문에서는 카메라 움직임에 강인한 동영상 내 비 검출 및 제거 기법을 제안한다. 검출 파트는 비의 밝기 특성과 공간적 특성을 활용하여 초기 비 영역을 검출한다. 그런 다음 가우시안 분포 모델을 적용하여 최종적인 비 영역을 결정한다. 제거 단계에서는 인접한 영상 간 상관성을 이용하여 비 영역을 중심으로 인접 프레임 간 블록 정합 기법을 수행한다. 그 후 정합 결과에 기반한 non-local mean (NLM) 필터링을 통해 비 영역을 보상한다. 마지막으로 깜박임 효과를 제거하고 가시성을 향상시키기 위해 후처리를 수행한다. 실험 결과를 통해 제안 기법의 화질이 기존 기법에 비해 동영상의 비 제거 성능에 있어 현저하게 우수함을 볼 수 있다.

개선된 비디오 장면 유사도 검출 알고리즘 (Improved Similarity Detection Algorithm of the Video Scene)

  • 유주원;김종원;최종욱;배경율
    • 한국콘텐츠학회논문지
    • /
    • 제9권2호
    • /
    • pp.43-50
    • /
    • 2009
  • 본 연구에서는 고유의 비디오 프레임의 특징 데이터를 추출하고 추출된 특징 데이터를 1차 신호로 생성하여 유사한 비디오 프레임 데이터를 검출하는 방법에 관하여 연구하였다. 비디오 간의 유사도 검출을 위하여 유사한 프레임간의 경계를 얻어낸 후 경계 범위 내에서 대표 프레임을 얻어낸다. 생성된 대표 프레임으로부터 blurring 된 프레임을 생성하고, DOG 값을 이용하여 특징 데이터를 추출한다. 이렇게 생성된 특징 데이터를 1차원 신호로 나열하고 콘텐츠 간 유사도를 비교한다. 실험 결과 잡음 첨가, 회전 변환, 크기 변환, 프레임 절삭, 프레임 제거 공격에 대해서도 유사도 수치 0.9 이상의 매우 강인한 특성을 나타냈다.

멀티미디어 검색을 위한 shot 경계 및 대표 프레임 추출 (Shot boundary Frame Detection and Key Frame Detection for Multimedia Retrieval)

  • 강대성;김영호
    • 융합신호처리학회논문지
    • /
    • 제2권1호
    • /
    • pp.38-43
    • /
    • 2001
  • 본 논문에서는 MPEG 비디오 스트림을 분석하여 DCT DC 계수를 추출하고 이들로 구성된 DC 이미지로부터 제안하는 robust feature를 이용하여 shot 검출을 수행한 후 각 feature들의 통계적 특성을 이용하여 스트림의 특징에 따라 weight를 부가하여 구해진 characterizing value의 시간 변화량을 구한다. 추해진 변화량의 local maxima와 local minima는 비디오 스트림에서 각각 가장 특징적인 frame과 평균적인 frame을 나타낸다. 이 순간의 shot을 구함으로서 효과적이고 빠른 시간 내에 key frame을 추출한다. 추출되어진 key frame에 대하여 원영상을 복원한 후, 색인을 위하여 다수의 parameter를 구하고, 사용자가 질의한 영상에 대해서 이들 파라메터를 구하여 key frame들과 가장 유사한 대표영상들을 검색한다. 실험결과 일반적인 방법보다 더 나은 결과를 보였고, 높은 검색율을 보였다.

  • PDF

시각적 특징을 기반한 샷 클러스터링을 통한 비디오 씬 탐지 기법 (Video Scene Detection using Shot Clustering based on Visual Features)

  • 신동욱;김태환;최중민
    • 지능정보연구
    • /
    • 제18권2호
    • /
    • pp.47-60
    • /
    • 2012
  • 비디오 데이터는 구조화되지 않은 복합 데이터의 형태를 지닌다. 이러한 비디오 데이터의 효율적인 관리 및 검색을 위한 비디오 데이터 구조화의 중요성이 대두되면서 콘텐츠 내 시각적 특징을 기반으로 비디오 씬(scene)을 탐지하고자 하는 연구가 활발히 진행되었다. 기존의 연구들은 주로 색상 정보만을 이용하여 샷(shot) 간의 유사도 평가를 기반한 클러스터링(clustering)을 통해 비디오 씬을 탐지하고자 하였다. 하지만 비디오 데이터의 색상 정보는 노이즈(noise)를 포함하고, 특정 사물의 개입 등으로 인해 급격하게 변화하기 때문에 색상만을 특징으로 고려할 경우, 비디오 샷 혹은 씬에 대한 올바른 식별과 디졸브(dissolve), 페이드(fade), 와이프(wipe)와 같은 화면의 점진적인 전환(gradual transitions) 탐지는 어렵다. 이러한 문제점을 해결하기 위해, 본 논문에서는 프레임(frame)의 컬러 히스토그램과 코너 에지, 그리고 객체 컬러 히스토그램에 해당하는 시각적 특징을 기반으로 동일한 이벤트를 구성하는 의미적으로 유사한 샷의 클러스터링을 통해 비디오 씬을 탐지하는 방법(Scene Detector by using Color histogram, corner Edge and Object color histogram, SDCEO)을 제안한다. SDCEO는 샷 바운더리 식별을 위해 컬러 히스토그램 분석 단계에서 각 프레임의 컬러 히스토그램 정보를 이용하여 1차적으로 연관성 있는 연속된 프레임을 샷 바운더리로 병합한 후, 코너 에지 분석 단계에서 병합된 샷 내 처음과 마지막 프레임의 코너 에지 특징 비교를 통하여 샷 바운더리를 정제하여 최종 샷을 식별한다. 키프레임 추출 단계에서는 샷 내 프레임간 유사도 비교를 통해 모든 프레임과 가장 유사한 프레임을 각 샷을 대표하는 키프레임으로 추출한다. 그 후, 비디오 씬 탐지를 위해, 컬러 히스토그램과 객체 컬러 히스토 그램에 해당하는 프레임의 시각적 특징을 기반으로 상향식 계층 클러스터링 방법을 이용하여 의미적인 연관성을 지니는 샷의 군집화를 통해 비디오 씬을 탐지하는 방법이다. 본 논문에서는 SDCEO의 프로토 타입을 구축하고 3개의 비디오 데이터를 이용한 실험을 통하여 SDCEO의 효율성을 평가하였고 샷 바운더리 식별의 성능의 정확도는 평균 93.3%, 비디오 씬 탐지 성능의 정확도는 평균 83.3%로 만족할만한 성능을 보였다.

TsCNNs-Based Inappropriate Image and Video Detection System for a Social Network

  • Kim, Youngsoo;Kim, Taehong;Yoo, Seong-eun
    • Journal of Information Processing Systems
    • /
    • 제18권5호
    • /
    • pp.677-687
    • /
    • 2022
  • We propose a detection algorithm based on tree-structured convolutional neural networks (TsCNNs) that finds pornography, propaganda, or other inappropriate content on a social media network. The algorithm sequentially applies the typical convolutional neural network (CNN) algorithm in a tree-like structure to minimize classification errors in similar classes, and thus improves accuracy. We implemented the detection system and conducted experiments on a data set comprised of 6 ordinary classes and 11 inappropriate classes collected from the Korean military social network. Each model of the proposed algorithm was trained, and the performance was then evaluated according to the images and videos identified. Experimental results with 20,005 new images showed that the overall accuracy in image identification achieved a high-performance level of 99.51%, and the effectiveness of the algorithm reduced identification errors by the typical CNN algorithm by 64.87 %. By reducing false alarms in video identification from the domain, the TsCNNs achieved optimal performance of 98.11% when using 10 minutes frame-sampling intervals. This indicates that classification through proper sampling contributes to the reduction of computational burden and false alarms.

동영상에서 움직임을 이용한 빠른 허프 원 찾기 (Fast Hough circle detection using motion in video frames)

  • 원혜민;이경미
    • 인터넷정보학회논문지
    • /
    • 제11권6호
    • /
    • pp.31-39
    • /
    • 2010
  • 영상에서 원을 찾을 때 정확도가 높은 일반화 허프 변환 (Generalized Hough Transform: GHT) 알고리즘이 가장 많이 사용된다. 그러나 GHT는 영상의 모든 가능한 픽셀에 대해 가능한 모든 원의 크기를 확인해야하기 때문에 많은 계산 시간을 요구한다는 단점을 가지고 있다. 또한 동영상에서 원을 찾는다면, 매 프레임마다 이러한 GHT를 실행해야하므로 계산 속도는 더욱 느리게 된다. 본 논문에서는 동영상의 연속된 프레임 사이에서 변화되는 부분이 적고 대부분 이전 영상과 유사하다는 점을 이용하여, GHT의 정확도를 유지하면서 계산 속도를 줄이는 알고리즘을 제안한다. 제안하는 알고리즘은 동영상의 현재 프레임과 이전 프레임을 비교하여 움직임이 크면 본래의 GHT를 수행하는 변화 기반 방법과 움직임이 작으면 이전 프레임에서 검출한 원의 정보로 GHT의 후보영역과 후보 원들만을 이용하여 GHT를 수행하는 경로 기반 방법을 사용하였다. 이는 동영상에서의 GHT 수행에 영향을 미치는 프레임 수, 에지 수, 원의 개수를 줄임으로써 속도를 향상시킬 수 있다. 실험결과는 제안하는 알고리즘이 고정된 카메라나 이동 카메라에 대해 정확도의 손실이 없으면서, 수행 시간을 줄이고 있음을 보여준다.