• 제목/요약/키워드: Video Data Classification

검색결과 136건 처리시간 0.02초

특성정보 프로파일에 기반한 동영상 데이터 분류 (Video Data Classification based on a Video Feature Profile)

  • 손정식;장중혁;이원석
    • 정보처리학회논문지D
    • /
    • 제12D권1호
    • /
    • pp.31-42
    • /
    • 2005
  • ]일반적으로 기존의 동영상 처리 방법들은 처리 대상 동영상 데이터의 메타 데이터 정보에 기반한다. 하지만, 동영상 데이터의 메타 데이터 정보는 해당 동영상의 상세한 의미적인 정보까지 표현하는데는 한계를 갖는다. 따라서, 메타 데이터 정보에 기반한 동영상 처리 기술은 다양한 동영상 정보를 보다 효율적으로 처리하는데 한계를 갖는다. 본 논문에서는 다양한 동영상 정보들을 효율적으로 분류하기 위한 방법으로 영상 정보에 기반한 직접 분류 방법을 제안한다. 본 논문에서 제안하는 영상 분류 방법에서는 관리자가 기준으로 제시한 동영상에 대한 마이닝을 수행하여 해당 동영상의 특성정보를 추출하여 동영상 분류의 기준이 되는 동영상 특성정보 프로파일을 생성한다. 이어서, 분류 대상 동영상들에 대해서 각 동영상을 기준 동영상의 특성정보 프로파일과 비교하여 유사성을 분석하고, 이론 기준으로 각 동영상을 분류한다. 또한, 분류 과정에서의 수행 속도를 향상 시키기 위한 방법으로 통합 프로과일 생성 및 비교 기법을 제시하며, 동영상 분류 과정에서의 정확도를 높이기 위한 가중치 기반 비교 방법을 제시한다. 끝으로 다양한 동영상 데이터를 활용한 유사도 비교 실험을 통해 제안된 방법의 효율성을 검증한다.

공간과 시간적 특징 융합 기반 유해 비디오 분류에 관한 연구 (Using the fusion of spatial and temporal features for malicious video classification)

  • 전재현;김세민;한승완;노용만
    • 정보처리학회논문지B
    • /
    • 제18B권6호
    • /
    • pp.365-374
    • /
    • 2011
  • 최근 인터넷, IPTV/SMART TV, 소셜 네트워크 (social network)와 같은 정보 유통 채널의 다양화로 유해 비디오 분류 및 차단 기술 연구에 대한 요구가 높아가고 있으나, 현재까지는 비디오에 대한 유해성을 판단하는 연구는 부족한 실정이다. 기존 유해 이미지 분류 연구에서는 이미지에서의 피부 영역의 비율이나 Bag of Visual Words (BoVW)와 같은 공간적 특징들 (spatial features)을 이용하고 있다. 그러나, 비디오에서는 공간적 특징 이외에도 모션 반복성 특징이나 시간적 상관성 (temporal correlation)과 같은 시간적 특징들 (temporal features)을 추가적으로 이용하여 유해성을 판단할 수 있다. 기존의 유해 비디오 분류 연구에서는 공간적 특징과 시간적 특징들에서 하나의 특징만을 사용하거나 두 개의 특징들을 단순히 결정 단계에서 데이터 융합하여 사용하고 있다. 일반적으로 결정 단계 데이터 융합 방법은 특징 단계 데이터 융합 방법보다 높은 성능을 가지지 못한다. 본 논문에서는 기존의 유해 비디오 분류 연구에서 사용되고 있는 공간적 특징과 시간적 특징들을 특징 단계 융합 방법을 이용하여 융합하여 유해 비디오를 분류하는 방법을 제안한다. 실험에서는 사용되는 특징이 늘어남에 따른 분류 성능 변화와 데이터 융합 방법의 변화에 따른 분류 성능 변화를 보였다. 공간적 특징만을 이용하였을 때에는 92.25%의 유해 비디오 분류 성능을 보이는데 반해, 모션 반복성 특징을 이용하고 특징 단계 데이터 융합 방법을 이용하게 되면 96%의 향상된 분류 성능을 보였다.

순차 데이터간의 유사도 표현에 의한 동영상 분류 (Video Classification System Based on Similarity Representation Among Sequential Data)

  • 이호석;양지훈
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제7권1호
    • /
    • pp.1-8
    • /
    • 2018
  • 동영상 데이터는 시간에 따른 정보는 물론이고, 많은 정보량과 함께 잡음도 포함하고 있기 때문에 이에 대한 간단한 표현을 학습하는 것은 쉽지 않다. 본 연구에서는 이와 같은 동영상 데이터를 추상적이면서 보다 간단하게 표현할 수 있는 순차 데이터간의 유사도 표현 방법과 딥러닝 학습방법을 제안한다. 이는 동영상을 구성하는 이미지 데이터 벡터들 사이의 유사도를 내적으로 표현할 때 그것들이 서로 최대한의 정보를 가질 수 있도록 하는 함수를 구하고 학습하는 것이다. 실제 데이터를 통하여 제안된 방법이 기존의 동영상 분류 방법들보다도 뛰어난 분류 성능을 보임을 확인하였다.

오디오 신호에 기반한 음란 동영상 판별 (Classification of Phornographic Videos Based on the Audio Information)

  • 김봉완;최대림;이용주
    • 대한음성학회지:말소리
    • /
    • 제63호
    • /
    • pp.139-151
    • /
    • 2007
  • As the Internet becomes prevalent in our lives, harmful contents, such as phornographic videos, have been increasing on the Internet, which has become a very serious problem. To prevent such an event, there are many filtering systems mainly based on the keyword-or image-based methods. The main purpose of this paper is to devise a system that classifies pornographic videos based on the audio information. We use the mel-cepstrum modulation energy (MCME) which is a modulation energy calculated on the time trajectory of the mel-frequency cepstral coefficients (MFCC) as well as the MFCC as the feature vector. For the classifier, we use the well-known Gaussian mixture model (GMM). The experimental results showed that the proposed system effectively classified 98.3% of pornographic data and 99.8% of non-pornographic data. We expect the proposed method can be applied to the more accurate classification system which uses both video and audio information.

  • PDF

MPEG 부호화 영역에서 Video Genre 자동 분류 방법 (Automatic Video Genre Classification Method in MPEG compressed domain)

  • 김태희;이웅희;정동석
    • 한국통신학회논문지
    • /
    • 제27권8A호
    • /
    • pp.836-845
    • /
    • 2002
  • Video Summary는 길이가 긴 Video를 고속으로 효율적으로 열람할 수 있도록 하는 도구의 하나이다. Video Summary는 대표 프레임(Key-frame)들의 집합으로 볼 수 있는데 대표 프레임은 Video의 Genre에 따라서 달리 정의 및 생성될 수 있다. 즉 모든 Genre의 Video에 대해서 획일적인 방법으로 Summary를 만드는 것은 적절하지 못한 결과를 초래할 수 있다. Video의 Genre를 구별해내는 기술은 위와 같이 효율적인 Video Summary 생성에 유용한 처리 과정이라 할 수 있다. 본 논문에서는 이와 같이 효율적 Video 관리를 위해 MPEG 부호화 영역에서 MPEG Video의 Genre를 분류하는 방법을 제안한다. 제안된 방법은 프레임을 복호하지 않고 비트스트림을 직접 처리하여 기존 방법들에 비해 계산이 비교적 단순하고 처리시간을 단축시키는 장점을 가지고 있다. 또한 제안된 방법은 대부분의 작업을 시각 정보만을 이용하여 수행하며 이 정보들의 시, 공간적 해석을 통해 Genre를 확인하게 된다. 실험은 만화(Cartoon), 광고(Commercial), Music Video, 뉴스, Sports, Talk Show의 6개 Genre Video에 대하여 실행하였다. 실험 결과, 구조가 명확한 Talk Show와 Sports의 경우 90% 이상의 결과를 얻었다.

분산 기반의 Gradient Based Fuzzy c-means 에 의한 MPEG VBR 비디오 데이터의 모델링과 분류 (Modeling and Classification of MPEG VBR Video Data using Gradient-based Fuzzy c_means with Divergence Measure)

  • 박동철;김봉주
    • 한국통신학회논문지
    • /
    • 제29권7C호
    • /
    • pp.931-936
    • /
    • 2004
  • GPDF(Gaussian Probability Density Function)을 효율적으로 군집화할 수 있는 GBFCM(DM)(Gradient Based Fuzzy c_means with Divergence Measure) 알고리즘이 본 논문에서 제안되었다. 제안된 GBFCM(DM)은 데이터 사이의 거리 척도로 발산거리(Divergence measure)를 적용한 새로운 형태의 FCM으로, 기존의 GBFCM에 기반을 두는 알고리즘이다. 본 논문에서는 MPEG VBR 비디오 데이터를 GPDF형태의 다차원 데이터로 변형시켜 모델링 하고, 모델링 한 MPEG VBR 비디오 데이터를 영화 또는 스포츠 형태로 분류하는데 응용되었다. 본 논문의 실험에서 기존의 FCM, GBFCM과 새롭게 제안된 GBFCM(DM)을 사용하여 모델링 및 분류결과를 상호 비교하였다. 비교결과 GBFCM(DM)이 오분류율의 기준에서 기존의 다른 알고리즘들에 비해 약 5∼l5%의 향상된 성능을 보였다.

Video augmentation technique for human action recognition using genetic algorithm

  • Nida, Nudrat;Yousaf, Muhammad Haroon;Irtaza, Aun;Velastin, Sergio A.
    • ETRI Journal
    • /
    • 제44권2호
    • /
    • pp.327-338
    • /
    • 2022
  • Classification models for human action recognition require robust features and large training sets for good generalization. However, data augmentation methods are employed for imbalanced training sets to achieve higher accuracy. These samples generated using data augmentation only reflect existing samples within the training set, their feature representations are less diverse and hence, contribute to less precise classification. This paper presents new data augmentation and action representation approaches to grow training sets. The proposed approach is based on two fundamental concepts: virtual video generation for augmentation and representation of the action videos through robust features. Virtual videos are generated from the motion history templates of action videos, which are convolved using a convolutional neural network, to generate deep features. Furthermore, by observing an objective function of the genetic algorithm, the spatiotemporal features of different samples are combined, to generate the representations of the virtual videos and then classified through an extreme learning machine classifier on MuHAVi-Uncut, iXMAS, and IAVID-1 datasets.

안전지도와 연계한 지능형 영상보안 시스템 구현 (Implementation of Smart Video Surveillance System Based on Safety Map)

  • 박장식
    • 한국전자통신학회논문지
    • /
    • 제13권1호
    • /
    • pp.169-174
    • /
    • 2018
  • 시민들의 안전을 위한 영상통합관제센터에는 수많은 CCTV 카메라가 연결되어 많은 채널의 영상을 소수의 관제사가 관제하는데 어려움이 있다. 본 논문에서는 많은 채널의 영상을 효과적으로 관제하기 위하여 안전지도와 연계한 지능형 영상보안 시스템을 제안한다. 안전지도는 범죄 발생 빈도를 데이터베이스로 구축하고, 범죄 발생 위험 정도를 표현하고, 범죄 취약 계층인 여성이 범죄 위험 지역으로 진입하면 영상통합관제센터의 관제사가 주목할 수 있도록 한다. 성별 구분을 보행자 검출 및 추적 그리고 딥러닝을 통하여 성별을 구분한다. 보행자 검출은 Adaboost 알고리즘을 이용하고, 보행자 추적을 위한 확률적 데이터 연관 필터(probablistic data association filter)를 적용한다. 보행자의 성별을 구분하기 위하여 비교적 간단한 AlexNet를 적용하여 성별을 판별한다. 실험을 통하여 제안하는 성별 구분 방법이 종래의 알고리즘에 비하여 성별 구분에 효과적임을 보인다. 또한 안전지도와 연계한 지능형 영상보안 시스템 구현 결과를 소개한다.

심층 CNN을 활용한 영상 분위기 분류 및 이를 활용한 동영상 자동 생성 (Image Mood Classification Using Deep CNN and Its Application to Automatic Video Generation)

  • 조동희;남용욱;이현창;김용혁
    • 한국융합학회논문지
    • /
    • 제10권9호
    • /
    • pp.23-29
    • /
    • 2019
  • 본 연구에서는 영상의 분위기를 심층 합성곱 신경망을 통해 8 가지로 분류하고, 이에 맞는 배경 음악을 적용하여 동영상을 자동적으로 생성하였다. 수집된 이미지 데이터를 바탕으로 다층퍼셉트론을 사용하여 분류 모델을 학습한다. 이를 활용하여 다중 클래스 분류를 통해 동영상 생성에 사용할 이미지의 분위기를 예측하며, 미리 분류된 음악을 매칭시켜 동영상을 생성한다. 10겹 교차 검증의 결과, 72.4%의 정확도를 얻을 수 있었고, 실제 영상에 대한 실험에서 64%의 오차 행렬 정확도를 얻을 수 있었다. 오답의 경우, 주변의 비슷한 분위기로 분류하여 동영상에서 나오는 음악과 크게 위화감이 없음을 확인하였다.

컨볼루션 신경망을 이용한 CCTV 영상 기반의 성별구분 (CCTV Based Gender Classification Using a Convolutional Neural Networks)

  • 강현곤;박장식;송종관;윤병우
    • 한국멀티미디어학회논문지
    • /
    • 제19권12호
    • /
    • pp.1943-1950
    • /
    • 2016
  • Recently, gender classification has attracted a great deal of attention in the field of video surveillance system. It can be useful in many applications such as detecting crimes for women and business intelligence. In this paper, we proposed a method which can detect pedestrians from CCTV video and classify the gender of the detected objects. So far, many algorithms have been proposed to classify people according the their gender. This paper presents a gender classification using convolutional neural network. The detection phase is performed by AdaBoost algorithm based on Haar-like features and LBP features. Classifier and detector is trained with data-sets generated form CCTV images. The experimental results of the proposed method is male matching rate of 89.9% and the results shows 90.7% of female videos. As results of simulations, it is shown that the proposed gender classification is better than conventional classification algorithm.