• Title/Summary/Keyword: 동영상 분류

Search Result 243, Processing Time 0.043 seconds

Automatic Classification of Objectionable Videos Based on GoF Feature (GoF 특징을 이용한 유해 동영상 자동 분류)

  • Lee, Seung-Min;Lee, Ho-Gyun;Nam, Taek-Yong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.11a
    • /
    • pp.197-200
    • /
    • 2005
  • 본 논문은 유해한 동영상을 실시간으로 분석하고 차단하기 위하여, 동영상의 비주얼 특징으로서 그룹 프레임(Group of Frame) 특징을 추출하여 SVM 학습모델을 활용하는 유해 동영상 분류에 관한 것이다. 지금까지 동영상 분류에 관한 연구는 주로 입력 동영상을 뉴스, 스포츠, 영화, 뮤직 비디오, 상업 비디오 등 사전에 정의한 몇 개의 장르에 자동으로 할당하는 기술이었다. 그러나 이러한 분류 기술은 미리 정의한 장르에 따른 일반적인 분류 모델을 사용하기 때문에 분류의 정확도가 높지 않다. 따라서, 유해 동영상을 실시간으로 자동 분류하기 위해서는, 신속하고 효과적인 동영상 내용분석에 적합한 유해 동영상 특화의 특징 추출과 분류 모델 연구가 필요하다. 본 논문에서는 유해 동영상에 대하여 신속하고, 정확한 분류를 위하여 유해 동영상의 대표 특징으로서 그룹프레임 특징을 정의하고, 이를 추출하여 SVM 학습 모델을 생성하고 분류에 활용하는 매우 높은 성능의 분석 방법을 제시하였다. 이는 최근 인터넷 뿐만 아니라 다양한 매체를 통하여 급속도로 번지고 있는 유해 동영상 차단 분야에 적극 활용될 수 있을 것으로 기대된다.

  • PDF

Video Data Classification based on a Video Feature Profile (특성정보 프로파일에 기반한 동영상 데이터 분류)

  • Son Jeong-Sik;Chang Joong-Hyuk;Lee Won-Suk
    • The KIPS Transactions:PartD
    • /
    • v.12D no.1 s.97
    • /
    • pp.31-42
    • /
    • 2005
  • Generally, conventional video searching or classification methods are based on its meta-data. However, it is almost Impossible to represent the precise information of a video data by its meta-data. Therefore, a processing method of video data that is based on its meta-data has a limitation to be efficiently applied in application fields. In this paper, for efficient classification of video data, a classification method of video data that is based on its low-level data is proposed. The proposed method extracts the characteristics of video data from the given video data by clustering process, and makes the profile of the video data. Subsequently. the similarity between the profile and video data to be classified is computed by a comparing process of the profile and the video data. Based on the similarity. the video data is classified properly. Furthermore, in order to improve the performance of the comparing process, generating and comparing techniques of integrated profile are presented. A comparing technique based on a differentiated weight to improve a result of a comparing Process Is also Presented. Finally, the performance of the proposed method is verified through a series of experiments using various video data.

Harmful Pornographic Detection Algorithm Using High and Low Quality Image Division (고.저화질 영상 분류를 이용한 유해 영상 검출)

  • Chung, Myoung-Beom;Kim, Jae-Kyung;Jang, Dae-Sik;Ko, Il-Ju
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2009.01a
    • /
    • pp.223-226
    • /
    • 2009
  • 유해 영상 검출은 유해 동영상을 내용 기반으로 검색하고 차단하기 위한 방법의 하나로써, 유해 동영상 추적 시스템의 전체 성능을 좌우하는 중요한 기술이다. 기존의 유해 영상 검출은 웹 사이트 내에 음란 콘텐츠를 추출함으로 유해 사이트를 차단하는데 사용되었으며, 주로 RGB 비율, Histogram 등을 이용한 Skin color와 Edge를 추적한 Texture를 기반으로 유해 영상을 검출하였다. 그러나 기존 방식은 UCC 유해 동영상과 같이 저화질 영상에서의 유해 여부를 판단하기에는 정확성이 낮다. 따라서 본 논문에서는 영상 크기에 따른 고/저화질 분류를 이용하여 동영상에서 보다 효과적인 유해 영상 검출할 수 있는 방법을 제안한다. 제안 방법의 성능을 확인하기 위해 고/저화질 분류 사용의 유/무에 따른 검출 실험을 하였으며, 그 결과 분류를 방법이 기존 방법보다 12%의 성능이 향상됨을 알 수 있었다.

  • PDF

딥러닝 기반 동영상 객체 분할 기술 동향

  • Go, Yeong-Jun
    • Broadcasting and Media Magazine
    • /
    • v.25 no.2
    • /
    • pp.44-51
    • /
    • 2020
  • 동영상 프레임 내 객체 영역들을 배경으로부터 분할하는 기술인 동영상 객체 분할(video object segmentation)은 다양한 컴퓨터 비전 분야에 활용 가능한 연구 분야이다. 최근, 동영상 객체 분할과 관련된 연구 내용으로 CVPR, ICCV, ECCV의 컴퓨터 비전 최우수 학회에 매년 20편 가까이 발표될 정도로 많은 관심을 받고 있다. 동영상 객체 분할은 사용자가 제공하는 정보에 따라 비지도(unsupervised) 동영상 객체 분할, 준지도(semi-supervised) 동영상 객체 분할, 인터렉티브(interactive) 동영상 객체 분할의 세 카테고리로 분류할 수 있다. 본 고에서는 최근 연구가 활발하게 수행되고 있는 비지도 동영상 객체 분할과 준지도 동영상 객체 분할 연구의 최신 동향에 대해 소개하고자 한다.

Image Mood Classification Using Deep CNN and Its Application to Automatic Video Generation (심층 CNN을 활용한 영상 분위기 분류 및 이를 활용한 동영상 자동 생성)

  • Cho, Dong-Hee;Nam, Yong-Wook;Lee, Hyun-Chang;Kim, Yong-Hyuk
    • Journal of the Korea Convergence Society
    • /
    • v.10 no.9
    • /
    • pp.23-29
    • /
    • 2019
  • In this paper, the mood of images was classified into eight categories through a deep convolutional neural network and video was automatically generated using proper background music. Based on the collected image data, the classification model is learned using a multilayer perceptron (MLP). Using the MLP, a video is generated by using multi-class classification to predict image mood to be used for video generation, and by matching pre-classified music. As a result of 10-fold cross-validation and result of experiments on actual images, each 72.4% of accuracy and 64% of confusion matrix accuracy was achieved. In the case of misclassification, by classifying video into a similar mood, it was confirmed that the music from the video had no great mismatch with images.

Text-based Feature Extraction and Classification Method of Traffic Accidents (텍스트 기반 교통사고 특징 추출 및 분류 방법)

  • Wang, Jigang;Sung, Yunsick
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.436-437
    • /
    • 2022
  • 차량에 부착된 블랙박스의 교통사고 동영상은 사고 발생시 사고를 분석하기 위한 핵심 자료로 다양하게 활용되고 있다. 교통사고 동영상을 자동으로 분류할 수 있다면, 해당 동영상의 활용도를 더욱 높일 것으로 판단된다. 본 논문에서는 텍스트 기반 교통사고 특징 추출 및 분류 방법을 제안한다. 교통사고 동영상을 변환한 JSON 파일에서 불변 특징, 정적 특징 그리고 동적 특징을 추출하고 결합하여 합성 특징을 생성한다. 마지막으로 합성 특징을 사용하여 교통사고 동영상을 분류한다.

Video Classification System Based on Similarity Representation Among Sequential Data (순차 데이터간의 유사도 표현에 의한 동영상 분류)

  • Lee, Hosuk;Yang, Jihoon
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.7 no.1
    • /
    • pp.1-8
    • /
    • 2018
  • It is not easy to learn simple expressions of moving picture data since it contains noise and a lot of information in addition to time-based information. In this study, we propose a similarity representation method and a deep learning method between sequential data which can express such video data abstractly and simpler. This is to learn and obtain a function that allow them to have maximum information when interpreting the degree of similarity between image data vectors constituting a moving picture. Through the actual data, it is confirmed that the proposed method shows better classification performance than the existing moving image classification methods.

An Automatic Scene Background Classification Scheme for Sitcom Videos Using MPEG-7 Visual (시트콤 동영상에서 MPEG-7 시각 기술자를 이용한 Scene 배경의 자동 분류 방법)

  • 전재욱;손대온;낭종호
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.505-507
    • /
    • 2004
  • 시트콤 동염상은 고정된 배경을 갖는 중 아웃에 연이어 오는 줌 인으로 구성되어 있고, 또한 활영되는 배경의 수는 한정되어 있는 특성이 때문에, 이러한 배경의 시각적 특성을 사용하여 배경들을 학습시키고 자동으로 분리시킬 수 있다. 본 논문에서는 신경망의 일종인 LVQ[1]를 사용하여 이러한 증류의 비디오 동영상에 대한 자동 배경 분류 방법을 제안한다. 우선, MPEG-7 시각 기술자를 이용하여 신(scene) 배경의 시각적인 특성을 추출하고 이러한 시각적 특성을 미리 제작자에 의해서 주어진 배경 점보로서 LVQ를 학습시킨다. 학습이 진행되면서 특정 배경의 시각적 특성은 LVQ의 가중치로서 표현되며, 다른 배경을 자동으로 분류하는데 사용된다 제안된 LVQ기반의 분류 방법을 사용한 두 종류의 시트콤 동영상에 대한 실험 결과는 분류에 대한 어떠한 하드코딩 없이 80-90%의 정확도로 시트콤 동영상의 배경을 자동으로 분류한다.

  • PDF

Adaptive Quantization of Image Sequence using Block Activity Level and Edge Feature Classification (블록의 활성 레벨과 에지 특성의 분류를 이용한 동영상의 적응 양자화)

  • 안철준;공성곤
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 1997.11a
    • /
    • pp.191-194
    • /
    • 1997
  • 본 논문에서는 2D-DCT 변환된 동영상 프레임 사이의 오차 블록들의 활성 레벨(atcivity level)과 에지의 특성을 분류하여 동영상의 적응적인 양자화를 제안한다. 각 블록에서는 활성 레벨이 각기 다르고, 같은 활성 레벨이라 할지라도 에지의 특성도 각기 다르게 나타난다. 적응적인 양자화를 위해서, 2D-DCT 변환된 영상 오차의 각 블록의 활성레벨 뿐만 아니라 AC 계수들의 분포에 따른 에지 특성을 분류하면, 블록의 활성 레벨만을 일률적으로 적용한 Sorting 방법의 경우보다 향상된 영상을 복원할 수 있다. 블록의 활성 레벨은 AC energy에 의해서 측정하고, 에지 특성은 AC 계수들의 분포에 의해 결정하게 된다.

  • PDF

Detection of Frame Deletion Using Coding Pattern Analysis (부호화 패턴 분석을 이용한 동영상 삭제 검출 기법)

  • Hong, Jin Hyung;Yang, Yoonmo;Oh, Byung Tae
    • Journal of Broadcast Engineering
    • /
    • v.22 no.6
    • /
    • pp.734-743
    • /
    • 2017
  • In this paper, we introduce a technique to detect the video forgery using coding pattern analysis. In the proposed method, the recently developed standard HEVC codec, which is expected to be widely used in the future, is used. First, HEVC coding patterns of the forged and the original videos are analyzed to select the discriminative features, and the selected feature vectors are learned through the machine learning technique to model the classification criteria between two groups. Experimental results show that the proposed method is more effective to detect frame deletions for HEVC-coded videos than existing works.