• 제목/요약/키워드: Representation of video Data

검색결과 64건 처리시간 0.024초

더블린 코아 모델을 이용한 비디오 데이터의 표현 (Representation of Video Data using Dublin core Model)

  • 이순희;김상호;신정훈;김길준;류근호
    • 정보처리학회논문지D
    • /
    • 제9D권4호
    • /
    • pp.531-542
    • /
    • 2002
  • 지금까지 대부분의 메타데이터들은 응용 분야에 제한된 부분만을 주로 취급하였다. 그러나 동일한 비디오 데이터를 표현하기 위해서는 동일한 형태의 메타데이터가 필요하고, 이때 비디오 데이터베이스에서 동일한 비디오 데이터에 대하여 서로 다른 여러 개의 메타데이터를 지원해야 하는 문제가 발생한다. 이 논문에서는 이러한 문제를 해결하기 위하여 더블린 코어 모델을 확장하였다. 제안된 비디오데이터 표현에서는 더블린 코아 모델을 확장한 메타데이터가 비디오 데이터의 구조, 내용 및 조작에 관한 정보를 관리하도록 하였다. 제안된 메타 데이터는 시스템 관리 부분과 사용자 정의 부분을 분리함으로써 응용 분야에 독립적인 모델구축이 가능하다. 13개의 시간 관계 연산은 더미 샷의 시간 변환 관계를 사용하여 6개로 감소시켰다. 이 감소된 6개의 연산은 역관계를 배제시켜 표현의 일관성을 유지시키고, n-ary시간 관계의 샷들을 이진관계로 변환시킨다. 그리고 실제 응용 분야에 적용하고 실험하여 확장된 더블린 코어 모델이 응용 분야에 동일한 구조로 메타데이터를 표현하고 동일한 방법으로 검색할 수 있음을 증명하였다.

의미 기반 주석을 이용한 비디오 검색 시스템의 설계 및 구현 (Design And Implementation of Video Retrieval System for Using Semantic-based Annotation)

  • 홍수열
    • 한국컴퓨터정보학회논문지
    • /
    • 제5권3호
    • /
    • pp.99-105
    • /
    • 2000
  • 비디오는 broadcasting, 교육, 출판과 군사 등 다양한 응용들과 함께 멀티미디어 컴퓨팅과 통신 환경의 중요한 요소가 되었다. 멀티미디어 데이터 검색을 위한 효과적인 방법의 필요성은 대용량의 멀티미디어 응용들에서 날로 증가하고 있다. 따라서, 비디오 데이터의 검색과 표현은 비디오 데이터베이스에서 주요 연구 이슈 중에 하나가 되었다. 비디오 데이터의 표현 방법으로 주로 2가지 접근 방법이 있다: (1) 내용 기반 비디오 검색 과 (2) 주석 기반 비디오 검색. 이 논문은 의미 기반 주석을 이용한 비디오 검색 시스템을 설계하고 구현한다.

  • PDF

자유시점 TV를 위한 다시점 비디오의 계층적 깊이 영상 표현과 H.264 부호화 (Layered Depth Image Representation And H.264 Encoding of Multi-view video For Free viewpoint TV)

  • 신종홍
    • 디지털산업정보학회논문지
    • /
    • 제7권2호
    • /
    • pp.91-100
    • /
    • 2011
  • Free viewpoint TV can provide multi-angle view point images for viewer needs. In the real world, But all angle view point images can not be captured by camera. Only a few any angle view point images are captured by each camera. Group of the captured images is called multi-view image. Therefore free viewpoint TV wants to production of virtual sub angle view point images form captured any angle view point images. Interpolation methods are known of this problem general solution. To product interpolated view point image of correct angle need to depth image of multi-view image. Unfortunately, multi-view video including depth image is necessary to develop a new compression encoding technique for storage and transmission because of a huge amount of data. Layered depth image is an efficient representation method of multi-view video data. This method makes a data structure that is synthesis of multi-view color and depth image. This paper proposed enhanced compression method using layered depth image representation and H.264/AVC video coding technology. In experimental results, confirmed high compression performance and good quality reconstructed image.

계층적 깊이 영상으로 표현된 다시점 비디오에 대한 H.264 부호화 기술 (H.264 Encoding Technique of Multi-view Video expressed by Layered Depth Image)

  • 신종홍;지인호
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권2호
    • /
    • pp.43-51
    • /
    • 2014
  • 깊이 영상을 고려한 다시점 비디오는 매우 많은 양의 데이터 때문에 저장과 전송을 위해서 새로운 부호화 압축 기술 개발이 요구된다. 계층적 깊이 영상은 다시점 비디오의 효과적인 표현방법이 된다. 이 방법은 다시점 칼라와 깊이 영상을 합성하는 데이터 구조를 만들어 준다. 이 새로운 콘텐츠를 효과적으로 압축하는 방법으로 3차원 워핑을 이용한 계층적 깊이 영상 표현과 비디오 압축 부호화를 적용하는 방법을 제안하였다. 이 논문은 계층적 영상 표현을 사용한 H.264/AVC 비디오 부호화 기술의 개선된 압축 방법을 제시하여 준다. 컴퓨터 모의시험으로 좋은 압축율과 좋은 성능의 회복 영상을 얻을 수 있음을 제시하였다.

순차 데이터간의 유사도 표현에 의한 동영상 분류 (Video Classification System Based on Similarity Representation Among Sequential Data)

  • 이호석;양지훈
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제7권1호
    • /
    • pp.1-8
    • /
    • 2018
  • 동영상 데이터는 시간에 따른 정보는 물론이고, 많은 정보량과 함께 잡음도 포함하고 있기 때문에 이에 대한 간단한 표현을 학습하는 것은 쉽지 않다. 본 연구에서는 이와 같은 동영상 데이터를 추상적이면서 보다 간단하게 표현할 수 있는 순차 데이터간의 유사도 표현 방법과 딥러닝 학습방법을 제안한다. 이는 동영상을 구성하는 이미지 데이터 벡터들 사이의 유사도를 내적으로 표현할 때 그것들이 서로 최대한의 정보를 가질 수 있도록 하는 함수를 구하고 학습하는 것이다. 실제 데이터를 통하여 제안된 방법이 기존의 동영상 분류 방법들보다도 뛰어난 분류 성능을 보임을 확인하였다.

Representing Navigation Information on Real-time Video in Visual Car Navigation System

  • Joo, In-Hak;Lee, Seung-Yong;Cho, Seong-Ik
    • 대한원격탐사학회지
    • /
    • 제23권5호
    • /
    • pp.365-373
    • /
    • 2007
  • Car navigation system is a key application in geographic information system and telematics. A recent trend of car navigation system is using real video captured by camera equipped on the vehicle, because video has more representation power about real world than conventional map. In this paper, we suggest a visual car navigation system that visually represents route guidance. It can improve drivers' understanding about real world by capturing real-time video and displaying navigation information overlaid directly on the video. The system integrates real-time data acquisition, conventional route finding and guidance, computer vision, and augmented reality display. We also designed visual navigation controller, which controls other modules and dynamically determines visual representation methods of navigation information according to current location and driving circumstances. We briefly show implementation of the system.

Video augmentation technique for human action recognition using genetic algorithm

  • Nida, Nudrat;Yousaf, Muhammad Haroon;Irtaza, Aun;Velastin, Sergio A.
    • ETRI Journal
    • /
    • 제44권2호
    • /
    • pp.327-338
    • /
    • 2022
  • Classification models for human action recognition require robust features and large training sets for good generalization. However, data augmentation methods are employed for imbalanced training sets to achieve higher accuracy. These samples generated using data augmentation only reflect existing samples within the training set, their feature representations are less diverse and hence, contribute to less precise classification. This paper presents new data augmentation and action representation approaches to grow training sets. The proposed approach is based on two fundamental concepts: virtual video generation for augmentation and representation of the action videos through robust features. Virtual videos are generated from the motion history templates of action videos, which are convolved using a convolutional neural network, to generate deep features. Furthermore, by observing an objective function of the genetic algorithm, the spatiotemporal features of different samples are combined, to generate the representations of the virtual videos and then classified through an extreme learning machine classifier on MuHAVi-Uncut, iXMAS, and IAVID-1 datasets.

Motion Ontology를 이용한 비디오내 객체 움직임의 의미표현 (Semantic Representation of Moving Objectin Video Data Using Motion Ontology)

  • 신주현;김판구
    • 한국멀티미디어학회논문지
    • /
    • 제10권1호
    • /
    • pp.117-127
    • /
    • 2007
  • 멀티미디어 데이터의 활용가치가 높아짐에 따라 멀티미디어 정보의 의미적인 인식과 검색 방법에 대한 필요성이 증대되고 있다. 본 논문에서는 비디오 내 이벤트에 대한 객체 움직임 요소간의 의미표현을 위해 모션 온톨로지(Motion Ontology)를 구축하고 적용한다. 본 연구에서 제안한 방법은 워드넷(WordNet)내 동사어휘들 중 장소 이동이나 방향등과 같이 움직임을 잘 표현하는 동사들에 대해 분류하여 계층구조로 표현하고, 또한 이를 OWL/RDF(S)로 작성한다. 이는 온톨로지(Ontology)의 IS-A관계와 동의어관계가 가진 특징을 이용한 추론을 위함이며, 온톨로지(Ontology)에 기반하여 비디오 데이터를 인덱싱함으로써, 의미적 표현을 가능하게 한다. 본 연구에서 비디오 데이터에 대하여 의미적 검색을 수행한 결과, 기존 키워드 기반 검색에 비해 정확률 측면에서 약 10% 정도 향상되었다.

  • PDF

A Generation Method of Spatially Encoded Video Data for Geographic Information Systems

  • Joo, In-Hak;Hwang, Tae-Hyun;Choi, Kyoung-Ho;Jang, Byung-Tae
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2003년도 Proceedings of ACRS 2003 ISRS
    • /
    • pp.801-803
    • /
    • 2003
  • In this paper, we present a method for generating and providing spatially encoded video data that can be effectively used by GIS applications. We collect the video data by a mobile mapping system called 4S-Van that is equipped by GPS, INS, CCD camera, and DVR system. The information about spatial object appearing in video, such as occupied region in each frame, attribute value, and geo-coordinate, are generated and encoded. We suggest methods that can generate such data for each frame in semi-automatic manner. We adopt standard MPEG-7 metadata format for representation of the spatially encoded video data to be generally used by GIS application. The spatial and attribute information encoded to each video frame can make visual browsing between map and video possible. The generated video data can be provided and applied to various GIS applications where location and visual data are both important.

  • PDF

비디오 내 이동 객체의 색인 정보를 이용한 궤적 유사도 측정 기법 (Similarity Measurement Method of Trajectory using Indexing Information of Moving Object in Video)

  • 김정인;최창;김판구
    • 스마트미디어저널
    • /
    • 제1권3호
    • /
    • pp.43-47
    • /
    • 2012
  • 멀티미디어 데이터의 사용이 증대됨에 따라, 이를 관리하고 검색하기 위한 다양한 연구 및 시스템이 개발되고 있다. 하지만 일반적인 검색 방법이 비디오 데이터 내 관련 태그정보나 제목을 통해 검색이 되기 때문에 많은 어려움이 있다. 따라서 본 논문에서는 비디오 검색을 위해 비디오 내 이동 객체의 정보를 이용한 궤적 정보를 통해 유사도 측정 기법에 대해 기술한다. 전체적인 과정은 CCTV 비디오 데이터를 그레이 스케일화 하여, 이동 객체를 추출한 후 라벨링 과정을 통해 궤적을 추출한다. 이를 통해 유사도 즉정을 위한 TSR(Tansent Space Representation)과 DTW(Dynamic Time Warping) 알고리즘을 사용하여 두 알고리즘을 비교 분석한다.

  • PDF