• Title/Summary/Keyword: 비디오 데이터의 표현

Search Result 158, Processing Time 0.039 seconds

A Study on Data Model for Content-based Retrieval in VOD System (VOD 시스템에서 내용기반 검색을 위한 데이터모델에 관한 연구)

  • Jeon, Keun-Hwan;Shin, Seoung-Yoon;Kang, Oh-Hyeong;Rhee, Yang-Weon;Ryu, Keun-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.147-150
    • /
    • 2001
  • 비디오 데이터의 내용기반 검색을 위해서는 비디오가 가지는 많은 객체와 이들간의 관계성에 관한 정보를 표현할 수 있는 데이터모델이 요구된다. 이 논문에서는 이러한 비디오 데이터의 내용정보를 표현할 수 있는 메타데이터 모델을 제안한다. 제안 모델은 특정 응용분야에 국한하지 않도록 물리적 정보와 논리적 정보 모두를 포함하기 위하여 OMT기법을 이용하여 설계하였다. 이 논문에서는 제안한 모델을 이용하여 VOD 시스템에 적용할 수 있는 영화 비디오 표현을 제시하였다.

  • PDF

Video Segments Change Point Inference with Evolutionary Particle Filter (진화파티클필터를 이용한 비디오 세그먼트 전환점 추정)

  • Yu, Jun-Hui;Jang, Byeong-Tak
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.363-365
    • /
    • 2012
  • 데이터의 규모 및 활용도, 그리고 사용자 접근성 측면에서 실세계 데이터에서 가장 중요한 이슈가 되는 것은 비디오 데이터이다. 장르나 등장인물, 배경 등이 매우 상이한 대량의 비디오 데이터들이 등장하고 있기 때문에, 통일된 사전지식을 이용한 비디오 데이터 분석이 매우 비현실적이 되어가고 있으며 사전지식을 활용하지 않는 비디오 분석기법의 중요성이 커지고 있다. 본 논문에서는 진화 파티를 필터링과 우점 이미지를 이용하여 비디오 데이터를 분절(Segmentation)하는 기법을 소개한다. 이미지 분절화 과정에서 해결해야 할 난점은 시점 변화 및 움직임 등에 의해 발생하는 사소한 변화가 컴퓨터 관점에서는 무시하기 어려운 큰 변화로 해석될 수 있다는 점이다. 동일장면에서의 시점 변화와 같은 사소한 변화로 인하여 동일 세그먼트를 추정하지 못하는 어려움을 해결하기 위하여 우리는 이미지 일부를 표현하는 파티클의 개체군을 생성하여 협력적인 방식으로 개별 이미지 세그먼트를 표현하는 방법을 개발하였다. 또한 동일 인물의 움직임과 같은 변화에 대응할 수 있도록 진화 파티를 필터링 방법을 컬러 히스토그램 방법과 결합하여 추론 성능을 한층 개선하였다. 실제 TV 드라마에 대하여 수행된 인간 평가자의 분절 평가 결과와 비교하여 제안 방법의 성능을 확인하였다.

Efficient representation of video features for VCM (VCM 을 위한 비디오 특징의 효율적인 표현 기법)

  • Yoon, Yong-Uk;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.183-186
    • /
    • 2020
  • 방대한 비디오 데이터의 지능형 분석을 수행하는 기계를 위한 비디오 부호화 기술의 필요성이 대두되면서 MPEG 에서는 VCM(Video Coding for Machine) 표준화를 시작하였다. VCM 은 지능형 머신(machine)의 임무 수행을 위한 비디오 또는 비디오 특징(feature)의 압축 표준 기술로 기술 탐색 단계의 표준화를 진행하고 있다. 본 논문에서는 머신비전(machine vision) 네트워크에서 추출되는 대용량의 특징 압축을 위한 전처리 단계로 보다 효과적인 특징 표현 방법을 제시한다. 제안하는 특징 표현 방법은 정규화, 양자화 과정을 거쳐 특징 데이터 크기를 감소시킨다. 실험에서 특징을 4 개의 값으로 양자화 했을 때, 원본 대비 16 배의 데이터 크기가 감소되지만 mAP 평가 성능은 35.4592 로 높은 수준으로 유지함을 확인하였다.

  • PDF

Video Modeling Supporting Spatio-Temporal Relationship (시공간 관계를 지원하는 비디오 모델링)

  • 복경수;유재수
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10a
    • /
    • pp.256-258
    • /
    • 2001
  • 최근 컴퓨터 응용 기술의 발달로 비디오 데이터에 대한 처리의 필요성이 증가하고 있다. 비 정형화된 비디오에 대한 검색을 효율적으로 처리하기 위해서는 비디오의 논리적 구조와 의미적 내용을 표현할 수 있는 비디오 모델링 기법이 필요하다. 본 논문에서는 비디오의 논리적 구조는 물론 비디오 내에 포함된 의미적인 내용을 표현하기 위한 비디오 모델링 방법을 제안한다. 제안하는 모델링 기법은 의미적 내용을 효과적으로 표현하지 못하는 기존의 구조 모델링의 문제점을 해결하고 의미적인 내용들간의 시공간적 관계를 정의한다. 또한 시공간적 관계를 통한 의미적 내용에 대한 검색을 효과적으로 수행할 수 있도록 한다.

  • PDF

Layered Video Content Modeling and Browsing (계층화된 비디오 내용 모델링 및 브라우징)

  • Bok, Kyoung-Soo;Lee, Nak-Gyu;Heo, Jeong-Pil;Yoo, Jae-Soo;Cho, Ki-Hyung;Lee, Byoung-Yup
    • The KIPS Transactions:PartD
    • /
    • v.10D no.7
    • /
    • pp.1115-1126
    • /
    • 2003
  • In this paper, we propose modeling method for video data that represents structural and semantic contents of video data efficiently. Also, a browsing method that helps users easily understand and play the contents of video data is presented. The proposed modeling scheme consists of three layers such as raw data layer, content layer and key frame layer The content layer represents logical hierarchy and semantic contents of video data. We implement two kinds of browsers for playing video data and providing video contents. The playing browser plays video data and Presents the information of currently playing shot. The content browser allows users to browse raw data, structural information and semantic contents of video data.

Semantic Representation of Moving Objectin Video Data Using Motion Ontology (Motion Ontology를 이용한 비디오내 객체 움직임의 의미표현)

  • Shin, Ju-Hyun;Kim, Pan-Koo
    • Journal of Korea Multimedia Society
    • /
    • v.10 no.1
    • /
    • pp.117-127
    • /
    • 2007
  • As the value of the multimedia data is getting high, the study on the semantic recognition and retrieval about the multimedia information is strongly demanded. In this paper, we build the motion ontology and adopt it for representing the meaning of the moving objects in video data. By referencing the WordNet structure, we extend its semantic meaning based on the reclassification of motion verbs, which are used to represent the semantic meaning of moving objects. The represented information is receded in OWL/RDF(S). Here, we could expect the 'Is-A' and 'Equivalent' reasoning of the data as we use the ontologies. And the semantic representation about the moving objects is possible through the video annotation using ontology. And we tested the accuracy of the system comparing with the key-word based system. As a result, we could get the approximately 10% improvement of the system performance.

  • PDF

A Study on Flexible Attribude Tree and Patial Result Matrix for Content-baseed Retrieval and Browsing of Video Date. (비디오 데이터의 내용 기반 검색과 브라우징을 위한 유동 속성 트리 및 부분 결과 행렬의 이용 방법 연구)

  • 성인용;이원석
    • Journal of Korea Multimedia Society
    • /
    • v.3 no.1
    • /
    • pp.1-13
    • /
    • 2000
  • While various types of information can be mixed in a continuous video stream without any cleat boundary, the meaning of a video scene can be interpreted by multiple levels of abstraction, and its description can be varied among different users. Therefore, for the content-based retrieval in video data it is important for a user to be able to describe a scene flexibly while the description given by different users should be maintained consistently This paper proposes an effective way to represent the different types of video information in conventional database models such as the relational and object-oriented models. Flexibly defined attributes and their values are organized as tree-structured dictionaries while the description of video data is stored in a fixed database schema. We also introduce several browsing methods to assist a user. The dictionary browser simplifies the annotation process as well as the querying process of a user while the result browser can help a user analyze the results of a query in terms of various combinations of Query conditions.

  • PDF

Design and Implementation of the Video Data Model Based on Temporal Relationship (시간 관계성을 기반으로 한 비디오 데이터 모델의 설계 및 구현)

  • 최지희;용환승
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10b
    • /
    • pp.298-300
    • /
    • 1998
  • 비디오 데이터의 중요한 면 중에 하나는 시간 관계성을 지닌다는 것이다. 본 논문에서는 비디오 데이터가 계층적 구조로 표현 가능하며, 각각의 계층은 각기 시간의 흐름에 따라 시간적 관계를 지닌다는 특성을 반영하여, 이러한 관계를 기반으로 하여, 비디오 계층적 구조에 대한 시간 관계성(video structure temporal relationship), 비디오 객체들 간의 시간 관계성(inter video-data temporal relationship), 비디오 객체내의 시간 관계성(intra video-data temporal relationship)를 제시한다. 이러한 비디오 데이터의 시간적 관계를 계승, 캡슐화, 함수 중복 등의 객체지향 특성을 이용한다. ORDBMS에 통합함으로써 다양한 시간 산자(temporal operator)를 제공한다. 이로써 사용자에게 편리하고 단일한 인터페이스와, 좀더 다양한 시간 질의어(temporal query)를 제공할 수 있는 메카니즘을 제공한다.

Efficient Representation of Patch Packing Information for Immersive Video Coding (몰입형 비디오 부호화를 위한 패치 패킹 정보의 효율적인 표현)

  • Lim, Sung-Gyun;Yoon, Yong-Uk;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • fall
    • /
    • pp.126-128
    • /
    • 2021
  • MPEG(Moving Picture Experts Group) 비디오 그룹은 사용자에게 움직임 시차(motion parallax)를 제공하면서 3D 공간 내에서 임의의 위치와 방향의 시점(view)을 렌더링(rendering) 가능하게 하는 6DoF(Degree of Freedom)의 몰입형 비디오 부호화 표준인 MIV(MPEG Immersive Video) 표준화를 진행하고 있다. MIV 표준화 과정에서 참조 SW 인 TMIV(Test Model for Immersive Video)도 함께 개발하고 있으며 점진적으로 부호화 성능을 개선하고 있다. TMIV 는 여러 뷰로 구성된 방대한 크기의 6DoF 비디오를 압축하기 위하여 입력되는 뷰 비디오들 간의 중복성을 제거하고 남은 영역들은 각각 개별적인 패치(patch)로 만든 후 아틀라스에 패킹(packing)하여 부호화되는 화소수를 줄인다. 이때 아틀라스 비디오에 패킹된 패치들의 위치 정보를 메타데이터로 압축 비트열과 함께 전송하게 되며, 본 논문에서는 이러한 패킹 정보를 보다 효율적으로 표현하기 위한 방법을 제안한다. 제안방법은 기존 TMIV10.0 에 비해 약 10%의 메타데이터를 감소시키고 종단간 BD-rate 성능을 0.1% 향상시킨다.

  • PDF

H.264 Encoding Technique of Multi-view Video expressed by Layered Depth Image (계층적 깊이 영상으로 표현된 다시점 비디오에 대한 H.264 부호화 기술)

  • Shin, Jong-Hong;Jee, Inn-Ho
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.14 no.2
    • /
    • pp.43-51
    • /
    • 2014
  • Multi-view video including depth image is necessary to develop a new compression encoding technique for storage and transmission, because of a huge amount of data. Layered depth image is an efficient representation method of multi-view video data. This method makes a data structure that is synthesis of multi-view color and depth image. This efficient method to compress new contents is suggested to use layered depth image representation and to apply for video compression encoding by using 3D warping. This paper proposed enhanced compression method using layered depth image representation and H.264/AVC video coding technology. In experimental results, we confirmed high compression performance and good quality of reconstructed image.