• Title/Summary/Keyword: 비디오표현

Search Result 367, Processing Time 0.037 seconds

Metadata Transcoding between MPEG-7 and TV Anytime for Segmentation Information of Video (비디오 내용기술을 위한 MPEG-7과 TV Anytime 메타데이타의 상호 변환)

  • 임화영;이창윤;김혁만
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10c
    • /
    • pp.31-33
    • /
    • 2002
  • 본 논문에서는 MPEG-7 스키마에 따라 비디오의 내용을 기술한 메타데이타를 TVA 스키마에 따른 메타데이타로 변환, 그리고 그 역방향으로의 변환 방법을 제안한다. 이를 위해 MPEG-7과 TVA스키마를 분석하여 그들의 유사점과 차이점을 밝히다. 또한 중첩 표현법과 참조 표현법으로의 상호 변환시 야기되는 id 처리문제, 대표화면 정보의 처리, 위치 정보의 처리 등에 관한 방법 을 기술한다.

  • PDF

Dynamic Summarization and Summary Description Scheme for Efficient Video Browsing (효율적인 비디오 브라우징을 위한 동적 요약 및 요약 기술구조)

  • 김재곤;장현성;김문철;김진웅;김형명
    • Journal of Broadcast Engineering
    • /
    • v.5 no.1
    • /
    • pp.82-93
    • /
    • 2000
  • Recently, the capability of efficient access to the desired video content is of growing importance because more digital video data are available at an increasing rate. A video summary abstracting the gist from the entirety enables the efficient browsing as well as the fast skimming of the video contents. In this paper, we discuss a novel dynamic summarization method based on the detection of highlights which represent semantically significant content and the description scheme (DS) proposed to MPEG-7 aiming to provide summary description. The summary DS proposed to MPEG-7 allows for efficient navigation and browsing to the contents of interest through the functionalities of multi-level highlights, hierarchical browsing and user-customized summarization. In this paper, we also show the validation and the usefulness of the methodology for dynamic summarization and the summary DS in real applications with soccer video sequences.

  • PDF

A Study on Correlation between Line-Region Topology and Motion Verbs (움직임 동사와 선-영역 위상간 관련성에 관한 연구)

  • Cho, Mi-Young;Song, Dan;Choi, Jun-Ho;Kim, Won-Pil;Kim, Pan-Koo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2004.05a
    • /
    • pp.177-180
    • /
    • 2004
  • 비디오 데이터베이스에서 움직임 정보를 가지고 있는 이동객체에 대한 모델링은 크게 두 가지 측면 즉, 공간적 혹은 시간적 관계성에 의해 다루어진다. 공간적 관계에서 위상 관계는 근접 그래프에 의한 모델링이 대부분이며, 이를 이용한 내용 기반 비디오 검색에서 자연어 형태의 질의어는 정형화된 위상 관계 표현으로 변환하는 과정을 거친다. 그러나 이 과정에서 위상 관계 표현이 인간이 사용하는 언어의 의미를 정확히 반영하는지는 알 수 없다. 이에 본 논문에서는 위상 관계 표현과 인간이 사용하는 움직임 동사간 의미의 차이를 줄이기 위해 위상 관계 표현과 실제 움직임 동사간의 매칭에 대해 연구했다.

  • PDF

Learning Recurrent Neural Networks for Activity Detection from Untrimmed Videos (비분할 비디오로부터 행동 탐지를 위한 순환 신경망 학습)

  • Song, YeongTaek;Suh, Junbae;Kim, Incheol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.892-895
    • /
    • 2017
  • 본 논문에서는 비분할 비디오로부터 이 비디오에 담긴 사람의 행동을 효과적으로 탐지해내기 위한 심층 신경망 모델을 제안한다. 일반적으로 비디오에서 사람의 행동을 탐지해내는 작업은 크게 비디오에서 행동 탐지에 효과적인 특징들을 추출해내는 과정과 이 특징들을 토대로 비디오에 담긴 행동을 탐지해내는 과정을 포함한다. 본 논문에서는 특징 추출 과정과 행동 탐지 과정에 이용할 심층 신경망 모델을 제시한다. 특히 비디오로부터 각 행동별 시간적, 공간적 패턴을 잘 표현할 수 있는 특징들을 추출해내기 위해서는 C3D 및 I-ResNet 합성곱 신경망 모델을 이용하고, 시계열 특징 벡터들로부터 행동을 자동 판별해내기 위해서는 양방향 BI-LSTM 순환 신경망 모델을 이용한다. 대용량의 공개 벤치 마크 데이터 집합인 ActivityNet 비디오 데이터를 이용한 실험을 통해, 본 논문에서 제안하는 심층 신경망 모델의 성능과 효과를 확인할 수 있었다.

A Semantic Annotation Method for Efficient Representation of Moving Objects (이동 객체의 효과적 표현을 위한 시맨틱 어노테이션 방법)

  • Lee, Jin-Hwal;Hong, Myung-Duk;Lee, Kee-Sung;Jung, Jin-Guk;Jo, Geun-Sik
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.7
    • /
    • pp.67-76
    • /
    • 2011
  • Recently, researches for semantic annotation methods which represent and search objects included in video data, have been briskly activated since video starts to be popularized as types for interactive contents. Different location data occurs at each frame because coordinates of moving objects are changed with the course of time. Saving the location data for objects of every frame is too ineffective. Thus, it is needed to compress and represent effectively. This paper suggests two methods; the first, ontology modeling for moving objects to make users intuitively understandable for the information, the second, to reduce the amount of data for annotating moving objects by using cubic spline interpolation. To verify efficiency of the suggested method, we implemented the interactive video system and then compared with each video dataset based on sampling intervals. The result follows : when we got samples of coordinate less than every 15 frame, it showed that could save up to 80% amount of data storage; moreover, maximum of error deviation was under 31 pixels and the average was less than 4 pixels.

Video Story Segmentation using Nearest Neighbor Clustering Method (Nearest Neighbor 클러스터링 방법을 이용한 비디오 스토리 분할)

  • 이해만;최영우;정규식
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.101-104
    • /
    • 2000
  • 비디오 데이터의 효율적인 검색, 요약 등에 활용하기 위해서 대용량의 비디오 데이터를 프레임(Frame), 샷(Shot),스토리(Story)의 계층적인 구조로 표현하는 방법들이 요구되고 있으며, 이에 따라 비디오를 샷, 스토리 단위로 분할하는 연구들이 수행되고 있다. 본 논문은 비디오가 샷 단위로 분할되어 있다고 가정한 후, 인접한 샷들을 결합하여 의미 있는 최소 단위인 스토리를 분할하는 방법을 제안한다. 제안하는 방법은 각 샷에서 추출된 대표 프레임들을 비교하기 위한 CCV(Color Coherence Vector) 영상 특징을 추출한다. CCV 특징의 시각적인 유사도의 초기임계값과 일정한 시간 안에 반복되는 프레임들을 찾기 위한 시간적인 유사도의 시간 임계값을 설정하여NN(Nearest Neighbor) 클러스터링 방법을 이용하여 클러스터링을 한다. 클러스터링된 정보와 같은 장면이 한번이상 반복되는 스토리의 특성을 이용해 비디오를 스토리로 분할한다. 영화 비디오 데이터를 이용한 실험을 통해 제안하는 방법의 유효성을 검증하였다.

  • PDF

Design and Implementation of the Video Data Model Based on Temporal Relationship (시간 관계성을 기반으로 한 비디오 데이터 모델의 설계 및 구현)

  • 최지희;용환승
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10b
    • /
    • pp.298-300
    • /
    • 1998
  • 비디오 데이터의 중요한 면 중에 하나는 시간 관계성을 지닌다는 것이다. 본 논문에서는 비디오 데이터가 계층적 구조로 표현 가능하며, 각각의 계층은 각기 시간의 흐름에 따라 시간적 관계를 지닌다는 특성을 반영하여, 이러한 관계를 기반으로 하여, 비디오 계층적 구조에 대한 시간 관계성(video structure temporal relationship), 비디오 객체들 간의 시간 관계성(inter video-data temporal relationship), 비디오 객체내의 시간 관계성(intra video-data temporal relationship)를 제시한다. 이러한 비디오 데이터의 시간적 관계를 계승, 캡슐화, 함수 중복 등의 객체지향 특성을 이용한다. ORDBMS에 통합함으로써 다양한 시간 산자(temporal operator)를 제공한다. 이로써 사용자에게 편리하고 단일한 인터페이스와, 좀더 다양한 시간 질의어(temporal query)를 제공할 수 있는 메카니즘을 제공한다.

Dynamic Video Abstraction for Interactive Broadcasting Applications (대화형 방송 환경을 위한 동적 비디오 요약)

  • 김재곤;장현성;김진웅
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 1999.06b
    • /
    • pp.103-108
    • /
    • 1999
  • 방송 환경의 디지털화와 더불어 단순히 단방향 방송 정보만을 시청하던 기존의 방식을 넘어 사용자의 다양한 욕구를 수용할 수 있는 대화형 방송 서비스(interactive broadcasting service)가 시작되고 있다. 대화형 방송 환경에서는 특히 사용자 측에 제공된 방대한 양의 디지털 멀티미디어 자료에 대한 효과적인 접근이 요구되는데, 본 논문에서는 이를 위하여 방송 비디오를 효과적으로 브라우징(browsing) 및 검색하고 전체의 내용을 짧은 시간 내에 개관할 수 있도록 하는 동적 비디오 요약(dynamic video abstraction) 기법에 관하여 고찰한다. 동적 비디오 요약에 의한 요약 비디오(skim video)는 전체 비디오를 내용에 기반하여 효과적으로 표현할 수 있도록 동영상 내의 주요 구간만으로 구성된 것으로, 대화형 방송에서 새로운 형태의 프로그램 안내 및 사용자 저장 자료에 대한 브라우징 도구 등으로써 매우 유용하게 사용할 수 있다. 본 논문에서는 자동으로 비디오 요약을 구현하기 위한 접근 방법과 전체 기능 구성 및 각 기능들의 구현 방법에 대하여 기술한다.

  • PDF

Modified Ray-space Interpolation for Free Viewpoint Video System (Free Viewpoint 비디오 시스템을 위한 Ray-space 보간 기법 보완 연구)

  • Seo, Kang-Uk;Kim, Dong-Wook;Kim, Hwa-Sung;Yoo, Ji-Sang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2006.11a
    • /
    • pp.41-43
    • /
    • 2006
  • FTV (Free Viewpoint TV, 자유시점 TV)는 사용자들이 원하는 시점을 자유자재로 결정할 수 있는 차세대 TV이다. 또한 영상 획득 시 카메라가 위치하지 않은 새로운 시점을 만들 수 있다. 따라서 FTV는 개인, 산업, 사회, 의학. 사회 분야의 유망한 응용이 될 수 있다. Ray-space에 의한 데이터 표현은 FTV를 위한 데이터 포맷의 한 후보가 될 수 있으며, 실시간으로 임의시점의 영상을 구성하는 데에 있어서 우수한 장점을 가지고 있다. Ray-space에서 사용하는 기법은 컴퓨터 그래픽스가 아니라 순수한 신호 처리 방식이다. 스케일러블 구조, 계층적 구조가 Ray-space로 표현 가능하므로, Ray-space는 비디오 처리의 새로운 플랫폼을 구성할 수 있고 비디오의 개념을 확장할 수 있다. 본 논문에서는 Ray-space 데이터를 이용하여 임의 시점 영상을 생성하기 위해 기존의 보간(interpolation) 기법을 보완한 새로운 기법을 제안함으로써, 보다 자연스러운 영상을 얻고자 하는데 목적이 있다.

  • PDF

Modelling Grammatical Pattern Acquisition using Video Scripts (비디오 스크립트를 이용한 문법적 패턴 습득 모델링)

  • Seok, Ho-Sik;Zhang, Byoung-Tak
    • Annual Conference on Human and Language Technology
    • /
    • 2010.10a
    • /
    • pp.127-129
    • /
    • 2010
  • 본 논문에서는 다양한 코퍼스를 통해 언어를 학습하는 과정을 모델링하여 무감독학습(Unsupervised learning)으로 문법적 패턴을 습득하는 방법론을 소개한다. 제안 방법에서는 적은 수의 특성 조합으로 잠재적 패턴의 부분만을 표현한 후 표현된 규칙을 조합하여 유의미한 문법적 패턴을 탐색한다. 본 논문에서 제안한 방법은 베이지만 추론(Bayesian Inference)과 MCMC (Markov Chain Mote Carlo) 샘플링에 기반하여 특성 조합을 유의미한 문법적 패턴으로 정제하는 방법으로, 랜덤하이퍼그래프(Random Hypergraph) 모델을 이용하여 많은 수의 하이퍼에지를 생성한 후 생성된 하이퍼에지의 가중치를 조정하여 유의미한 문법적 패턴을 탈색하는 방법론이다. 우리는 본 논문에서 유아용 비디오의 스크립트를 이용하여 다양한 유아용 비디오 스크립트에서 문법적 패턴을 습득하는 방법론을 소개한다.

  • PDF