• 제목/요약/키워드: 비디오 데이터의 표현

검색결과 158건 처리시간 0.047초

이동 객체의 효과적 표현을 위한 시맨틱 어노테이션 방법 (A Semantic Annotation Method for Efficient Representation of Moving Objects)

  • 이진활;홍명덕;이기성;정진국;조근식
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권7호
    • /
    • pp.67-76
    • /
    • 2011
  • 최근 비디오가 대화형 콘텐츠를 위한 타입으로 많은 각광을 받기 시작하면서 비디오 데이터에 포함된 객체들을 의미적으로 표현하고 검색하기 위한 시맨틱 어노테이션 방법에 대한 연구가 활발히 진행되고 있다. 비디오 데이터에 포함된 객체들은 시간의 변화에 따라 공간적 위치가 변화하기 때문에 매 프레임마다 상이한 위치 데이터가 발생한다. 따라서 모든 프레임의 객체에 대한 위치 데이터들을 저장하는 것은 매우 비효율적이므로 이를 부적절한 오차가 발생하지 않는 범위 내에서, 효과적으로 압축하여 표현할 필요가 있다. 본 논문은 컴퓨터 또는 에이전트가 직관적으로 객체에 대한 정보를 이해할 수 있도록 표현하기 위해 비디오 데이터가 포함하는 객체에 대하여 의미적 정보를 부여하기 위한 온톨로지 모델링 방법과 이동 객체의 위치 데이터를 압축하기 위해 3차 스플라인 보간법을 적용하여 의미적 정보와 함께 어노테이션 하는 방법을 제안한다. 제안한 어노테이션 방법의 효율을 검증하기 위한 대화형 비디오 시스템을 구현하고, 다양한 특징을 가지는 객체가 나타나는 비디오 데이터 셋을 이용하여 샘플링 간격에 따른 오차율과 데이터량을 비교하였다. 그 결과, 샘플링 간격이 15프레임 이하 일 때, 최대 80%의 데이터 저장 공간을 절약할 수 있을 뿐만 아니라 객체의 실제 좌표 대비 최대 31픽셀, 평균 4픽셀 미만의 오차 편차를 얻을 수 있었다.

Nearest Neighbor 클러스터링 방법을 이용한 비디오 스토리 분할 (Video Story Segmentation using Nearest Neighbor Clustering Method)

  • 이해만;최영우;정규식
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.101-104
    • /
    • 2000
  • 비디오 데이터의 효율적인 검색, 요약 등에 활용하기 위해서 대용량의 비디오 데이터를 프레임(Frame), 샷(Shot),스토리(Story)의 계층적인 구조로 표현하는 방법들이 요구되고 있으며, 이에 따라 비디오를 샷, 스토리 단위로 분할하는 연구들이 수행되고 있다. 본 논문은 비디오가 샷 단위로 분할되어 있다고 가정한 후, 인접한 샷들을 결합하여 의미 있는 최소 단위인 스토리를 분할하는 방법을 제안한다. 제안하는 방법은 각 샷에서 추출된 대표 프레임들을 비교하기 위한 CCV(Color Coherence Vector) 영상 특징을 추출한다. CCV 특징의 시각적인 유사도의 초기임계값과 일정한 시간 안에 반복되는 프레임들을 찾기 위한 시간적인 유사도의 시간 임계값을 설정하여NN(Nearest Neighbor) 클러스터링 방법을 이용하여 클러스터링을 한다. 클러스터링된 정보와 같은 장면이 한번이상 반복되는 스토리의 특성을 이용해 비디오를 스토리로 분할한다. 영화 비디오 데이터를 이용한 실험을 통해 제안하는 방법의 유효성을 검증하였다.

  • PDF

비디오 데이터 세트의 하이퍼 사각형 표현에 기초한 비디오 유사성 검색 알고리즘 (Similarity Search Algorithm Based on Hyper-Rectangular Representation of Video Data Sets)

  • 이석룡
    • 정보처리학회논문지D
    • /
    • 제11D권4호
    • /
    • pp.823-834
    • /
    • 2004
  • 이 연구에서는 대용량 비디오 데이터 스트림에 대한 유사성 검색 알고리즘을 제시한다. 수많은 프레임으로 이루어진 비디오 스트림은 각 프레임을 다차원 벡터(multidimensional vector)로 나타냄으로써 다차원 데이터 공간 상에서 시퀸스로 나타낼 수 있다. 이 시퀸스의 특성을 분석 함으로써 각 시퀸스를 비디오 세그먼트(video segment)와 이 세그먼트의 집합인 비디오 클러스터(video cluster)로 표현한다. 본 연구에서는 이러한 비디오 세그먼트와 클러스터를 사용하여 두 비디오 스트림 사이의 유사성 함수(similarity function)를 제시하고, 이 함수에 근거하여 비디오 세그먼트의 하이퍼 사각형과 대표 프레임에 기초한 두 가지의 유사성 검색 알고리즘을 제안한다. 전자는 정해성(correctness)을 보장하는 알고리즘이며, 후자는 정해성을 약간 희생하는 대신 상당한 효율성을 얻을 수 있는 알고리즘이다. 다양한 유형의 비디오 스트림 및 가상으로 생성된 스트림 데이터에 대한 실험을 통하여 제시한 알고리즘의 성능을 분석한다.

비디오 캡션 생성을 위한 의미 특징 학습과 선택적 주의집중 (Semantic Feature Learning and Selective Attention for Video Captioning)

  • 이수진;김인철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 추계학술발표대회
    • /
    • pp.865-868
    • /
    • 2017
  • 일반적으로 비디오로부터 캡션을 생성하는 작업은 입력 비디오로부터 특징을 추출해내는 과정과 추출한 특징을 이용하여 캡션을 생성해내는 과정을 포함한다. 본 논문에서는 효과적인 비디오 캡션 생성을 위한 심층 신경망 모델과 그 학습 방법을 소개한다. 본 논문에서는 입력 비디오를 표현하는 시각 특징 외에, 비디오를 효과적으로 표현하는 동적 의미 특징과 정적 의미 특징을 입력 특징으로 이용한다. 본 논문에서 입력 비디오의 시각 특징들은 C3D, ResNet과 같은 합성곱 신경망을 이용하여 추출하지만, 의미 특징은 본 논문에서 제안하는 의미 특징 추출 네트워크를 활용하여 추출한다. 그리고 이러한 특징들을 기반으로 비디오 캡션을 효과적으로 생성하기 위하여 선택적 주의집중 캡션 생성 네트워크를 제안한다. Youtube 동영상으로부터 수집된 MSVD 데이터 집합을 이용한 다양한 실험을 통해, 본 논문에서 제안한 모델의 성능과 효과를 확인할 수 있었다.

Free Viewpoint 비디오 시스템을 위한 Ray-space 보간 기법 보완 연구 (Modified Ray-space Interpolation for Free Viewpoint Video System)

  • 서강욱;김동욱;김화성;유지상
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2006년도 학술대회
    • /
    • pp.41-43
    • /
    • 2006
  • FTV (Free Viewpoint TV, 자유시점 TV)는 사용자들이 원하는 시점을 자유자재로 결정할 수 있는 차세대 TV이다. 또한 영상 획득 시 카메라가 위치하지 않은 새로운 시점을 만들 수 있다. 따라서 FTV는 개인, 산업, 사회, 의학. 사회 분야의 유망한 응용이 될 수 있다. Ray-space에 의한 데이터 표현은 FTV를 위한 데이터 포맷의 한 후보가 될 수 있으며, 실시간으로 임의시점의 영상을 구성하는 데에 있어서 우수한 장점을 가지고 있다. Ray-space에서 사용하는 기법은 컴퓨터 그래픽스가 아니라 순수한 신호 처리 방식이다. 스케일러블 구조, 계층적 구조가 Ray-space로 표현 가능하므로, Ray-space는 비디오 처리의 새로운 플랫폼을 구성할 수 있고 비디오의 개념을 확장할 수 있다. 본 논문에서는 Ray-space 데이터를 이용하여 임의 시점 영상을 생성하기 위해 기존의 보간(interpolation) 기법을 보완한 새로운 기법을 제안함으로써, 보다 자연스러운 영상을 얻고자 하는데 목적이 있다.

  • PDF

시간 관계성을 기반으로 한 비디오 데이터 모델의 설계 및 구현 (Design and Implementation of the Video Data Model Based on Temporal Relationship)

  • 최지희;용환승
    • 한국멀티미디어학회논문지
    • /
    • 제2권3호
    • /
    • pp.252-264
    • /
    • 1999
  • 비디오 데이터 자체가 시간적 구조와 공간적 구조로 이루어져 있기 때문에 비디오 데이터에 대한 내용 기반 검색은 두 관계를 중섬으로 이루어 질 수 있다. 본 논문에서는 비디오 데이터 구조가 시간의 흐름에 따라 논리적 계충 구조로 표현 가능하며, 각각의 계층은 각기 시간의 흐름에 따라 시간 관계성을 지닌다는 특성을 반영한 검색 기능을 설계하였다 그리고 비디오 데이터의 시간적 관계를 계승, 캡슐화, 함수 중복 등의 객체 지향 특성을 이용하여 객체 관계 DBMS로 구현하였다 기존의 제한적인 시간 함수가 아닌 본 논문에서 제시한 다양한 비디오 데이터의 시간 관계성에 따른 좀 더 확장되고 다양한 시간 함수를 제공함으로 써, 사용하기 편리한 인터페이스와, 여러 가지 시간 질의어를 제공한다.

  • PDF

V - PCC 기반 동적 획득 포인트 클라우드 압축 방안 (Dynamically Acquired Point Cloud Compression Method based on Video based Point Cloud Compression)

  • 김준식;임지헌;김규헌
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.185-188
    • /
    • 2019
  • 3D 영상 데이터 중 하나인, 포인트 클라우드는 3 차원 데이터를 정밀하게 획득 할 수 있다는 장점으로 인해 군사, 교육, 의료, 건축 등의 다양한 분야에서 사용되고 있다. 특히, 자율 주행 분야에서 사용되는 동적 획득 포인트 클라우드는 광범위한 영역을 표현하므로 방대한 양의 데이터를 갖고 있어, 효율적인 압축이 필수적이다. 비디오 코덱을 활용하여 3 차원 데이터 압축을 진행하는 V - PCC 의 경우, 신뢰성과 범용성이 높다는 장점이 있으나, 2D 비디오 영상을 활용하기 때문에 대용량 및 광범위한 데이터의 압축이 불가능하다는 한계를 지니고 있다. 따라서, 본 논문에서는 V- PCC 의 한계를 극복하고, 광범위한 영역의 정보를 표현하는 동적 획득 포인트를 압축하기 위해 포인트 클라우드를 분할 및 양자화하는 방안을 제시하였다.

  • PDF

비분할 비디오로부터 행동 탐지를 위한 순환 신경망 학습 (Learning Recurrent Neural Networks for Activity Detection from Untrimmed Videos)

  • 송영택;서준배;김인철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.892-895
    • /
    • 2017
  • 본 논문에서는 비분할 비디오로부터 이 비디오에 담긴 사람의 행동을 효과적으로 탐지해내기 위한 심층 신경망 모델을 제안한다. 일반적으로 비디오에서 사람의 행동을 탐지해내는 작업은 크게 비디오에서 행동 탐지에 효과적인 특징들을 추출해내는 과정과 이 특징들을 토대로 비디오에 담긴 행동을 탐지해내는 과정을 포함한다. 본 논문에서는 특징 추출 과정과 행동 탐지 과정에 이용할 심층 신경망 모델을 제시한다. 특히 비디오로부터 각 행동별 시간적, 공간적 패턴을 잘 표현할 수 있는 특징들을 추출해내기 위해서는 C3D 및 I-ResNet 합성곱 신경망 모델을 이용하고, 시계열 특징 벡터들로부터 행동을 자동 판별해내기 위해서는 양방향 BI-LSTM 순환 신경망 모델을 이용한다. 대용량의 공개 벤치 마크 데이터 집합인 ActivityNet 비디오 데이터를 이용한 실험을 통해, 본 논문에서 제안하는 심층 신경망 모델의 성능과 효과를 확인할 수 있었다.

XML 기반 멀티 미디어 데이터의 효과적인 검색을 위한 색인 모델 (An Indexing Model for Effective Retrieval of Multimedia Data Based on XML)

  • 고은경;황부현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 추계학술발표논문집 (하)
    • /
    • pp.1895-1898
    • /
    • 2002
  • 웹 환경에서 처리하는 데이터의 종류가 텍스트에서 비디오, 오디오와 같은 멀티미디어 데이터까지 다양해지면서 데이터를 효율적으로 표현, 저장 및 검색하기 위한 다양한 방법이 연구되고 있다. 이 논문에서는 동영상 데이터의 구조적인 형태를 고려하여 XML 문서로 표현하고 XML 문서를 데이터베이스에 저장하기 위한 데이터베이스 스키마를 설계하였다. 그래서 XML 문서내의 각 노드에 엘리먼트의 고유성을 나타내기 위한 고유식별자와 부모노드와 자식노드들 간의 관계를 표현하여 주기 위한 엘리먼트 식별자와 ETID를 결합하여 멀티미디어 데이터에 대한 XML 문서의 부모와 자식의 관계를 표현하여 준다. 그리고 부모가 같은 형제간의 순서 정보와 형제들 간의 동일한 타입을 구별하고 정보를 표현하기 위한 관계 테이블을 설계하였다.

  • PDF

VDCluster : 대용량 비디오 시퀀스를 위한 비디오 세그멘테이션 및 클러스터링 알고리즘 (VDCluster : A Video Segmentation and Clustering Algorithm for Large Video Sequences)

  • 이석룡;이주홍;김덕환;정진완
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제29권3호
    • /
    • pp.168-179
    • /
    • 2002
  • 본 논문에서는 비디오 저장이나 검색과 같은 비디오 정보 처리를 위한 중요한 기초 연구로써 비디오의 표현을 위한 효과적인 기법을 제안한다. 비디오 데이타 세트는 수초에서 수분 사이의 상연 시간을 갖는 비디오 클립들의 집합이며, 각 비디오 클립은 연속된 비디오 프레임들로 구성되어 있다. 이 비디오 클립은 다차원 데이타 시퀀스(multidimensional data sequence: MDS)로 표현될 수 있으며, 프레임 사이의 시간적인 정보를 고려하여 비디오 세그먼트로 나누어 지고, 한 클립 내에서 서로 유사한 세그먼트들은 다시 비디오 클러스터로 군집화된다. 따라서, 각 비디오 클립은 소수 개의 비디오 클러스터로 표현되어 진다. 본 논문에서 제안한 비디오 세그멘테이션 및 클러스터링 알고리즘 VDCLuster는 사전에 정의된 일정 수준의 클러스터링 품질을 보장하고 있으며, 다양한 비디오 시퀀스에 대한 실험을 통하여 알고리즘의 효과를 입증한다.