• 제목/요약/키워드: 비디오 생성

검색결과 590건 처리시간 0.035초

비디오와 동기화된 물체의 위치정보 표현 data stream 생성 및 해석기 구현 (Generation and Interpretation of data stream for position data of objects synchronized with video)

  • 나희주;김정환;정문열
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2005년도 학술대회
    • /
    • pp.249-254
    • /
    • 2005
  • 본 논문은 디지털 방송 프로그램 진행 중 비디오의 특정 시점에 동기화된 특정 객체의 위치정보를 표현하는 data stream을 생성하고, 그 시점에 해당 위치 정보를 해석하는 해석기에 관한 것이다. 현재의 상용 스트림 생성기는 디지털 방송 표준에서 권고하는 스트림 이벤트의 발생 시각과 셋톱박스에서 디코딩 시에 사용할 참조값을 적절하게 생성하지 못하고 있다. 또한, 셋톱박스에서 동작하는 애플리케이션(Xlet) 역시 STC(System Time Clock), PCR(Program Clock Reference), NPT(Normal Play Time) 등의 시간값을 적절하게 읽어내지 못하고 있다. 더욱이, 현재의 디지털 방송 표준에서는 영상 내 특정 객체를 위해 정보를 제공하는 데에는 한계가 있다. 따라서, 본 논문에서는 다양한 연동형 디지털 방송 프로그램 제작을 위해 비디오의 특정 시점에 동기화된 객체의 위치정보를 표현하는 data stream을 생성하는 방법과, 동기화된 데이터를 처리하는 애플리케이션에 대해서 설명한다.

  • PDF

영상과 비디오로부터의 가상 시점 영상 생성 기술

  • 백형선;박인규
    • 방송과미디어
    • /
    • 제26권4호
    • /
    • pp.11-22
    • /
    • 2021
  • 실감형 미디어를 구성하기 위해서는 다시점 영상 또는 비디오들로 구성된 대용량의 콘텐츠가 필수적이다. 이러한 콘텐츠는 다량의 카메라들을 목적에 따라 배치하여 획득하므로 영상 구성의 복잡성과 콘텐츠의 크기가 급격히 커진다는 문제점을 갖고 있다. 3D 미디어 환경에서 카메라의 개수를 최소화하면서도 목적에 맞게 다양한 시점을 제공할 수 있는 가상시점 영상 생성은 핵심적인 기술이다. 본 기고문에서는 다시점 영상과 비디오로부터 학습 기반의 가상 시점 영상 생성 연구들에 대해 체계적인 조사를 통해 그 결과를 다음과 같이 제시한다. 첫째, 가상 시점 영상 생성에 대한 배경 개념을 정의한다. 둘째, 제안하는 분류 방식에 따라 기존의 제안된 방법들을 상세하게 분석한다. 셋째, 가상 시점 영상 생성에 주로 사용되는 관련 데이터셋을 조사한다. 마지막으로는 각 연구들이 갖고 있는 특징들을 분석하고, 정량적, 정성적 평가 결과를 비교한다.

효율적인 보조 정보 생성을 통한 깊이지도 기반의 분산 다시점 비디오 코딩 기법 (Depth Map Based Distributed Multi-view Video Coding Scheme through an Efficient Side Information Generation)

  • 유지환;이동석;김태준;유지상
    • 한국통신학회논문지
    • /
    • 제34권10B호
    • /
    • pp.1093-1103
    • /
    • 2009
  • 본 논문에서는 효율적인 보조 정보 생성을 통한 새로운 분산 다시점 비디오 코딩 기법을 제안한다. 분산 비디오 코딩은 원영상과 디코더에서 생성한 보조 정보 간의 오차를 채널 코딩 기법으로 정정한다. 따라서 보조 정보를 정확히 만들수록 분산 비디오 코딩의 성능은 좋아지게 된다. 제안한 기법에서는 깊이지도를 기반으로 하는 다시점 비디오 코딩에 분산 비디오 코딩 기법을 적용한다. 또한 깊이지도를 이용한 3차원 워핑을 통해 인접한 시점의 영상으로부터 보조 정보를 생성하고, 3차원 워핑과 시간 축 상의 인접한 영상을 이용하는 MCTI(motion compensated temporal interpolation)를 효율적으로 혼합하여 사용한다. 실험 결과 제안한 기법으로 생성한 보조 정보는 MCTI와 3차원 위핑을 따로 사용한 방법보다 평균 0.97dB의 PSNR이 향상되었음을 알 수 있었다. 또한 R-D 곡선 상에서 동일 PSNR 대비 평균 8.01%의 비트율이 감소되었다.

투영 텍스처를 이용한 스테레오 비디오 아바타 (A Stereo Video Avatar using Projective Texture)

  • 이선민;박지영;김명희
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제11권4호
    • /
    • pp.34-38
    • /
    • 2005
  • 본 논문에서는 대형 스크린 기반 디스플레이 환경에서 시각 커뮤니케이션 증진을 위한 비디오 아바타 생성 기법에 대하여 소개한다. 일반적으로 대형 스크린 기반 가상 환경에서는 스크린으로 투사되는 빛의 변화 때문에 정적 배경을 보장할 수 없다. 뿐만 아니라 카메라 위치 설정이 자유롭지 못하기 때문에 디스플레이 환경 내에 있는 사용자를 대상으로 비디오 아바타를 생성하기 쉽지 않다. 본 논문에서는 적외선 및 필터를 이용하여 가시광선을 차단함으로써 사용자 영역을 쉽게 정의할 수 있도록 하였고, 나란히 배치된 컬러 영상에 실루엣 마스크를 적합하여 배경이 제거된 사용자 컬러 영상을 추출할 수 있도록 하였다. 또한 생성된 스테레오 비디오 아바타 영상은 투영 텍스처를 이용하여 보정된 후 가상세계에 투사되어 입체 디스플레이 된다. 제안된 기법은 일반적인 카메라를 이용하고 있으며, 간단한 조명 조건만 설정해주면 기존의 대형 스크린 기반 프로젝션 환경을 변형하지 않고도 쉽게 설치하여 사용할 수 있기 때문에 많은 활용도가 있을 것이라 기대된다.

  • PDF

캡션 분석에 의한 축구비디오 하이라이트 (The Highlight of The Soccer Video Using Caption Analysis)

  • 전근환;하태준;신성윤;이양원;류근호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2001년도 추계학술발표논문집 (상)
    • /
    • pp.817-820
    • /
    • 2001
  • 비디오 데이터에서 캡션은 비디오의 중요한 부분과 내용을 나타내는 가장 보편적인 방법이다. 본 논문에서는 축구 비디오에서 캡션이 갖는 특징을 분석하고 캡션에 의한 키 프레임을 추출하도록 하며, 하이라이트 생성 규칙에 따라 하이라이트를 생성하도록 한다. 키 프레임 추출은 이벤트 발생에 따른 캡션의 등장과 캡션 내용의 변화를 추출하는 것으로 탬플리트 매칭과 지역적 차영상을 통하여 추출하며 샷을 재설정 하여 중요 이벤트를 포함한 하이라이트를 생성하도록 한다.

  • PDF

저복잡도 2D-to-3D 비디오 변환을 위한 패턴기반의 깊이 생성 알고리즘 (Pattern-based Depth Map Generation for Low-complexity 2D-to-3D Video Conversion)

  • 한찬희;강현수;이시웅
    • 한국콘텐츠학회논문지
    • /
    • 제15권2호
    • /
    • pp.31-39
    • /
    • 2015
  • 2D-to-3D 비디오 변환 기술은 2D 비디오 속에 내재하는 깊이 단서를 이용하여 스테레오 영상을 생성함으로써 2D 비디오에 3D 효과를 부여한다. 이 기술은 완전한 3D 비디오 시대로 가는 과도 기간 동안 3D 콘텐츠의 부족문제를 해결할 수 있는 유용한 기술이다. 본 논문은 2D-to-3D 비디오 변환의 저 복잡도 구현을 위한 새로운 깊이 생성 방안을 제시한다. 제안 기법에서는 전역 깊이의 시방향 일관성을 위하여 패턴 기반의 전역 깊이 생성 기법을 제안하였다. 뿐만 아니라 객체 영역의 3D 입체감 개선을 위한 저 복잡도의 객체 깊이 개선 알고리즘도 추가적으로 제시하였다. 실험을 통해 제안 알고리즘이 복잡도와 주관적 화질 측면에서 기존 방식들에 비해 우수한 성능을 나타냄을 보인다.

하이라이트 비디오 생성을 위한 데이터셋 구축을 위한 비디오 탐색 알고리즘 (Video Retrieval Algorithm for Building a Dataset for Highlight Video Generation)

  • 송기연;이재환
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.517-518
    • /
    • 2024
  • 본 연구에서는 특정 비디오에서 추출된 비디오 클립이 어떤 비디오에서 추출된 것인지 탐색하는 알고리즘을 제안한다. 국내 이스포츠 리그 중 하나인 LCK의 경기 영상과 하이라이트 영상을 수집하여 알고리즘의 성능을 테스트하였다. 본 연구에서 제안한 알고리즘은 하이라이트 비디오 추출 모델개발에 필요한 비디오-하이라이트 클립 데이터셋을 구축하는 데 도움이 될 것이라 기대한다.

AVI 데이터를 이용한 MPEG-4 컨텐츠 저작 (MPEG-4 Contents Authoring using AVI)

  • 이숙영;차경애;김상욱
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2002년도 춘계학술발표논문집(하)
    • /
    • pp.618-621
    • /
    • 2002
  • MPEG-4 컨텐츠는 비디오, 오디오 파일을 비롯하여 다양한 타입의 미디어로 구성되는 복합 멀티미디어 데이터이다. 본 논문에서는 MPEG-4 컨텐츠 생산을 위해서 저작 환경을 제공하고 이를 MPEG-4 파일로 생성하는 MPEG-4 컨텐츠 저작 도구를 제안한다. 특히 제안하는 MPEG-4 저작 도구는 AVI 형태의 동영상 자료를 입력 받아, MPEG-4 오디오, 비디오 데이터로 변환하고 이를 MPEG-4 장면 저작에 이용할 수 있다. MPEG-4 컨텐츠는 MPEG-4 파일로 구성되며, 장면 구성이 배제된 오디오, 비디오로만 구성된 MPEG-4 파일과 전체 미디어 데이터가 하나의 장면으로 생성된 MPEG-4 파일이 될 수 있다.

  • PDF

모바일 ad-hoc 네트워크에서 멀티미디어 트래픽 전송 (Transmission of Multimedia Traffic over Mobile Ad-hoc Networks)

  • 김영동
    • 한국정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.95-101
    • /
    • 2005
  • 본 논문에서는 모바일 에드혹 네트워크에서 멀티미디어 트래픽의 전송특성을 시뮬레이션으로 연구하였다. 시뮬레이션에서는 멀티미디어 트래픽으로 MPEG 비디오 형식의 합성 스트리밍 비디오를 사용하였으며, 합성 스트리밍 비디오는 비디오 스티림 알고리즘을 사용하여 생성하였다. 비디오 합성 알고리즘은 I(intra-coded), P(predicted-coded), B(bidirectional-coded) 프레임 열로 구성되는 특정 GOP(group of pictures) 패턴을 사용하여 MPEG 비디오 스트림에 대응하는 VBR 트래픽을 생성한다. 이 합성 VBR 스트림을 모바일 애드혹 네트워크 상에서 UDP 프로토콜을 사용하여 전송하였으며, 라우팅 프로토콜로는 AODV와 DSR을 사용하였다. 모바일 에드혹 네트워크의 비디오 스트림 전송성능으로서 패킷지연, 패킷전달율 및 수율을 분석하였으며, 데이터 트래픽과 비디오 트래픽의 전송수율을 비교하여 보았다.

DNN 학습을 이용한 퍼스널 비디오 시퀀스의 멀티 모달 기반 이벤트 분류 방법 (A Personal Video Event Classification Method based on Multi-Modalities by DNN-Learning)

  • 이유진;낭종호
    • 정보과학회 논문지
    • /
    • 제43권11호
    • /
    • pp.1281-1297
    • /
    • 2016
  • 최근 스마트 기기의 보급으로 자유롭게 비디오 컨텐츠를 생성하고 이를 빠르고 편리하게 공유할 수 있는 네트워크 환경이 갖추어지면서, 퍼스널 비디오가 급증하고 있다. 그러나, 퍼스널 비디오는 비디오라는 특성 상 멀티 모달리티로 구성되어 있으면서 데이터가 시간의 흐름에 따라 변화하기 때문에 이벤트 분류를 할 때 이에 대한 고려가 필요하다. 본 논문에서는 비디오 내의 멀티 모달리티들로부터 고수준의 특징을 추출하여 시간 순으로 재배열한 것을 바탕으로 모달리티 사이의 연관관계를 Deep Neural Network(DNN)으로 학습하여 퍼스널 비디오 이벤트를 분류하는 방법을 제안한다. 제안하는 방법은 비디오에 내포된 이미지와 오디오를 시간적으로 동기화하여 추출한 후 GoogLeNet과 Multi-Layer Perceptron(MLP)을 이용하여 각각 고수준 정보를 추출한다. 그리고 이들을 비디오에 표현된 시간순으로 재 배열하여 비디오 한 편당 하나의 특징으로 재 생성하고 이를 바탕으로 학습한 DNN을 이용하여 퍼스널 비디오 이벤트를 분류한다.