• Title/Summary/Keyword: 비디오 합성

Search Result 172, Processing Time 0.025 seconds

Fast Camera Pose Estimation from a Single Frame for Augmented Reality Applications (증강현실 시스템 구현을 위한 단일 프레임에서의 고속 카메라 위치추정)

  • Lee, Bum-Jong;Park, Jong-Seung;Sung, Mee-Young;Noh, Sung-Ryul
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.7-14
    • /
    • 2006
  • 본 논문에서는 3D 복원과 카메라 측정과정 없이 정확하게 카메라 자세를 계산하고 가상객체를 비디오에 합성하기 위한 단일 프레임 기반의 고속 계산 기법을 제안한다. 객체의 로컬 좌표와 단일 이미지에서의 대응되는 이미지 좌표로부터 카메라 자세를 계산한다. 정사영 투영모델에서의 분해기법에 기반한 구조 계산 방법으로 카메라 자세의 고속 추정이 가능하다. 정사영 투영모델에 기반하기 때문에 참조점의 설정에 따라 정확도가 달라진다. 객체에 따라 참조점을 설정하여 정확한 카메라 자세를 계산하는 방법을 제안한다. 카메라 자세 및 물체의 형태는 단일 프레임 기반으로 수행되며 카메라 자세 추정 결과가 즉시 비디오 합성에 사용될 수 있도록 하였다. 제안하는 기법의 유효성 입증을 위해 실사 비디오에 기반한 증강현실시스템을 구현하고 카메라 자세 계산과 비디오 합성의 전체 과정을 단일 프레임에 기반하여 실험을 수행하고 제안 기법의 실용성을 보였다.

  • PDF

Wide-baseline LightField Synthesis from monocular video (단안비디오로부터 광폭 베이스라인을 갖는 라이트필드 합성기법)

  • Baek, Hyungsun;Park, In Kyu
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.95-96
    • /
    • 2021
  • 본 논문에서는 단안비디오 입력으로부터 각 SAI(sub-aperture image)간의 넓은 기준선을 갖는 라이트필드 합성기법을 제안한다. 기존의 라이트필드 영상은 취득의 어려움에 의해 규모가 작고 특정 물체위주로 구성되어 있어 컴퓨터 비전 및 그래픽스 분야의 최신 딥러닝 기법들을 라이트필드 분야에 적용하기 어렵다는 문제를 갖고 있다. 이러한 문제점들을 해결하기 위해 사실적 렌더링 기반의 가상환경상에서 실제환경과 유사함을 갖는 데이터를 취득하였다. 생성한 데이터셋을 이용하여 기존의 새로운 시점을 생성하는 기법 중 하나인 다중 평면 영상(Multi Plane Image) 기반 합성기법을 통해 라이트필드 영상을 합성한다. 제안하는 네트워크는 단안비디오의 연속된 두개의 프레임으로부터 MPI 추정하는 네트워크와 입력영상의 깊이 정보를 추정하는 네트워크로 구성되어 있다.

  • PDF

Trend Review of Video Composing System (영상 합성 시스템 동향 분석)

  • Jeon, Mi-Seon;Lee, Man-Jae;Jang, Ho-Uk;Lee, Ui-Taek
    • Electronics and Telecommunications Trends
    • /
    • v.12 no.1 s.43
    • /
    • pp.27-42
    • /
    • 1997
  • 영상 합성 기술이란 영화 및 비디오 제작에 있어 비디오 화면을 다양한 효과를 사용하여 편집하는 기술이다. 비디오 분야에서 디지털 기술이 도입되어 사용된 이 기술은 영상 산업을 급격히 변화시키는 응용 기술의 하나로 본 고에서는 이 분야에서 현재 사용되는 시스템의 특징과 그러한 시스템의 공통된 기술을 분석하여 이 분야의 기술 개발에 활용하고자 한다.

Video Abstracting Using Scene Change Detection and Clustering (장면전환 검출과 클러스터링을 이용한 비디오 개요 추출)

  • 신성윤;강일고;이양원
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2002.11a
    • /
    • pp.583-587
    • /
    • 2002
  • 비디오를 시청하기 위하여 원하는 비디오를 선택하고자 할 때 사용자들은 비디오의 전반적인 내용을 알 수 있는 방법이 많지 않다. 따라서 비디오 시청을 원하는 사용자들에게 비디오의 전반적인 개요를 보여주어 선택 할 수 있는 방법이 요구된다. 본 논문에서는 전환 검출 방법과 샷 클러스터링을 이용한 비디오 개요 추출 방법을 제시한다. 장면전환 검출 방법은 컬러 히스토그램과 $\times$2 히스토그램을 합성한 방법을 이용하여 추출하도록 한다. 클러스터링은 히스토그램의 차이값을 측정과 샷 병합 알고리즘을 통해 수행하도록 한다.

  • PDF

Registration of Video Avatar by Comparing Real and Synthetic Images (실제와 합성영상의 비교에 의한 비디오 아바타의 정합)

  • Park Moon-Ho;Ko Hee-Dong;Byun Hye-Ran
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.33 no.8
    • /
    • pp.477-485
    • /
    • 2006
  • In this paper, video avatar, made from live video streams captured from a real participant, was used to represent a virtual participant. By using video avatar to represent participants, the sense of reality for participants can be increased, but the correct registration is also an important issue. We configured the real and virtual cameras to have the same characteristics in order to register the video avatar. Comparing real and synthetic images, which is possible because of the similarities between real and virtual cameras, resolved registration between video avatar captured from real environment and virtual environment. The degree of incorrect registration was represented as energy, and the energy was then minimized to produce seamless registration. Experimental results show the proposed method can be used effectively for registration of video avatar.

Performance Analysis on View Synthesis of 360 Videos for Omnidirectional 6DoF in MPEG-I (MPEG-I의 6DoF를 위한 360 비디오 가상시점 합성 성능 분석)

  • Kim, Hyun-Ho;Kim, Jae-Gon
    • Journal of Broadcast Engineering
    • /
    • v.24 no.2
    • /
    • pp.273-280
    • /
    • 2019
  • 360 video is attracting attention as immersive media with the spread of VR applications, and MPEG-I (Immersive) Visual group is actively working on standardization to support immersive media experiences with up to six degree of freedom (6DoF). In virtual space of omnidirectional 6DoF, which is defined as a case of degree of freedom providing 6DoF in a restricted area, looking at the scene at any viewpoint of any position in the space requires rendering the view by synthesizing additional viewpoints called virtual omnidirectional viewpoints. This paper presents the performance results on view synthesis and their analysis, which have been done as exploration experiments (EEs) of omnidirectional 6DoF in MPEG-I. In other words, experiment results on view synthesis in various aspects of synthesis conditions such as the distances between input views and virtual view to be synthesized and the number of input views to be selected from the given set of 360 videos providing omnidirectional 6DoF are presented.

High Resolution Video Synthesis with a Hybrid Camera (하이브리드 카메라를 이용한 고해상도 비디오 합성)

  • Kim, Jong-Won;Kyung, Min-Ho
    • Journal of the Korea Computer Graphics Society
    • /
    • v.13 no.4
    • /
    • pp.7-12
    • /
    • 2007
  • With the advent of digital cinema, more and more movies are digitally produced, distributed via digital medium such as hard drives and network, and finally projected using a digital projector. However, digital cameras capable of shotting at 2K or higher resolution for digital cinema are still very expensive and bulky, which impedes rapid transition to digital production. As a low-cost solution for acquiring high resolution digital videos, we propose a hybrid camera consisting of a low-resolution CCD for capturing videos and a high-resolution CCD for capturing still images at regular intervals. From the output of the hybrid camera, we can synthesize high-resolution videos by software as follows: for each frame, 1. find pixel correspondences from the current frame to the previous and subsequent keyframes associated with high resolution still images, 2. synthesize a high-resolution image for the current frame by copying the image blocks associated with the corresponding pixels from the high-resolution keyframe images, and 3. complete the synthesis by filling holes in the synthesized image. This framework can be extended to making NPR video effects and capturing HDR videos.

  • PDF

Stereo-video Synchronization for 3D Video Transmission (3차원 비디오 전송을 위한 스테레오비디오 동기화 방법)

  • Lee, Dong-Jin;Lee, Seon-Oh;Sim, Dong-Gyu;Lee, Hyuk-Joon
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.34 no.4B
    • /
    • pp.349-359
    • /
    • 2009
  • In this paper, we propose a stereo-video transmission method for reduction of delay and maximization of 3D effect. Conventional multimedia synchronization algorithms were designed to achieve minimum delay and synchronize multiple video and audio streams, however, they could not be effective for 3D video transmission. In this paper, we proposed a synchronization algorithm by considering the minimum error of time difference between streams for 3D effect. The minimum error of time difference for 3D effect was derived based on a 3D subjective quality test. We compute display time of the delivered videos within the allowed time-difference and the video are displayed according to the display time. To evaluate the performance of the proposed algorithm, we implemented a real-time video communication system and subjective quality test has been conducted with the proposed system. We found that video quality displayed by the proposed system. We found that video quality displayed by the proposed algorithm ranks 'good' and 'excellent' in the DMOS (Differential Mean Opinion Score) scale, based on the MOS (Mean Opinion Score) test.

Video Abstracting Using Clustering (클러스터링을 이용한 비디오 개요 추출)

  • 임정훈;국나영;곽순영;강일고;이양원
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.11b
    • /
    • pp.73-76
    • /
    • 2002
  • 비디오 시청을 원하는 사용자들은 비디오의 전반적인 개요를 짧은 시간에 시청하여 보고싶은 비디오를 쉽게 선택하기를 바란다. 본 논문에서는 전환 검출 방법과 샷 클러스터링을 이용한 비디오 개요 추출 방법을 제시한다. 장면전환 검출 방법은 컬러 히스토그램과 χ2 히스토그램을 합성한 방법을 이용하여 추출하도록 한다. 클러스터링은 히스토그램의 차이값을 측정과 샷 병합 알고리즘을 통해 수행하도록 한다.

  • PDF

Implementation of Composition and Encoding System Using Effective Object Extraction Algorithm (효율적인 객체분할 알고리즘을 이용한 영상합성 및 부호화 시스템 구현)

  • 유홍연;이지호;홍성훈
    • Proceedings of the IEEK Conference
    • /
    • 2003.07e
    • /
    • pp.1948-1951
    • /
    • 2003
  • 본 논문에서는 디지털 멀티미디어 방송 및 양방향 인터넷 방송 등에서 효율적인 객체기반 방송 서비스를 제공하기 위한 비선형 비디오 편집 시스템을 구현하였다. 구현된 시스템은 실시간으로 카메라를 통해 입력되는 영상 데이터에 대해 자동으로 움직이는 객체를 추출하는 자동분할과 HDD(hard Disk) 등에 저장되어 있는 동영상을 사용자의 조력에 의해 분할하는 반자동분할 기능을 제공한다. 그리고 추출된 객체를 저장매체에 저장되어 있는 그래픽 및 실사 배경영상과 합성하고 MPEG으로 부호화 할 수 있다. 또한 정보 유출을 원치 않는 객체에 대한 은닉 기능을 가지고 있다. 따라서 구현된 시스템은 비디오 정보제공자가 편리하게 객체를 분할하고 편집할 수 있으며 비디오 정보를 단기간에 효율적으로 비디오 정보 사용자에게 공급할 수 있는 기능을 제공한다.

  • PDF