• Title/Summary/Keyword: Video Synthesis

Search Result 116, Processing Time 0.022 seconds

Analysis on the Backgrounds Expression for 3D Animation (3D 애니메이션의 배경 표현에 관한 분석)

  • Park, Sung-Dae;Jung, Yee-Ji;Kim, Cheeyong
    • Journal of Korea Multimedia Society
    • /
    • v.18 no.2
    • /
    • pp.268-276
    • /
    • 2015
  • This article analyzes the background representation of 3D animation and look at what its proper background expression. With the development of computer graphics technology, the background of the 3D animations can be expressed as The actual background. In contrast, "The Smurfs" which was released recently was created to take the actual background. However, 3D animation with real background is not appropriate in terms of creative expression space in the main role of the animation. In this Study, we analyze the character and background of the animation made in 3D graphics. Based on this, we propose a correct representation of 3D animation background.

A Study of AR Image Synthesis Technology Using Wavelet Transform in Digital Video (웨이블릿을 사용한 디지털 동영상의 AR 영상 합성 기법)

  • 김혜경;김용균;오해석
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.577-579
    • /
    • 2001
  • 본 논문에서는 웨이블릿 변환 기법으로 키프레임을 분석하여 객체 영역을 추출함과 동시에 가상의 객체 영상을 현실감있게 합성하는 기술에 대하여 연구하였다. 가상의 객체 영상이나 실물체 영상을 비디오 영상내에 삽입하여 좀 더 현실감있는 새로운 동영상 비디오 데이터를 제작하는 데 초점을 맞추어 연구를 진행하였다. 웨이블릿 변환이 새로운 영상을 재구성하는데 커다란 기여를 하였으며 본 논문에서 제시한 AR 영상 합성 기법은 동영상 데이터를 합성하는데 사용자가 원하는 지점에 정확하게 영상의 특성정보를 충분히 잘 살린 새로운 방법의 시도였다. 또한, 영상의 캘리브 레이션 방법을 거치지 않고 비디오 영상의 회전행렬과 위치성분을 계산하여 매핑된 가상의 객체 영상을 영상 보간법을 적용하여 직접 가사의 객체 영상을 비디오 객체 영상을 비디오 영상열에 삽입한다. 제시한 영상 합성 기법은 가상의 객체 영상이 디지털 동영상내에 삽입되었을 때 가장 큰 문제점인 떨림 현상과 부조화 현상이 제거되었다.

  • PDF

A Method for Surface Reconstruction and Synthesizing Intermediate Images for Multi-viewpoint 3-D Displays

  • Fujii, Mahito;Ito, Takayuki;Miyake, Sei
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 1996.06b
    • /
    • pp.35-40
    • /
    • 1996
  • In this paper, a method for 3-D surface reconstruction with two real cameras is presented. The method, which combines the extraction of binocular disparity and its interpolation can be applied to the synthesis of images from virtual viewpoints. The synthesized virtual images are as natural as the real images even when we observe the images as stereoscopic images. The method opens up many applications, such as synthesizing input images for multi-viewpoint 3-D displays, enhancing the depth impression in 2-D images and so on. We also have developed a video-rate stereo machine able to obtain binocular disparity in 1/30 sec with two cameras. We show the performance of the machine.

  • PDF

Deep Learning Framework for 5D Light Field Synthesis from Single Video (단안 비디오로부터의 5D 라이트필드 비디오 합성 프레임워크)

  • Bae, Kyuho;Ivan, Andre;Park, In Kyu
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.06a
    • /
    • pp.150-152
    • /
    • 2019
  • 본 논문에서는 기존의 연구를 극복하여 단일 영상이 아닌 단안 비디오로부터 5D 라이트필드 영상을 합성하는 딥러닝 프레임워크를 제안한다. 현재 일반적으로 사용 가능한 Lytro Illum 카메라 등은 초당 3프레임의 비디오만을 취득할 수 있기 때문에 학습용 데이터로 사용하기에 어려움이 있다. 이러한 문제점을 해결하기 위해 본 논문에서는 가상 환경 데이터를 구성하며 이를 위해 UnrealCV를 활용하여 사실적 그래픽 렌더링에 의한 데이터를 취득하고 이를 학습에 사용한다. 제안하는 딥러닝 프레임워크는 두 개의 입력 단안 비디오에서 $5{\times}5$의 각 SAI(sub-aperture image)를 갖는 라이트필드 비디오를 합성한다. 제안하는 네트워크는 luminance 영상으로 변환된 입력 영상으로부터 appearance flow를 추측하는 플로우 추측 네트워크(flow estimation network), appearance flow로부터 얻어진 두 개의 라이트필드 비디오 프레임 간의 optical flow를 추측하는 광학 플로우 추측 네트워크(optical flow estimation network)로 구성되어있다.

  • PDF

From Multimedia Data Mining to Multimedia Big Data Mining

  • Constantin, Gradinaru Bogdanel;Mirela, Danubianu;Luminita, Barila Adina
    • International Journal of Computer Science & Network Security
    • /
    • v.22 no.11
    • /
    • pp.381-389
    • /
    • 2022
  • With the collection of huge volumes of text, image, audio, video or combinations of these, in a word multimedia data, the need to explore them in order to discover possible new, unexpected and possibly valuable information for decision making was born. Starting from the already existing data mining, but not as its extension, multimedia mining appeared as a distinct field with increased complexity and many characteristic aspects. Later, the concept of big data was extended to multimedia, resulting in multimedia big data, which in turn attracted the multimedia big data mining process. This paper aims to survey multimedia data mining, starting from the general concept and following the transition from multimedia data mining to multimedia big data mining, through an up-to-date synthesis of works in the field, which is a novelty, from our best of knowledge.

Video Synthesis Method for Virtual Avatar Using FACS based GAN (FACS 기반 GAN 기술을 이용한 가상 영상 아바타 합성 기술)

  • Kim, Geonhyeong;Park, Suhyun;Lee, Sang Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.05a
    • /
    • pp.340-342
    • /
    • 2021
  • 흔히 DeepFake로 불리는 GAN 기술은 소스 영상과 타겟 이미지를 합성하여 타겟 이미지 내의 사람이 소스 영상에서 나타나도록 합성하는 기술이다. 이러한 GAN 기반 영상 합성 기술은 2018년을 기점으로 급격한 성장세를 보이며 다양한 산업에 접목되어지고 있으나 학습 모델을 얻는 데 걸리는 시간이 너무 오래 소요되고, 감정 표현을 인지하는 데 어려움이 있었다. 본 논문에서는 상기 두가지 문제를 해결하기 위해 Facial Action Coding System(FACS) 및 음성 합성 기술[4]을 적용한 가상 아바타 생성 방법에 대해 제안하고자 한다.

Wide-baseline LightField Synthesis from monocular video (단안비디오로부터 광폭 베이스라인을 갖는 라이트필드 합성기법)

  • Baek, Hyungsun;Park, In Kyu
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.95-96
    • /
    • 2021
  • 본 논문에서는 단안비디오 입력으로부터 각 SAI(sub-aperture image)간의 넓은 기준선을 갖는 라이트필드 합성기법을 제안한다. 기존의 라이트필드 영상은 취득의 어려움에 의해 규모가 작고 특정 물체위주로 구성되어 있어 컴퓨터 비전 및 그래픽스 분야의 최신 딥러닝 기법들을 라이트필드 분야에 적용하기 어렵다는 문제를 갖고 있다. 이러한 문제점들을 해결하기 위해 사실적 렌더링 기반의 가상환경상에서 실제환경과 유사함을 갖는 데이터를 취득하였다. 생성한 데이터셋을 이용하여 기존의 새로운 시점을 생성하는 기법 중 하나인 다중 평면 영상(Multi Plane Image) 기반 합성기법을 통해 라이트필드 영상을 합성한다. 제안하는 네트워크는 단안비디오의 연속된 두개의 프레임으로부터 MPI 추정하는 네트워크와 입력영상의 깊이 정보를 추정하는 네트워크로 구성되어 있다.

  • PDF

Free view video synthesis using multi-view 360-degree videos (다시점 360도 영상을 사용한 자유시점 영상 생성 방법)

  • Cho, Young-Gwang;Ahn, Heejune
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.05a
    • /
    • pp.600-603
    • /
    • 2020
  • 360 영상은 시청자가 시야방향을 결정하는 3DoF(3 Degree of Freedom)를 지원한다. 본 연구에서는 다수의 360 영상에서 깊이 정보를 획득하고, 이를 DIBR (Depth -based Image Rendering) 기법을 사용하여 임의 시점 시청기능을 제공하는 6DoF(6 Degree of Freedom) 영상제작 기법을 제안한다. 이를 위하여 기존의 평면 다시점 영상기법을 확장하여 360 ERP 투영 영상으로부터 카메라의 파라미터 예측을 하는 방법과 깊이영상 추출 방법을 설계 및 구현하고 그 성능을 조사하였으며, OpenGL 그래픽스기반의 RVS(Reference View Synthesizer) 라이브러리를 사용하여 DIBR을 적용하였다.

A Study on the high-speed Display of Radar System Positive Afterimage using FPGA and Dual port SRAM (FPGA와 Dual Port SRAM 적용한 Radar System Positive Afterimage 고속 정보 표출에 관한 연구)

  • Shin, Hyun Jong;Yu, Hyeung Keun
    • Journal of Satellite, Information and Communications
    • /
    • v.11 no.4
    • /
    • pp.1-9
    • /
    • 2016
  • This paper was studied in two ways with respect to the information received from the video signal separation technique of PPI Scop radar device. The proposed technique consists in generating an image signal through the video signal separation and synthesis, symbol generation, the residual image signal generation process. This technology can greatly improve the operating convenience with improved ease of discrimination, screen readability for the operator in analyzing radar information. The first proposed method was constructed for high-speed FPGA-based information processing systems for high speed operation stability of the system. The second proposed method was implemented intelligent algorithms and a software algorithm function curve associated resources.This was required to meet the constraints on the radar information, analysis system. Existing radar systems have not the frame data analysis unit image. However, this study was designed to image data stored in the frame-by-frame analysis of radar images with express information MPEG4 video. Key research content is to highlight the key observations expresses the target, the object-specific monitoring information to the positive image processing algorithm and the function curve delays. For high-definition video, high-speed to implement data analysis and expressing a variety of information was applied to the ARM Processor Support in Pro ASIC3.

Video-to-Video Generated by Collage Technique (콜라주 기법으로 해석한 비디오 생성)

  • Cho, Hyeongrae;Park, Gooman
    • Journal of Broadcast Engineering
    • /
    • v.26 no.1
    • /
    • pp.39-60
    • /
    • 2021
  • In the field of deep learning, there are many algorithms mainly after GAN in research related to generation, but in terms of generation, there are similarities and differences with art. If the generation in the engineering aspect is mainly to judge the presence or absence of a quantitative indicator or the correct answer and the incorrect answer, the creation in the artistic aspect creates a creation that interprets the world and human life by cross-validating and doubting the correct answer and incorrect answer from various perspectives. In this paper, the video generation ability of deep learning was interpreted from the perspective of collage and compared with the results made by the artist. The characteristic of the experiment is to compare and analyze how much GAN reproduces the result of the creator made with the collage technique and the difference between the creative part, and investigate the satisfaction level by making performance evaluation items for the reproducibility of GAN. In order to experiment on how much the creator's statement and purpose of expression were reproduced, a deep learning algorithm corresponding to the statement keyword was found and its similarity was compared. As a result of the experiment, GAN did not meet much expectations to express the collage technique. Nevertheless, the image association showed higher satisfaction than human ability, which is a positive discovery that GAN can show comparable ability to humans in terms of abstract creation.