• Title/Summary/Keyword: 라이트 필드

Search Result 35, Processing Time 0.032 seconds

RGB 3 채널에 대한 컬러 수차가 없는 논호겔 라이트필드 기반 컴퓨터 생성 홀로그램 합성

  • Min, Da-Bin;Min, Gyo-Sik;Park, Jae-Hyeong
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • fall
    • /
    • pp.45-48
    • /
    • 2021
  • 본 논문은 RGB 컬러 3 채널에 대해 공유되는 홀로그램 픽셀 피치를 사용하여 3 차원 장면의 라이트 필드 데이터에서 비호겔 기반 컴퓨터 생성 홀로그램(CGH)을 합성하는 방법을 제안한다. 비호겔 기반 CGH 기술은 라이트 필드의 광선 각도를 평면 파면의 공간 주파수로 해석하여 주어진 라이트 필드 데이터에서 임의의 반송파로 연속 파면을 생성한다. 그러나 광선 각도와 공간 주파수 관계는 파장에 따라 달라지므로 라이트 필드 데이터에서 공간 주파수 샘플링 그리드가 달라져서 홀로그램 재구성에서 색 수차가 발생한다. 제안하는 방법은 가장 작은 청색 회절각이 라이트 필드의 시야를 커버하도록 모든 색상 채널에 공통적인 홀로그램 픽셀 피치를 설정한다. 그런 다음 라이트 필드를 파란색 파장의 공간 주파수 범위와 빨간색 파장의 샘플링 간격으로 보간하여 모든 색상 채널에 공통적인 공간 주파수 샘플링 그리드를 설정한다. 공통 홀로그램 픽셀 피치 및 라이트 필드 공간 주파수 샘플링 그리드는 홀로그램 재구성에서 색상 수차 또는 라이트 필드에 포함된 정보 손실 없이 컬러 홀로그램 합성을 보장한다. 제안된 방법은 다양한 테스트와 리얼 3D 장면의 컬러 라이트 필드 데이터를 사용하여 검증되었다.

  • PDF

Feature-Based Surface Light Field Morphing (특징점 기반의 표면 라이트 필드 몰핑)

  • Jeong, Eun-Hee;Ahn, Min-Su;Yoon, Min-Cheol;Lee, Seung-Yong
    • Journal of the Korea Computer Graphics Society
    • /
    • v.9 no.1
    • /
    • pp.3-9
    • /
    • 2003
  • 표면 라이트 필드는 각 시점에서 관찰된 서로 다른 물체 표면의 색 정보를 메쉬에 저장함으로써 물체 표면을 시점 변화에 따라 사실적으로 렌더링할 수 있다. 본 논문에서는 표면 라이트 필드에 대한 영상 기반 편집 기술로서 몰핑 기법을 제시한다. 표면 라이트 필드를 몰핑하기 위해서는 중간 물체의 표면 라이트 필드를 위한 기하 정보와 라이트 필드를 생성해야 한다. 중간 물체의 기하 정보는 메쉬 몰핑을 통해 얻을 수 있다. 중간 물체의 라이트 필드는 두 입력 라이트 필드에서 필요한 정보를 얻어 시점과 기하 정보의 변화에 따라 변형한 후 이를 보간하여 주어진 시점에서의 라이트 필드를 동적으로 얻어낸다. 메쉬 몰핑을 통해 얻어진 중간 물체의 메쉬는 입력 물체에 비해 매우 복잡한 연결 구조를 가지므로 렌터링 속도를 향상시키기 위한 방법을 제시한다. 먼저 메쉬 몰핑 과정에서 메타 메쉬를 만들 때 가까이에 있는 정점들을 병합하여 보다 단순한 메타 메쉬를 생성하고 중간 물체를 렌더링하기 위해 메타 메쉬를 사용하지 않고 메타 메쉬를 근사하도록 두 입력 메쉬를 변형한 후 이를 렌더링에 사용한다.

  • PDF

5D Light Field Synthesis from a Monocular Video (단안 비디오로부터의 5차원 라이트필드 비디오 합성)

  • Bae, Kyuho;Ivan, Andre;Park, In Kyu
    • Journal of Broadcast Engineering
    • /
    • v.24 no.5
    • /
    • pp.755-764
    • /
    • 2019
  • Currently commercially available light field cameras are difficult to acquire 5D light field video since it can only acquire the still images or high price of the device. In order to solve these problems, we propose a deep learning based method for synthesizing the light field video from monocular video. To solve the problem of obtaining the light field video training data, we use UnrealCV to acquire synthetic light field data by realistic rendering of 3D graphic scene and use it for training. The proposed deep running framework synthesizes the light field video with each sub-aperture image (SAI) of $9{\times}9$ from the input monocular video. The proposed network consists of a network for predicting the appearance flow from the input image converted to the luminance image, and a network for predicting the optical flow between the adjacent light field video frames obtained from the appearance flow.

라이트필드 및 홀로그램 기반 근안 디스플레이 기술 동향

  • Park, Jae-Hyeong
    • Broadcasting and Media Magazine
    • /
    • v.24 no.2
    • /
    • pp.39-52
    • /
    • 2019
  • 본 고에서는 라이트필드 혹은 디지털 홀로그램에 기반한 근안 디스플레이 기술에 대하여 알아본다. 헤드 마운티드 디스플레이로 불리기도 하는 근안 디스플레이는 사용자가 착용하는 안경 형태의 디스플레이 기기를 말하며, 가상현실 및 증강현실 응용의 핵심 기기 중 하나이다. 본 고에서는 라이트필드 및 디지털 홀로그램 기술이 근안 디스플레이에 적용될 경우 갖는 장점들을 살펴보고 관련 연구 동향을 소개한다.

Wide-baseline LightField Synthesis from monocular video (단안비디오로부터 광폭 베이스라인을 갖는 라이트필드 합성기법)

  • Baek, Hyungsun;Park, In Kyu
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.95-96
    • /
    • 2021
  • 본 논문에서는 단안비디오 입력으로부터 각 SAI(sub-aperture image)간의 넓은 기준선을 갖는 라이트필드 합성기법을 제안한다. 기존의 라이트필드 영상은 취득의 어려움에 의해 규모가 작고 특정 물체위주로 구성되어 있어 컴퓨터 비전 및 그래픽스 분야의 최신 딥러닝 기법들을 라이트필드 분야에 적용하기 어렵다는 문제를 갖고 있다. 이러한 문제점들을 해결하기 위해 사실적 렌더링 기반의 가상환경상에서 실제환경과 유사함을 갖는 데이터를 취득하였다. 생성한 데이터셋을 이용하여 기존의 새로운 시점을 생성하는 기법 중 하나인 다중 평면 영상(Multi Plane Image) 기반 합성기법을 통해 라이트필드 영상을 합성한다. 제안하는 네트워크는 단안비디오의 연속된 두개의 프레임으로부터 MPI 추정하는 네트워크와 입력영상의 깊이 정보를 추정하는 네트워크로 구성되어 있다.

  • PDF

Improving Spatial Resolution in Real-time for Ultra-thin Light Field Cameras (초박형 라이트필드 카메라의 실시간 분해능 향상 알고리즘 개발)

  • Kim, Donggun;Ryu, Jaekwan;Jo, Yongjin;Kim, Min H.
    • Journal of the Korea Computer Graphics Society
    • /
    • v.27 no.3
    • /
    • pp.25-29
    • /
    • 2021
  • 초박형 라이트필드 카메라 시스템은 이미지 센서 위에 렌즈 어레이를 부착하는 방식으로 만들어진다. 이러한 초박형 라이트필드 카메라는 하나의 이미지 센서를 여러 개의 sub-aperture가 나눠쓰는 방식으로 되어있어 개별 이미지의 분해능이 낮으며, sub-aperture 이미지들을 융합해 추가적인 분해능 향상이 수행되어야 한다. 본 연구에서는 초박형 라이트필드 카메라 시스템을 개발했으며, 개발된 카메라 시스템을 위한 실시간 분해능 향상 알고리즘을 개발, 실험을 통해 검증했다. 개발된 초박형 라이트필드 카메라는 두께 2mm, 24개(6×4)의 551×551 해상도의 sub-aperture로 구성되어 있으며, 임베디드 컴퓨팅 보드를 사용해 휴대가 가능하도록 제작되었다. 실시간 분해능 향상 알고리즘은 임베디드 컴퓨팅 보드의 GPU에서 병렬처리를 통해 라플라시안 피라미드 기반의 이미지 융합 알고리즘을 수행한다. 실험을 통해 검증한 결과로, 개발 시스템은 MTF50값이 평균 35% 정도 개선되었으며, 10.65fps의 처리속도로 실시간 처리가 가능함을 확인했다.

Object detection using a light field camera (라이트 필드 카메라를 사용한 객체 검출)

  • Jeong, Mingu;Kim, Dohun;Park, Sanghyun
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2021.10a
    • /
    • pp.109-111
    • /
    • 2021
  • Recently, computer vision research using light field cameras has been actively conducted. Since light field cameras have spatial information, various studies are being conducted in fields such as depth map estimation, super resolution, and 3D object detection. In this paper, we propose a method for detecting objects in blur images through a 7×7 array of images acquired through a light field camera. The blur image, which is weak in the existing camera, is detected through the light field camera. The proposed method uses the SSD algorithm to evaluate the performance using blur images acquired from light field cameras.

  • PDF

Developing an HDR Imaging Method for an Ultra-thin Light-Field Camera (초박형 라이트필드 카메라를 위한 HDR 이미징 알고리즘 개발)

  • Jiwoong Na;Jaekwan Ryu;Yongjin Jo;Min H. Kim
    • Journal of the Korea Computer Graphics Society
    • /
    • v.29 no.3
    • /
    • pp.13-19
    • /
    • 2023
  • 카메라 센서의 한계로 인하여 촬영 장면에 따라 한 번의 촬영으로 모든 영역의 밝기가 적절하게 촬영되지 않는 경우가 존재한다. 이러한 센서의 한계는 하이 다이나믹 레인지 이미징 기술을 통해서 극복이 가능하다. 한 장면을 다양한 노출 설정으로 여러 번 촬영하는 브라케팅은 움직이는 피사체를 찍기에 적절하지 않으며 촬영 시간이 길다는 단점이 있다. 본 연구는 한 번의 촬영으로 서로 다른 노출의 이미지를 얻을 수 있는 소형 라이트필드 카메라를 제안한다. 라이트필드 카메라는 대표적으로 두 가지 형태가 있는데, 첫 번째는 여러 대의 카메라를 어레이로 배치한 라이트필드 카메라 시스템이며, 두 번째는 대물렌즈 뒤에 마이크로 렌즈 어레이를 배치한 카메라이다. 본 연구에서 제작된 초박형 라이트필드 카메라는 센서 위에 마이크로 렌즈어레이가 부착되어있는 형태의 카메라로 각 렌즈 조리개 크기를 다르게 설계하여 한 번의 촬영으로 다른 노출의 촬영 결과를 얻을 수 있게 설계되었다. 촬영된 단일 영상들을 전처리 하여 이미지 품질을 높인 이후, HDR 알고리즘을 통해 각 단일 이미지들보다 다이나믹 레인지가 넓은 이미지를 획득하도록 구현하였다. 또한 노출 시간을 기준으로 설계된 식을 수정하여 조리개값에 따라 다른 가중치를 둘 수 있도록 바꾸었고, 이를 통해 단 한 번의 촬영을 통한 HDR 이미징을 구현하였다.

Deep Learning Framework for 5D Light Field Synthesis from Single Video (단안 비디오로부터의 5D 라이트필드 비디오 합성 프레임워크)

  • Bae, Kyuho;Ivan, Andre;Park, In Kyu
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.06a
    • /
    • pp.150-152
    • /
    • 2019
  • 본 논문에서는 기존의 연구를 극복하여 단일 영상이 아닌 단안 비디오로부터 5D 라이트필드 영상을 합성하는 딥러닝 프레임워크를 제안한다. 현재 일반적으로 사용 가능한 Lytro Illum 카메라 등은 초당 3프레임의 비디오만을 취득할 수 있기 때문에 학습용 데이터로 사용하기에 어려움이 있다. 이러한 문제점을 해결하기 위해 본 논문에서는 가상 환경 데이터를 구성하며 이를 위해 UnrealCV를 활용하여 사실적 그래픽 렌더링에 의한 데이터를 취득하고 이를 학습에 사용한다. 제안하는 딥러닝 프레임워크는 두 개의 입력 단안 비디오에서 $5{\times}5$의 각 SAI(sub-aperture image)를 갖는 라이트필드 비디오를 합성한다. 제안하는 네트워크는 luminance 영상으로 변환된 입력 영상으로부터 appearance flow를 추측하는 플로우 추측 네트워크(flow estimation network), appearance flow로부터 얻어진 두 개의 라이트필드 비디오 프레임 간의 optical flow를 추측하는 광학 플로우 추측 네트워크(optical flow estimation network)로 구성되어있다.

  • PDF

Adversarial Framework for Joint Light Field Super-resolution and Deblurring (라이트필드 초해상도와 블러 제거의 동시 수행을 위한 적대적 신경망 모델)

  • Lumentut, Jonathan Samuel;Baek, Hyungsun;Park, In Kyu
    • Journal of Broadcast Engineering
    • /
    • v.25 no.5
    • /
    • pp.672-684
    • /
    • 2020
  • Restoring a low resolution and motion blurred light field has become essential due to the growing works on parallax-based image processing. These tasks are known as light-field enhancement process. Unfortunately, only a few state-of-the-art methods are introduced to solve the multiple problems jointly. In this work, we design a framework that jointly solves light field spatial super-resolution and motion deblurring tasks. Particularly, we generate a straight-forward neural network that is trained under low-resolution and 6-degree-of-freedom (6-DOF) motion-blurred light field dataset. Furthermore, we propose the strategy of local region optimization on the adversarial network to boost the performance. We evaluate our method through both quantitative and qualitative measurements and exhibit superior performance compared to the state-of-the-art methods.