• Title/Summary/Keyword: HDR(high dynamic range)

Search Result 100, Processing Time 0.038 seconds

An Experimental Analysis of High Dynamic Range Algorithm for Image Signal Processor (Image Signal Processor 를 위한 High Dynamic Range Algorithm 성능 분석 연구)

  • Chan-Hwi Lim;Seok-In Hong
    • Annual Conference of KIPS
    • /
    • 2024.05a
    • /
    • pp.18-19
    • /
    • 2024
  • High Dynamic Range 는 디지털 카메라에 내장된 영상 보정 장치인 Image Signal Processor 의 주요 기능 중 하나로서, 영상의 밝고 어두운 정도의 범위를 넓혀, 피사체가 더 또렷하게 보이도록 한다. 초당 수십 프레임을 촬영하는 경우, 실시간 보정처리를 위해 ISP 에 사용되는 기능 및 알고리즘은 신속성과 효율성이 요구된다. 본 연구는 ISP 에 적합한 HDR 알고리즘을 선정을 목표로 하여, Histogram Equalization 과 Contrast Limited Adaptive Histogram Equalization 을 소개한다. 이어 해당 알고리즘들을 컴퓨터 프로그래밍으로 구현, CMOS 이미지 센서를 통해 추출한 raw image 를 보정하여 각 알고리즘의 성능을 검토하였다.

Developing an HDR Imaging Method for an Ultra-thin Light-Field Camera (초박형 라이트필드 카메라를 위한 HDR 이미징 알고리즘 개발)

  • Jiwoong Na;Jaekwan Ryu;Yongjin Jo;Min H. Kim
    • Journal of the Korea Computer Graphics Society
    • /
    • v.29 no.3
    • /
    • pp.13-19
    • /
    • 2023
  • 카메라 센서의 한계로 인하여 촬영 장면에 따라 한 번의 촬영으로 모든 영역의 밝기가 적절하게 촬영되지 않는 경우가 존재한다. 이러한 센서의 한계는 하이 다이나믹 레인지 이미징 기술을 통해서 극복이 가능하다. 한 장면을 다양한 노출 설정으로 여러 번 촬영하는 브라케팅은 움직이는 피사체를 찍기에 적절하지 않으며 촬영 시간이 길다는 단점이 있다. 본 연구는 한 번의 촬영으로 서로 다른 노출의 이미지를 얻을 수 있는 소형 라이트필드 카메라를 제안한다. 라이트필드 카메라는 대표적으로 두 가지 형태가 있는데, 첫 번째는 여러 대의 카메라를 어레이로 배치한 라이트필드 카메라 시스템이며, 두 번째는 대물렌즈 뒤에 마이크로 렌즈 어레이를 배치한 카메라이다. 본 연구에서 제작된 초박형 라이트필드 카메라는 센서 위에 마이크로 렌즈어레이가 부착되어있는 형태의 카메라로 각 렌즈 조리개 크기를 다르게 설계하여 한 번의 촬영으로 다른 노출의 촬영 결과를 얻을 수 있게 설계되었다. 촬영된 단일 영상들을 전처리 하여 이미지 품질을 높인 이후, HDR 알고리즘을 통해 각 단일 이미지들보다 다이나믹 레인지가 넓은 이미지를 획득하도록 구현하였다. 또한 노출 시간을 기준으로 설계된 식을 수정하여 조리개값에 따라 다른 가중치를 둘 수 있도록 바꾸었고, 이를 통해 단 한 번의 촬영을 통한 HDR 이미징을 구현하였다.

Super Resolution Reconstruction from Multiple Exposure Images (노출이 다른 다수의 입력 영상을 사용한 초해상도 영상 복원)

  • Lee, Tae-Hyoung;Ha, Ho-Gun;Lee, Cheol-Hee;Ha, Yeong-Ho
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.49 no.1
    • /
    • pp.73-80
    • /
    • 2012
  • Recent research efforts have focused on combining high dynamic range imaging with super-resolution reconstruction to enhance both the intensity range and resolution of images. The processes developed to date start with a set of multiple-exposure input images with low dynamic range (LDR) and low resolution (LR), and require several procedural steps: conversion from LDR to HDR, SR reconstruction, and tone mapping. Input images captured with irregular exposure steps have an impact on the quality of the output images from this process. In this paper, we present a simplified framework to replace the separate procedures of previous methods that is also robust to different sets of input images. The proposed method first calculates weight maps to determine the best visible parts of the input images. The weight maps are then applied directly to SR reconstruction, and the best visible parts for the dark and highlighted areas of each input image are preserved without LDR-to-HDR conversion, resulting in high dynamic range. A new luminance control factor (LCF) is used during SR reconstruction to adjust the luminance of input images captured during irregular exposure steps and ensure acceptable luminance of the resulting output images. Experimental results show that the proposed method produces SR images of HDR quality with luminance compensation.

Lightweight Attention-Guided Network with Frequency Domain Reconstruction for High Dynamic Range Image Fusion

  • Park, Jae Hyun;Lee, Keuntek;Cho, Nam Ik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.205-208
    • /
    • 2022
  • Multi-exposure high dynamic range (HDR) image reconstruction, the task of reconstructing an HDR image from multiple low dynamic range (LDR) images in a dynamic scene, often produces ghosting artifacts caused by camera motion and moving objects and also cannot deal with washed-out regions due to over or under-exposures. While there has been many deep-learning-based methods with motion estimation to alleviate these problems, they still have limitations for severely moving scenes. They also require large parameter counts, especially in the case of state-of-the-art methods that employ attention modules. To address these issues, we propose a frequency domain approach based on the idea that the transform domain coefficients inherently involve the global information from whole image pixels to cope with large motions. Specifically we adopt Residual Fast Fourier Transform (RFFT) blocks, which allows for global interactions of pixels. Moreover, we also employ Depthwise Overparametrized convolution (DO-conv) blocks, a convolution in which each input channel is convolved with its own 2D kernel, for faster convergence and performance gains. We call this LFFNet (Lightweight Frequency Fusion Network), and experiments on the benchmarks show reduced ghosting artifacts and improved performance up to 0.6dB tonemapped PSNR compared to recent state-of-the-art methods. Our architecture also requires fewer parameters and converges faster in training.

  • PDF

3D Analysis of Scene and Light Environment Reconstruction for Image Synthesis (영상합성을 위한 3D 공간 해석 및 조명환경의 재구성)

  • Hwang, Yong-Ho;Hong, Hyun-Ki
    • Journal of Korea Game Society
    • /
    • v.6 no.2
    • /
    • pp.45-50
    • /
    • 2006
  • In order to generate a photo-realistic synthesized image, we should reconstruct light environment by 3D analysis of scene. This paper presents a novel method for identifying the positions and characteristics of the lights-the global and local lights-in the real image, which are used to illuminate the synthetic objects. First, we generate High Dynamic Range(HDR) radiance map from omni-directional images taken by a digital camera with a fisheye lens. Then, the positions of the camera and light sources in the scene are identified automatically from the correspondences between images without a priori camera calibration. Types of the light sources are classified according to whether they illuminate the whole scene, and then we reconstruct 3D illumination environment. Experimental results showed that the proposed method with distributed ray tracing makes it possible to achieve photo-realistic image synthesis. It is expected that animators and lighting experts for the film and animation industry would benefit highly from it.

  • PDF

Implementation of MultiBand-Digital Passive InterModulation Distortion Measurement System (다중대역-디지탈 수동혼변조왜곡 측정시스템 개발)

  • Park, Ki-Won;Shin, Dong-Whan;Rhee, Young-Chul
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.11 no.12
    • /
    • pp.1193-1200
    • /
    • 2016
  • In this paper, we developed a system for measuring a passive intermodulation distortion signal of the mobile communication RF module having a wide band characteristic. The Broadband was designed to represent the characteristics of the receiver to meet the low noise characteristics and wideband characteristics in the RF receiver were to represent a wide dynamic range(high dynamic range)from the RF receiving end. PIMD designed passive intermodulation distortion signal measured by applying the FPGA / DSP in the system was measured to record the program on the PC. Variable up to 650MHz-2700MHz showed up to-138dBc measured PIMD3.

HDR 비디오의 플리커 저감효과를 위한 톤 안정화 알고리즘 연구

  • Kim, Jeong-Tae;Lee, Hyeon-Gyu;Lee, Sang-Cheol
    • Information and Communications Magazine
    • /
    • v.33 no.9
    • /
    • pp.24-29
    • /
    • 2016
  • 영상의 화질 개선과 높은 대비를 얻기 위한 방법으로 최근 HDR(High Dynamic Range)영상을 디스플레이 장치에 매핑시키기 위한 톤매핑 기술이 널리 이용되고 있다. 하지만 단일프레임이 아닌 다중프레임으로 구성되어 있는 비디오에 이러한 톤매핑기술을 적용할 경우, 프레임 간 명암도 차이로 인하여 시각적으로 깜빡이는 현상인 플리커(Flicker)가 발생할 수 있으며, 이로 인해 사용자의 눈에 피로도를 증가시키고, 영상의 품질이 감소할 수 있다. 본 논문에서는 플리커 판별을 위해 영상의 명암도 측정법을 제안하여, 프레임별 명암값을 학습하기 위한 다양한 특징벡터를 정의한다. 학습된 SVM(Support Vector Machine) 분류기를 이용하여 플리커 발생 프레임을 선별하고 플리커 제거를 위한 톤 안정화 방법을 제안한다. 실험에서 제안한 방법을 통해 86.7%의 플리커를 검출하였으며, 프레임 간 톤 안정화 알고리즘의 최적화를 통해 플리커 발생빈도를 69.8% 감소시켰다.

Implementation of Progressive Radiosity on GPU for Image based Relighting (영상기반 재조명을 위한 GPU 기반 래디오시티 구현)

  • Kim, Jun-Hwan;Hwang, Yong-Ho;Hong, Hyun-Ki
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.988-993
    • /
    • 2007
  • 전역조명기법(global illumination)중에서 난반사(diffuse reflection) 객체들 사이의 관계를 효과적으로 표현하는 래디오시티(radiosity)방법은 객체들 사이의 에너지 교환에 에너지 평형 상태를 모델링 한다. 그러나 래디오시티는 많은 계산량으로 인해 실시간 활용에는 적합하지 않았다. 최근 장면생성에 걸리는 소요시간을 크게 단축시킬 수 있는 비용대비 고성능의 그래픽스 하드웨어(GPU)를 이용한 방법들이 제안되고 있다. 객체들 사이에서 교환되는 에너지는 래디언스(radiance)로 표현이 가능하며, 이러한 래디언스는 대상 장면에서 취득한 HDR(High Dynamic Range) 영상으로부터 래디언스 맵을 구성해서 얻을 수 있다. 이를 기반으로 대상장면의 조명환경을 구성하면 대상장면의 복잡도와는 별개로 빠르고 사실적인 합성장면을 생성할 수 있다. 본 논문에서는 G. Coombe 등이 제안한 점진적 세분(progressive refinement) 알고리즘을 수정하여 래디언스 맵을 이용할 수 있도록 하였으며, 각 텍셀(texel)설정 및 보간(interpolation) 적용 등에 따른 실험 결과를 얻고 분석하였다. 구현된 방법은 이후 영상기반 재조명과 그래픽스 하드웨어를 이용한 영상합성 기술로 영화, 애니메이션, 가상현실, 게임 등에 다양하게 활용될 예정이다.

  • PDF

Enhanced Fast Luma Adjustment for High Dynamic Range Television Broadcasting (고-휘도 텔레비전 방송을 위한 개선된 빠른 휘도 조절 기법)

  • Oh, Kyung Seok;Kim, Yong-Goo
    • Journal of Broadcast Engineering
    • /
    • v.23 no.2
    • /
    • pp.302-315
    • /
    • 2018
  • Highly non-linear electro-optical transfer function of the Perceptual Quantizer was approximated by a truncated Taylor series, resulting in a closed form solution for luma adjustment. This previous solution is fast and quite suitable for the hardware implementation of luma adjustment, but the approximation error becomes relatively large in the range of 600~3,900 cd/m2 linear light. In order to reduce such approximation error, we propose a new linear model, for which a correction is performed on the position and the slope of line based on the scope of approximation. In order to verify the approximation capability of the proposed linear model, a comparative study on the luma adjustment schemes was conducted using various high dynamic range test video sequences. Via the comparative study, we identified a significant performance enhancement over the previous fast luma adjustment scheme, where a 4.65dB of adjusted luma t-PSNR gain was obtained for a test sequence having a large portion of saturated color pixels.

Color Correction Method for High Dynamic Range Image Using Dynamic Cone Response Function (동적 원추 세포 응답을 이용한 높은 동적 폭을 갖는 영상 색상 보정 방법)

  • Choi, Ho-Hyoung;Yun, Byoung-Ju
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.49 no.9
    • /
    • pp.104-112
    • /
    • 2012
  • Recently, the HDR imaging technique that mimics human eye is incorporated with LCD/LED display devices to deal with mismatch between the real world scene and the displayed image. However, HDR image has a veiling glare limit as well as a scale of the local contrast problem. In order to overcome these problems, several color correction methods, CSR(center/surround Retinex), MSR (Multi-Scale Retinex), tone-mapping method, iCAM06 and so on, are proposed. However, these methods have a dominated color throughout the entire resulting image after performing color correction. Accordingly, this paper presents a new color correction method using dynamic cone response function. The proposed color correction method consists of tone-mapping and dynamic cone response. The tone-mapping is obtained by using a linear interpolation between chromatic and achromatic. Thereafter, the resulting image is processed through the dynamic cone response function, which estimates the dynamic responses of human visual system as well as deals with mismatch between the real scene image and the rendered image. The experiment results show that the proposed method yields better performance of color correction over the conventional methods.