• 제목/요약/키워드: flickering artifacts

검색결과 10건 처리시간 0.025초

비디오에서 플리커 현상이 없는 효율적인 안개제거 (An Efficient Video Dehazing to Without Flickering Artifacts)

  • 김용민;박기태;이동석;최원주;문영식
    • 전자공학회논문지
    • /
    • 제51권8호
    • /
    • pp.51-57
    • /
    • 2014
  • 본 논문은 비디오에서 안개 제거로 인한 플리커링(깜빡임) 현상을 효율적으로 제거하기 위한 방법을 제시한다. 단일 영상에서 사용하는 안개 제거 방법을 비디오 시퀀스에 그대로 적용하면, 안개제거를 위한 대기값이 매 프레임 마다 개별적으로 계산되기 때문에 플리커링 현상이 발생할 수 있다. 기존의 플리커링 현상을 제거하는 방법으로는 인접한 프레임간의 전달맵의 높은 상관관계 계수를 이용하는 방법이 존재한다. 하지만, 비디오 시퀀스에서 빈번하게 변경되는 대기값에 의해서도 플리커링 현상이 발생할 수 있기 때문에 인접한 프레임간의 상관관계를 효율적으로 고려한 대기값 추정방법이 필요하다. 본 논문에서는 안정적인 대기값 추정을 위해 평균값을 이용해 플리커링 현상을 제거하는 효율적인 안개 제거 기법을 제안한다. 실험결과 제안하는 방법이 기존의 방법보다 플리커링 현상을 줄여 좋은 성능결과를 보여 주는 것을 확인하였다.

급격한 조명 변화에 강건한 동영상 대조비 개선 방법 (Robust Method of Video Contrast Enhancement for Sudden Illumination Changes)

  • 박진욱;문영식
    • 전자공학회논문지
    • /
    • 제52권11호
    • /
    • pp.55-65
    • /
    • 2015
  • 동영상 대조비 개선 과정에서 단일 영상을 위해 연구된 대조비 개선 방법들을 사용할 수 있지만, 동영상의 연속성이 고려되지 않으면 원본 동영상에 없는 깜박임을 야기할 수 있다. 또한 동영상의 연속성을 고려하는 경우, 깜박임은 억제할 수 있지만 연속성 때문에 조명의 급격한 변화할 때 불필요한 페이드인/아웃(fade-in/out) 현상이 발생하는 단점이 발생할 수 있다. 본 논문에서는 깜박임과 페이드인/아웃 현상 없이 동영상의 대조비를 개선하는 방법을 제안한다. 제안하는 방법은 Fast Gray-Level Grouping(FGLG)를 사용하여 각 프레임의 대조비를 개선하고, 깜박임을 억제하기 위해 Exponential smoothing 필터를 사용한다. 불필요한 페이드인/아웃 현상을 억제하기 위해서는 S형 함수로 Exponential smoothing 필터의 평활화 비율을 프레임 별로 적응적으로 계산하여 적용한다. 실험에서 제안하는 방법과 기존의 방법들은 6가지 측정 기준을 적용하여 성능을 비교 및 분석한다. 실험 결과, 제안하는 방법은 영상 형태 보존을 측정하는 MSSIM과 깜박임을 측정하는 Flickering score에서 정량적으로 가장 높은 결과를 보여주었으며, 시각적인 품질 비교를 통해 조명 변화에 따른 적응적인 개선을 정성적 결과로 입증하였다.

주기적 I-프레임 구조의 H.264 부호화 동영상을 위한 플리커링 측정 알고리즘 (Measurement of Flickering Artifact for H.264 with Periodic I-Frame Structure)

  • 임종민;강동욱;정경훈
    • 방송공학회논문지
    • /
    • 제15권3호
    • /
    • pp.321-331
    • /
    • 2010
  • 멀티미디어 동영상의 부호화 알고리즘은 기본적으로 손실 부호화 방식이기 때문에 압축된 동영상에는 불가피하게 화질의 열화 요인이 포함된다. 플리커링(flickering)은 시간 영역에서의 대표적인 부호화 잡음으로서 부호화 비트율을 제어하기 위해서 양자화 파라미터를 변동하는 과정에서 연속되는 프레임들의 화질이 일정치 않음으로 인해 발생하는 현상이다. 본 논문에서는 주기적으로 I 프레임이 삽입되는 GOP(Group of Picture) 구조를 사용하는 환경에서 동영상의 시공간적 특성에 따른 플리커링 현상을 분석하고 FR(Full Reference) 기반의 플리커링 측정 알고리듬을 제안한다. 플리커링 현상은 중간 화질 영역에서 중요하게 고려해야 할 부호화 잡음이며, 프레임 내의 세밀함의 정도, 움직임의 정도, 객체의 크기, 카메라 파라미터 등에 영향을 받음을 알 수 있었다. 제안한 플리커링 측정 알고리즘은 다양한 특성의 영상에 대해 인간의 시각특성과 부합되는 우수한 결과를 보였다.

An efficient Video Dehazing Algorithm Based on Spectral Clustering

  • Zhao, Fan;Yao, Zao;Song, Xiaofang;Yao, Yi
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권7호
    • /
    • pp.3239-3267
    • /
    • 2018
  • Image and video dehazing is a popular topic in the field of computer vision and digital image processing. A fast, optimized dehazing algorithm was recently proposed that enhances contrast and reduces flickering artifacts in a dehazed video sequence by minimizing a cost function that makes transmission values spatially and temporally coherent. However, its fixed-size block partitioning leads to block effects. The temporal cost function also suffers from the temporal non-coherence of newly appearing objects in a scene. Further, the weak edges in a hazy image are not addressed. Hence, a video dehazing algorithm based on well designed spectral clustering is proposed. To avoid block artifacts, the spectral clustering is customized to segment static scenes to ensure the same target has the same transmission value. Assuming that edge images dehazed with optimized transmission values have richer detail than before restoration, an edge intensity function is added to the spatial consistency cost model. Atmospheric light is estimated using a modified quadtree search. Different temporal transmission models are established for newly appearing objects, static backgrounds, and moving objects. The experimental results demonstrate that the new method provides higher dehazing quality and lower time complexity than the previous technique.

3차원배치설계에 대한 어닐링법의 적용 (Application of the Annealing Method to the Three Dimensional Layout Design)

  • 장승호;최명진
    • 한국시뮬레이션학회논문지
    • /
    • 제10권2호
    • /
    • pp.1-14
    • /
    • 2001
  • The layout design of component plays an important role in the design and usability of many engineering products. The Engineering artifacts of today are becoming increasingly complicated. The simulated annealing method has been applied effectively to the layout and packing problems of wafer. The main characteristics of simulated annealing method is that an optimum can be obtained from the many local optimums by controlling the temperature and introducing the statistic flickering. The objective of this study is to suggest a method to apply the simulated annealing method to the three dimensional layout design of submergible boat which has multiple constraint conditions and evaluation criteria. We describe an approach to define cost function, constraints and generate layouts using a computer. In this research three dimensional LAYout Design Optimization Program(LAYDOP ver.2) has been developed. The layout result(the total value of evaluation criteria) designed by a human layout expert has been improved by 31.0% using this program.

  • PDF

실시간 고해상도 동영상 스티칭을 위한 고속 콘텐츠 보존 시접선 추정 방법 (Fast Content-preserving Seam Estimation for Real-time High-resolution Video Stitching)

  • 김태하;양성엽;강병근;이희경;서정일;이의진
    • 방송공학회논문지
    • /
    • 제25권6호
    • /
    • pp.1004-1012
    • /
    • 2020
  • 본 논문은 실시간 고해상도 비디오 스티칭을 위한 새로운 콘텐츠 보존 시접선 추정 알고리즘을 제안한다. 시접선 추정은 영상 스티칭 후 중첩 영역에서의 시각적 왜곡을 최소화하기 위한 요소 기술 중 하나이다. 기존 시접선 추정 알고리즘들은 요구되는 연산량과 메모리 사용량이 높은 최적화 알고리즘에 기반을 두고 있음에도 불구하고, 추정된 시접선이 객체를 피하지 못해 객체를 자르거나 반복하는 현상을 유발한다. 또한, 프레임 간의 추정된 시접선의 시간적 일관성이 부족하여 불필요한 잦은 변동이 발생한다. 따라서, 본 논문에서는 직선의 시접선을 활용하여 효율적이고 시간적 일관성이 있으며, 심층신경망 기반 객체 세그먼테이션 알고리즘을 활용하여 객체를 피하여 시접선을 형성하는 시접선 추정 알고리즘을 제안하고자 한다. 고해상도 360° 다중 시점 동영상을 사용한 실험을 통해 제안하는 알고리즘이 기존 알고리즘보다 짧은 시간에 시각적으로 유사한 360VR 동영상을 생성하는 시접선을 추정함을 확인하였다.

3차원 콘텐츠 제작을 위한 깊이 정보 획득 기술 (Depth Acquisition Techniques for 3D Contents Generation)

  • 장우석;호요성
    • 스마트미디어저널
    • /
    • 제1권3호
    • /
    • pp.15-21
    • /
    • 2012
  • 깊이 정보의 획득은 다양한 3차원 콘텐츠 제작을 위해서 필수적이다. 깊이 획득은 깊이 정보를 어떻게 획득하느냐에 따라서 크게 두 가지 방식(능동적, 수동적 깊이 센서 방식)으로 나뉜다. 본 논문에서는 몇 가지 측면에서 깊이 정보를 획득하는 방법을 살펴보고, 이들 방식을 통해 깊이를 획득하는 방법뿐 아니라, 각 방식의 약점을 보완하기 위해 두 가지 접근 방법을 혼합하여 깊이 정보를 획득하는 방법도 제시한다. 또한 3차원 비디오에서 매 화면마다 독립적으로 깊이 정보를 추정하여 생기는 깜빡거림 현상과 시각적 피로도를 줄이기 위해서 시간적 상관도를 고려하여 정합 에너지 함수를 정의하는 방법과 후처리하는 방법도 제시한다.

  • PDF

원격 영상회의 시스템을 위한 깊이 영상 후처리 기술 (Depth Video Post-processing for Immersive Teleconference)

  • 이상범;양승준;호요성
    • 한국통신학회논문지
    • /
    • 제37권6A호
    • /
    • pp.497-502
    • /
    • 2012
  • 본 논문에서는 IPTV 환경의 원격 영상회의에서 화자 간의 자연스러운 시선 맞춤(eye contact)을 위한 깊이영상의 후처리 필터링 기술을 제안한다. 제안하는 방법은 깊이탐색 기술과 영상합성 기술을 사용해서 화자의 정면시점 영상을 합성한다. 하지만, 깊이영상을 탐색하는 과정에서 객체의 경계 불일치, 시간적 상관도 저하 등의 문제가 발생하기 때문에 이를 해결하기 위해 시간축으로 확장된 결합형 양방향 필터(joint bilateral filter)를 제안한다. 실험 결과를 통해, 제안하는 깊이영상의 후처리 필터링 기술이 정면시점 합성영상의 화질을 향상시켰고, 원격의 화자와 시선 맞춤이 기능한 것을 확인했다.

Real-Time Visible-Infrared Image Fusion using Multi-Guided Filter

  • Jeong, Woojin;Han, Bok Gyu;Yang, Hyeon Seok;Moon, Young Shik
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권6호
    • /
    • pp.3092-3107
    • /
    • 2019
  • Visible-infrared image fusion is a process of synthesizing an infrared image and a visible image into a fused image. This process synthesizes the complementary advantages of both images. The infrared image is able to capture a target object in dark or foggy environments. However, the utility of the infrared image is hindered by the blurry appearance of objects. On the other hand, the visible image clearly shows an object under normal lighting conditions, but it is not ideal in dark or foggy environments. In this paper, we propose a multi-guided filter and a real-time image fusion method. The proposed multi-guided filter is a modification of the guided filter for multiple guidance images. Using this filter, we propose a real-time image fusion method. The speed of the proposed fusion method is much faster than that of conventional image fusion methods. In an experiment, we compare the proposed method and the conventional methods in terms of quantity, quality, fusing speed, and flickering artifacts. The proposed method synthesizes 57.93 frames per second for an image size of $320{\times}270$. Based on our experiments, we confirmed that the proposed method is able to perform real-time processing. In addition, the proposed method synthesizes flicker-free video.

3차원 영상 생성을 위한 깊이맵 추정 및 중간시점 영상합성 방법 (Depth Estimation and Intermediate View Synthesis for Three-dimensional Video Generation)

  • 이상범;이천;호요성
    • 한국통신학회논문지
    • /
    • 제34권10B호
    • /
    • pp.1070-1075
    • /
    • 2009
  • 본 논문에서는 3차원 영상 생성을 위한 깊이맵 추정 및 중간시점 영상합성 방법을 제안한다. 제안하는 방법은 깊이맵의 시간적 상관도를 향상시키기 위해 깊이값을 추정하는 과정에서 기존의 정합 함수에 이전 프레임에서 추정한 깊이값을 고려하는 가중치 함수를 추가한다. 또한, 중간시점 영상을 합성하는 과정에서 발생하는 경계 잡음을 제거하는 방법을 제안한다. 중간시점 영상을 합성할 때, 비폐색 영역을 합성한 후 경계 잡음이 발생할 수 있는 영역을 비폐색 (disocclusion) 영역을 따라 구별한 다음, 잡음이 없는 참조 영상을 이용하여 경계 잡음을 처리한다. 컴퓨터 모의실험 결과를 통해 깊이맵의 시간적 상관도를 향상시켜서 사용자의 시각적 피로감을 줄일 수 있었고, 배경 잡음이 사라진 자연스러운 중간시점 영상을 생성할 수 있었다.