• 제목/요약/키워드: frame difference map

검색결과 18건 처리시간 0.027초

차 영상 맵 기반의 능동 윤곽선 모델을 이용한 이동 물체 추적 (Tracking Moving Objects Using an Active Contour Model Based on a Frame Difference Map)

  • 이부환;전기준
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 신호처리소사이어티 추계학술대회 논문집
    • /
    • pp.153-156
    • /
    • 2003
  • This paper proposes a video tracking method for a deformable moving object using an active contour model. In order to decide the convergent directions of the contour points automatically, a new energy function based on a frame difference map and an updating rules of the frame difference map are presented. Experimental results on a set of synthetic and real image sequences showed that the proposed method can fully track a speedy deformable object while extracting the boundary of the object exactly in every frame.

  • PDF

차 영상 맵 기반의 능동 윤곽선 모델을 이용한 이동 물체 추적 (Tracking a Moving Object Using an Active Contour Model Based on a Frame Difference Map)

  • 이부환;김도종;최일;전기준
    • 대한전자공학회논문지SP
    • /
    • 제41권5호
    • /
    • pp.153-163
    • /
    • 2004
  • 본 논문은 연속 영상에서 능동 윤곽선 모델을 이용하여 불규칙하게 형태가 변하거나 이동 속도가 빠른 물체를 추적하는 새로운 방법을 제안한다. 변형 가능한 형상을 가지는 이동 물체의 경계를 정확하게 추출하기 위해서는 윤곽점들의 국부적인 수렴 방향을 결정하는 것이 매우 중요하다. 이를 위해서, 차 영상 맵을 이용하는 방향성 에너지 항을 Greedy 알고리듬에 추가하여 능동 윤곽선 모델에서 이용되는 새로운 에너지 함수를 정의하였다. 부가적으로 윤곽점들을 안정적으로 수렴시키기 위하여 차 영상 맵의 갱신 규칙을 고안하였다. 실제 연속 영상을 이용한 실험 결과로부터 제안하는 방법은 불규칙하게 형태가 변하거나 이동 속도가 빠른 물체를 효과적으로 추적하는 동시에 그 물체의 경계선이 매 프레임마다 정확하게 추정됨을 보여 주었다.

회화적 애니메이션에서 브러시 스트로크의 시간적 일관성을 유지하기 위한 모션 맵 생성 (Motion Map Generation for Maintaining the Temporal Coherence of Brush Strokes in the Painterly Animation)

  • 박영섭;윤경현
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권8호
    • /
    • pp.536-546
    • /
    • 2006
  • 회화적 애니메이션은 비디오 동영상을 이용하여 손으로 그린 듯 한 회화적 느낌을 표현하는 방법이며 프레임 간 브러시 스트로크의 시간적 일관성을 유지하는 것이 가장 중요한 요소이다. 본 논문에서는 프레임 간 브러시 스트로크의 일관성을 유지하기 위한 모션 맵 생성을 제안한다. 모션 맵이란 모션이 발생한 에지 위치를 기준으로 해서 모션 정보를 더함으로써 프레임 간 에지가 움직이는 영역을 말한다. 본 논문에서 사용한 모션 추정 방법은 광류 (optical flow) 방법과 블록 기반 방법을 이용하였으며 여러 가지 모션 추정 방법을 통해서 얻은 모션 정보 ( 방향과 크기 ) 중 신호 대 잡음비 (PSNR)가 가장 큰 방법을 최종 모션 정보로 선택하여 모션 맵을 생성하였다. 생성된 모션 맵은 다음 프레임의 덧칠 부분을 결정해 준다. 손으로 그린 듯 한 회화적 느낌을 표현하면서도 프레임 간 브러시 스트로크의 시간적 일관성을 유지하기 위해서 브러시 스트로크의 방향을 결정해주는 강한 에지에 대해서만 모션 정보를 적용하였다. 또한 다중노출기법과 소스 영상과 캔버스간의 차이 맵을 이용하여 프레임 간 플릭커링 현상을 줄이고자 하였다. 구조적 일관성을 유지하기 위해 국부 기울기 보간법 (local gradient interpolation)을 이용하여 브러시 스트로크 간 방향의 일관성을 유지하였다.

Real-Time 2D-to-3D Conversion for 3DTV using Time-Coherent Depth-Map Generation Method

  • Nam, Seung-Woo;Kim, Hye-Sun;Ban, Yun-Ji;Chien, Sung-Il
    • International Journal of Contents
    • /
    • 제10권3호
    • /
    • pp.9-16
    • /
    • 2014
  • Depth-image-based rendering is generally used in real-time 2D-to-3D conversion for 3DTV. However, inaccurate depth maps cause flickering issues between image frames in a video sequence, resulting in eye fatigue while viewing 3DTV. To resolve this flickering issue, we propose a new 2D-to-3D conversion scheme based on fast and robust depth-map generation from a 2D video sequence. The proposed depth-map generation algorithm divides an input video sequence into several cuts using a color histogram. The initial depth of each cut is assigned based on a hypothesized depth-gradient model. The initial depth map of the current frame is refined using color and motion information. Thereafter, the depth map of the next frame is updated using the difference image to reduce depth flickering. The experimental results confirm that the proposed scheme performs real-time 2D-to-3D conversions effectively and reduces human eye fatigue.

Visual SLAM을 통해 획득한 공간 지도의 완성도 평가 시스템 (An Evaluation System to Determine the Completeness of a Space Map Obtained by Visual SLAM)

  • 김한솔;감제원;황성수
    • 한국멀티미디어학회논문지
    • /
    • 제22권4호
    • /
    • pp.417-423
    • /
    • 2019
  • This paper presents an evaluation system to determine the completeness of a space map obtained by a visual SLAM(Simultaneous Localization And Mapping) algorithm. The proposed system consists of three parts. First, the proposed system detects the occurrence of loop closing to confirm that users acquired the information from all directions. Thereafter, the acquired map is divided with regular intervals and is verified whether each area has enough map points to successfully estimate users' position. Finally, to check the effectiveness of each map point, the system checks whether the map points are identifiable even at the location where there is a large distance difference from the acquisition position. Experimental results show that space maps whose completeness is proven by the proposed system has higher stability and accuracy in terms of position estimation than other maps that are not proven.

새로운 VO, HO 지도를 이용한 차량 주행환경의 수직 장애물 추출 (Novel VO and HO Map for Vertical Obstacle Detection in Driving Environment)

  • 백승해;박순용
    • 전자공학회논문지
    • /
    • 제50권2호
    • /
    • pp.163-173
    • /
    • 2013
  • 본 논문에서는 스테레오 카메라를 이용하여 차량 주행 중에 만날 수 있는 도로상의 수직형 돌발 장애물과 고정 장애물을 자동으로 추출하는 기술을 제안한다. 연속된 스테레오 영상 프레임들과 각 프레임의 좌, 우 영상 사이의 차영상들을 이용하여 도로 영상의 관심영역에 대한 시차를 획득하고, 기존 수직(V) 및 수평(H) 시차지도(disparity map)와는 달리 물체의 실제 크기에 비례하는 VO(Vertical Object) 및 HO(Horizontal Object)라는 새로운 지도를 생성한다. VO 및 HO 지도를 이용하여 추출할 물체의 후보를 선정하고 선정된 후보영역간의 병합, 정제를 통하여 최종적으로 도로 상의 수직 물체들을 추출하였다.

REAL-TIME DETECTION OF MOVING OBJECTS IN A ROTATING AND ZOOMING CAMERA

  • Li, Ying-Bo;Cho, Won-Ho;Hong, Ki-Sang
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.71-75
    • /
    • 2009
  • In this paper, we present a real-time method to detect moving objects in a rotating and zooming camera. It is useful for camera surveillance of fixed but rotating camera, camera on moving car, and so on. We first compensate the global motion, and then exploit the displaced frame difference (DFD) to find the block-wise boundary. For robust detection, we propose a kind of image to combine the detections from consecutive frames. We use the block-wise detection to achieve the real-time speed, except the pixel-wise DFD. In addition, a fast block-matching algorithm is proposed to obtain local motions and then global affine motion. In the experimental results, we demonstrate that our proposed algorithm can handle the real-time detection of common object, small object, multiple objects, the objects in low-contrast environment, and the object in zooming camera.

  • PDF

휘도와 수직 위치 정보를 이용한 입체 변환 알고리즘 구현 (Implementation of Real-time Stereoscopic Image Conversion Algorithm Using Luminance and Vertical Position)

  • 윤종호;최명렬
    • 한국산학기술학회논문지
    • /
    • 제9권5호
    • /
    • pp.1225-1233
    • /
    • 2008
  • 본 논문은 2D/3D 변환 알고리즘을 제안하였다. 제안된 알고리즘은 2차원 영상의 단일 프레임을 이용한 것으로 실시간 처리가 가능한 알고리즘이다. 제안된 알고리즘은 하나의 프레임에서 객체의 수직 위치 정보를 이용하여 깊이 지도를 생성한다. 실시간 처리와 하드웨어 복잡도를 개선하기 위해 영상 샘플링, 표준 휘도화를 이용한 객체 분할, 그리고 경계 스캔을 이용한 깊이지도 생성 등을 수행하였다. 동영상, 정지영상 모두 적용이 가능하며, 수직 위치 정보를 이용하므로 원거리 영상 혹은 풍경, 파노라마 사진과 같은 영상도 효과적인 입체 효과를 보여줄 수 있다. 제안된 알고리즘은 객체의 움직임 방향 혹은 속도 또는 장면 전환 등에 제약 없이 입체 효과가 가능하다. 제안 알고리즘 검증은 시각적인 방법과 APD(Absolute Parallax Difference)를 이용하여 MTD (Modified Time Difference)방식과의 비교를 수행하였다.

몰입형 화상 회의를 위한 강건한 객체 추출 방법 (A Robust Object Extraction Method for Immersive Video Conferencing)

  • 안일구;오대영;김재광;김창익
    • 대한전자공학회논문지SP
    • /
    • 제48권2호
    • /
    • pp.11-23
    • /
    • 2011
  • 본 논문에서 우리는 실시간 성능이 요구되는 비디오 화상회의 시스템을 위해 사전정보 없이 정확하면서도 완전히 자동으로 비디오 객체를 추출하는 방법을 제안한다. 제안하는 방법은 두 단계로 이루어진다: 1) 초기 프레임에서의 정확한 객체 추출, 2) 객체 추출 결과를 이용한 그 이후 프레임에서의 실시간 객체 추출. 초기 프레임에서의 객체 추출은 초기 프레임들의 차영상으로부터 구한 에지들을 누적시킨 누적 에지맵 생성으로부터 시작된다. 즉, 객체의 초기 움직임의 누적으로부터 객체의 형상을 추측하고자 하는 것이다. 이 추측된 형상은 그래프 컷(Graph-Cut) 영상 분할을 위한 객체 씨드(seeds)와 배경 씨드를 할당하는데 이용된다. 그래프 컷 기반 객체 추출 이후 프레임부터는 객체 추출 결과와 연속된 프레임의 차영상의 에지맵을 이용하여 실시간 객체 추출이 수행된다. 실험결과를 통해 제안하는 방법이 이전 연구들과 달리 VGA 크기의 비디오에 대해서도 실시간으로 동작함을 보이고, 따라서 몰입적인 비디오 화상회의 시스템의 개발을 위한 유용한 도구임을 보이고자 한다.

드론의 안전비행을 위한 국부 및 전역지도 인터페이스 (Local and Global Navigation Maps for Safe UAV Flight)

  • 유상형;전종우;조광수
    • 로봇학회논문지
    • /
    • 제13권2호
    • /
    • pp.113-120
    • /
    • 2018
  • To fly a drone or unmanned aerial vechicle(UAV) safely, its pilot needs to maintain high situation awareness of its flight space. One of the important ways to improve the flight space awareness is to integrate both the global and the local navigation map a drone provides. However, the drone pilot often has to use the inconsistent reference frames or perspectives between the two maps. In specific, the global navigation map tends to display space information in the third-person perspective, whereas the local map tends to use the first-person perspective through the drone camera. This inconsistent perspective problem makes the pilot use mental rotation to align the different perspectives. In addition, integrating different dimensionalities (2D vs. 3D) of the two maps may aggravate the pilot's cognitive load of mental rotation. Therefore, this study aims to investigate the relation between perspective difference ($0^{\circ}$, $90^{\circ}$, $180^{\circ}$, $270^{\circ}$) and the map dimensionality matches (3D-3D vs. 3D-2D) to improve the way of integrating the two maps. The results show that the pilot's flight space awareness improves when the perspective differences are smaller and also when the dimensionalities between the two maps are matched.