• 제목/요약/키워드: Camera motion

검색결과 1,055건 처리시간 0.035초

Camera Motion Parameter Estimation Technique using 2D Homography and LM Method based on Invariant Features

  • Cha, Jeong-Hee
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제5권4호
    • /
    • pp.297-301
    • /
    • 2005
  • In this paper, we propose a method to estimate camera motion parameter based on invariant point features. Typically, feature information of image has drawbacks, it is variable to camera viewpoint, and therefore information quantity increases after time. The LM(Levenberg-Marquardt) method using nonlinear minimum square evaluation for camera extrinsic parameter estimation also has a weak point, which has different iteration number for approaching the minimal point according to the initial values and convergence time increases if the process run into a local minimum. In order to complement these shortfalls, we, first propose constructing feature models using invariant vector of geometry. Secondly, we propose a two-stage calculation method to improve accuracy and convergence by using homography and LM method. In the experiment, we compare and analyze the proposed method with existing method to demonstrate the superiority of the proposed algorithms.

A Defocus Technique based Depth from Lens Translation using Sequential SVD Factorization

  • Kim, Jong-Il;Ahn, Hyun-Sik;Jeong, Gu-Min;Kim, Do-Hyun
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.383-388
    • /
    • 2005
  • Depth recovery in robot vision is an essential problem to infer the three dimensional geometry of scenes from a sequence of the two dimensional images. In the past, many studies have been proposed for the depth estimation such as stereopsis, motion parallax and blurring phenomena. Among cues for depth estimation, depth from lens translation is based on shape from motion by using feature points. This approach is derived from the correspondence of feature points detected in images and performs the depth estimation that uses information on the motion of feature points. The approaches using motion vectors suffer from the occlusion or missing part problem, and the image blur is ignored in the feature point detection. This paper presents a novel approach to the defocus technique based depth from lens translation using sequential SVD factorization. Solving such the problems requires modeling of mutual relationship between the light and optics until reaching the image plane. For this mutuality, we first discuss the optical properties of a camera system, because the image blur varies according to camera parameter settings. The camera system accounts for the camera model integrating a thin lens based camera model to explain the light and optical properties and a perspective projection camera model to explain the depth from lens translation. Then, depth from lens translation is proposed to use the feature points detected in edges of the image blur. The feature points contain the depth information derived from an amount of blur of width. The shape and motion can be estimated from the motion of feature points. This method uses the sequential SVD factorization to represent the orthogonal matrices that are singular value decomposition. Some experiments have been performed with a sequence of real and synthetic images comparing the presented method with the depth from lens translation. Experimental results have demonstrated the validity and shown the applicability of the proposed method to the depth estimation.

  • PDF

A Study on Implementation of Motion Graphics Virtual Camera with AR Core

  • Jung, Jin-Bum;Lee, Jae-Soo;Lee, Seung-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권8호
    • /
    • pp.85-90
    • /
    • 2022
  • 본 연구는 실제 카메라의 움직임과 동일한 가상 카메라의 움직임을 구현하기 위해 전통적인 모션그래픽 제작 방법이 가지고 있는 소요시간과 비용에 대한 단점을 줄이기 위해 AR Core 기반의 모바일 디바이스 실시간 트래킹 데이터를 이용하여 모션그래픽 가상카메라를 생성하는 방법을 제안했다. 제안하는 방법은 촬영 이후 저장된 비디오 파일에서의 트래킹 작업을 간소화하고, 촬영 단계에서 트래킹 성공 유무를 판단하기 위해 AR Core 기반 모바일 디바이스에서 촬영과 동시에 진행하는 방법이다. 실험결과 전통적인 방법과 비교하였을 때 모션그래픽 결과 이미지의 차이는 없었으나 300프레임(frame) 영상 기준 6분 10초의 시간이 소모된 반면에 제안한 방법은 이 단계를 생략할 수 있어 매우 높은 시간적 효율성을 갖는다. 현재 가상 증강 현실을 이용한 영상제작에 대한 관심과 다양한 연구가 진행되고 있는 시점에서 본 연구는 가상 카메라 생성과 매치 무빙 등에서 활용될 있을 것이다.

능동카메라 환경에서의 특징기반의 이동물체 추적 (Feature based Object Tracking from an Active Camera)

  • 오종안;정영기
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(4)
    • /
    • pp.141-144
    • /
    • 2002
  • This paper describes a new feature based tracking system that can track moving objects with a pan-tilt camera. We extract corner features of the scene and tracks the features using filtering, The global motion energy caused by camera movement is eliminated by finding the maximal matching position between consecutive frames using Pyramidal template matching. The region of moving object is segmented by clustering the motion trajectories and command the pan-tilt controller to follow the object such that the object will always lie at the center of the camera. The proposed system has demonstrated good performance for several video sequences.

  • PDF

깊이 정보를 이용한 줌 움직임 추정 방법 (Zoom Motion Estimation Method by Using Depth Information)

  • 권순각;박유현;권기룡
    • 한국멀티미디어학회논문지
    • /
    • 제16권2호
    • /
    • pp.131-137
    • /
    • 2013
  • 동영상의 줌 움직임 추정은 구현이 아주 복잡하다. 본 논문에서는 줌 움직임 추정을 구현하기 위하여 깊이 카메라와 색상 카메라를 동시에 이용하는 방법을 제안한다. 깊이 카메라로부터 현재블록과 참조블록 사이의 거리 정보를 얻고, 이 거리 정보로부터 두 블록사이의 줌 비율을 계산한다. 줌 비율에 맞게 참조블록을 확대 또는 축소시켜 줌으로서 움직임 추정 차신호를 줄일 수 있다. 따라서, 제안된 방법은 줌 움직임 추정을 위한 복잡도가 크지 않으면서 움직임 추정 정확도를 높이는 것이 가능하다. 모의실험을 바탕으로 제안된 방법의 움직임 추정 정확도를 측정하였으며, 기존 블록정합 방법에 비하여 움직임 추정 오차값이 크게 감소함을 확인하였다.

동적 모자이크 기반의 전경 움직임 추적 및 압축전송 (Foreground Motion Tracking and Compression/Transmission of Based Dynamic Mosaic)

  • 박동진;윤인모;김찬수;현웅근;김남호;정영기
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2003년도 추계종합학술대회
    • /
    • pp.741-744
    • /
    • 2003
  • 본 논문은 모자이크 배경을 생성하고 변화되는 정보만을 전송함으로서 동적기반 압축시스템을 제안한다. 동적 모자이크 배경은 카메라 움직임 정보를 이용하여 단일영상으로 점진적으로 통합된다. 카메라 움직임 예측을 위해 각각의 영상들과 이전영상과의 원근투영 매개변수를 순차적으로 계산하였다. 카메라 움직임은 배경영역과 전경영역에서 식별함으로서 배경상에서 강건하게 계측된다. 수정된 블록기반 움직임계측은 배경영역을 분리하는데 이용되었다.

  • PDF

어파인 모델을 이용한 카메라의 동작 추출 (Extracting Camera Motions using Affine Model)

  • 장석우;이근수;최형일
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제26권8호
    • /
    • pp.1000-1009
    • /
    • 1999
  • 본 논문에서는 비디오 데이타를 분석하여 다양한 카메라의 동작을 정량적으로 추출하는 방법을 제안한다. 본 논문에서 제안하는 카메라의 동작 추출 방법은 어파인 모델을 이용한 방법으로 인접 영상으로부터 추출한 동작 벡터를 어파인 모델에 적용하고 회귀분석법을 통해 어파인 모델을 구성하는 파라미터를 구한다. 그런 다음, 파라미터들의 크기를 분석하고 상호 관계를 해석하여 카메라의 동작을 추출한다. 본 논문에서는 잡음이 포함된 동작 벡터를 필터링하여 사용하므로 잡음에 강건한 결과를 얻을 수 있다. 그리고 어파인 모델을 구성하는 파라미터만을 분석함으로써 카메라의 다양한 동작을 간단하면서도 비교적 정확하게 추출한다. 실험 결과는 카메라의 동작을 정확하게 추출하고 있음을 보여준다.Abstract This paper presents an elegant method, an affine-model based approach, that can qualitatively estimate the information of camera motion. We define various types of camera motion by means of parameters of an affine-model. To get those parameters from images, we fit an affine-model to the field of instantaneous velocities, rather than raw images. We correlate consecutive images to get instantaneous velocities. The size filtering of the velocities are applied to remove noisy components, and the regression approach is employed for the fitting procedure. The fitted values of the parameters are examined to get the estimates of camera motion. The experimental results show that the suggested approach can yield the qualitative information of camera motion successfully.

비디오 데이터 분석에 의한 카메라의 동작 추출 (Extracting Camera Motions by Analyzing Video Data)

  • 장석우;이근수;최형일
    • 전자공학회논문지S
    • /
    • 제36S권8호
    • /
    • pp.65-80
    • /
    • 1999
  • 본 논문에서는 비디오 데이터를 분석하여 다양한 카메라의 동작을 정량적으로 추출하는 방법을 제안한다. 본 논문에서 제안하는 카메라의 동작 추출 방법은 어파인 모델을 이용한 방법으로 인접 영상으로부터 추출하는 동작 벡터를 어파인 모델에 적용하고 희귀분석법을 통해 어파인 모델을 구성하는 파라미터를 구한다. 그런 다음, 파라미터들의 크기를 분석하고 상호 관계를 해석하여 카메라의 동작을 추출한다. 본 논문에서는 잡음이 포한된 동작 벡터를 필터링하여 사용하므로 잡음에 강건한 결과를 얻을 수 있다. 그리고 어파인 모델을 구성하는 파라미터만을 분석함으로써 카메라의 다양한 동작을 간단하면서도 비교적 정확하게 추출한다. 실험결과는 카메라의 동작을 정확하게 추출하고 있음을 보여준다.

  • PDF

Stereo Vision Based 3-D Motion Tracking for Human Animation

  • Han, Seung-Il;Kang, Rae-Won;Lee, Sang-Jun;Ju, Woo-Suk;Lee, Joan-Jae
    • 한국멀티미디어학회논문지
    • /
    • 제10권6호
    • /
    • pp.716-725
    • /
    • 2007
  • In this paper we describe a motion tracking algorithm for 3D human animation using stereo vision system. This allows us to extract the motion data of the end effectors of human body by following the movement through segmentation process in HIS or RGB color model, and then blob analysis is used to detect robust shape. When two hands or two foots are crossed at any position and become disjointed, an adaptive algorithm is presented to recognize whether it is left or right one. And the real motion is the 3-D coordinate motion. A mono image data is a data of 2D coordinate. This data doesn't acquire distance from a camera. By stereo vision like human vision, we can acquire a data of 3D motion such as left, right motion from bottom and distance of objects from camera. This requests a depth value including x axis and y axis coordinate in mono image for transforming 3D coordinate. This depth value(z axis) is calculated by disparity of stereo vision by using only end-effectors of images. The position of the inner joints is calculated and 3D character can be visualized using inverse kinematics.

  • PDF

무선조종과 모션 센서를 이용한 지능형 무선감시카메라 구현 (An Intelligent Wireless Camera Surveillance System with Motion sensor and Remote Control)

  • 이영웅;김종남
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2009년도 춘계 종합학술대회 논문집
    • /
    • pp.672-676
    • /
    • 2009
  • 최근 지능형 감시카메라에 대한 연구가 활발히 진행되고 있다. 그러나 현재의 연구들은 대부분 통합시스템 구현보다는 단일 모듈에 대한 성능향상에 중점을 두고 있다. 따라서 본 논문에서는 얼굴검출, 모션 센서 통합 모듈로 구성하는 무선 감시 시스템을 구현하였다. 무선 감시 시스템의 구현에는 sharp사의 카메라 모듈과 ecom사의 무선영상전송 모듈, roboblock의 ZigBee RF 무선컨트롤 송수신 모듈을 사용 하였고, 모션 센서 모듈에는 PANASONIC의 AMN14111를 사용하였다. OpenCV 라이브러리를 이용한 얼굴검출과 MFC로 소프트웨어를 구현하였다. 본 논문에서 구현한 시스템은 모션 센서를 이용하는 영상 감시 시스템이나 얼굴검출이 필요한 시스템, 원격조정이 필요한 작업환경에 유용하게 사용될 수 있다.

  • PDF