• 제목/요약/키워드: lucas-kanade

검색결과 58건 처리시간 0.021초

실내환경 복원을 위한 다시점 카메라로 획득된 부분적 3차원 점군의 정합 기법 (Registration Technique of Partial 3D Point Clouds Acquired from a Multi-view Camera for Indoor Scene Reconstruction)

  • 김세환;우운택
    • 전자공학회논문지CI
    • /
    • 제42권3호
    • /
    • pp.39-52
    • /
    • 2005
  • 본 논문에서는 실내환경의 3차원 복원을 위해 다시점 카메라부터 획득된 부분적인 3차원 점군에 대한 정합 기법을 제안한다. 일반적으로, 기존의 정합 방법들은 많은 계산량을 요하며, 정합하는데 많은 시간이 소요된다 또한, 상대적으로 정밀도가 낮은 3차원 점군에 대해서는 정합이 어렵다. 이러한 문제점을 해결하기 위해 투영 기반 정합 방법을 제안한다. 첫 번째, 시간적 특성을 기반으로 변화량이 큰 3차원 점들을 제거하고, 공간적 특성을 이용하여 현재 화소의 주변 3차원 점을 참조하여 빈 영역을 채움으로써 깊이 영상 정제 과정을 수행한다. 두 번째, 연속된 두 장면에서의 3차원 점군을 동일한 영상 평면으로 투영하고, 두 단계 정수 매핑을 적용한 후 수정된 KLT (Kanade-Lucas-Tomasi) 특징 추적기를 사용해 대응점을 찾는다. 그리고 적응적 탐색 영역에 기반하여 거리 오차를 최소화함으로써 정밀한 정합을 수행한다. 마지막으로, 대응되는 점들에 대한 색을 참조하여 최종적인 색을 계산하고, 위의 과정을 연속된 장면에 적용함으로써 실내환경을 복원한다. 제안된 방법은 대응점을 2차원 영상 평면에서 찾음으로써 계산의 복잡도를 줄이며, 3차원 데이터의 정밀도가 낮은 경우에도 정합이 효과적이다. 또한, 다시점 카메라를 이용함으로써 몇 장면에 대한 색과 깊이 영상만으로도 실내환경의 3차원 복원이 가능하다.

Coarse to Fine 단계를 통한 TerraSAR-X Staring Mode 다중 관측각 영상 정합기법 비교 분석 (Comparison of Multi-angle TerraSAR-X Staring Mode Image Registration Method through Coarse to Fine Step)

  • 이동준;김상완
    • 대한원격탐사학회지
    • /
    • 제37권3호
    • /
    • pp.475-491
    • /
    • 2021
  • 최근 사용 가능한 고해상도 위성 SAR 영상이 다양해지면서, 변화 탐지를 포함한 다양한 분야에서 SAR 영상에 대한 정밀 정합 요구가 높아지고 있다. 다중 관측각 환경에서의 고해상도 SAR 영상간 정합은 SAR 영상의 특성상 발생하는 스펙클 노이즈, 기하 왜곡 등에 의해 어려움이 있다. 본 연구에서는 독일 TerraSAR-X의 staring spotlight 모드로 촬영된 고해상도 SAR 영상을 활용하여, 개략정합 단계와 정밀정합 단계의 2단계에 걸친 영상정합 알고리즘을 제안하였다. 개략정합 단계에서는 적응형 샘플링 기법과 SAR-SIFT(Scale Invariant Feature Transform)를 결합하여 정합을 수행하였고, 정밀정합 단계에서는 3가지의 강성 정합 기법인 NCC(Normalized Cross Correlation), PC (Phase Congruency)-NCC, MI (Mutual Information) 기법과 비강성 정합 기법인 Gefolki (Geoscience extended Flow Optical Flow Lucas-Kanade Iterative)를 적용하여 정합 성능을 비교 분석하였다. 정합 결과는 RMSE (Root Mean Square Error)와 FSIM (Feature Similarity) 지수를 사용하여 정량적인 비교를 수행하였다. 사용한 모든 영상 조합에서 강성정합 기법은 Gefolki 알고리즘에 비해 저조한 정합 성능을 보였다. 강성정합 모델들은 지형기복이 큰 지역에서 정합오차가 크게 발생함을 확인할 수 있었다. Gefolki 알고리즘 적용 결과, RMSE 1~3화소를 보이며 가장 우수한 결과를 확인하였으며, FSIM 지수 또한 다른 기법에 비해 0.02~0.03 이상 높은 값을 취득했다. 다중 관측각 영상에서의 고해상도 SAR 영상 간 정합 성능을 비교하였으며, 강성정합 기법에 비해 Gefolki 알고리즘을 통해 지형효과를 충분히 줄일 수 있음을 확인했다. 이는 추후 변화탐지를 포함한 다양한 분야의 전 처리 과정에 효과적으로 사용될 수 있을 것으로 기대된다.

다시점 카메라로부터 획득된 깊이 및 컬러 영상을 이용한 실내환경의 파노라믹 3D 복원 (Panoramic 3D Reconstruction of an Indoor Scene Using Depth and Color Images Acquired from A Multi-view Camera)

  • 김세환;우운택
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.24-32
    • /
    • 2006
  • 본 논문에서는 다시점 카메라부터 획득된 부분적인 3D 점군을 사용하여 실내환경의 3D 복원을 위한 새로운 방법을 제안한다. 지금까지 다양한 양안차 추정 알고리즘이 제안되었으며, 이는 활용 가능한 깊이 영상이 다양함을 의미한다. 따라서, 본 논문에서는 일반화된 다시점 카메라를 이용하여 실내환경을 복원하는 방법을 다룬다. 첫 번째, 3D 점군들의 시간적 특성을 기반으로 변화량이 큰 3D 점들을 제거하고, 공간적 특성을 기반으로 주변의 3D 점을 참조하여 빈 영역을 채움으로써 깊이 영상 정제 과정을 수행한다. 두 번째, 연속된 두 시점에서의 3D 점군을 동일한 영상 평면으로 투영하고, 수정된 KLT (Kanade-Lucas-Tomasi) 특징 추적기를 사용하여 대응점을 찾는다. 그리고 대응점 간의 거리 오차를 최소화함으로써 정밀한 정합을 수행한다. 마지막으로, 여러 시점에서 획득된 3D 점군과 한 쌍의 2D 영상을 동시에 이용하여 3D 점들의 위치를 세밀하게 조절함으로써 최종적인 3D 모델을 생성한다. 제안된 방법은 대응점을 2D 영상 평면에서 찾음으로써 계산의 복잡도를 줄였으며, 3D 데이터의 정밀도가 낮은 경우에도 효과적으로 동작한다. 또한, 다시점 카메라를 이용함으로써 수 시점에서의 깊이 영상과 컬러 영상만으로도 실내환경 3D 복원이 가능하다. 제안된 방법은 네비게이션 뿐만 아니라 상호작용을 위한 3D 모델 생성에 활용될 수 있다.

  • PDF

Tracking and Face Recognition of Multiple People Based on GMM, LKT and PCA

  • Lee, Won-Oh;Park, Young-Ho;Lee, Eui-Chul;Lee, Hee-Kyung;Park, Kang-Ryoung
    • 한국멀티미디어학회논문지
    • /
    • 제15권4호
    • /
    • pp.449-471
    • /
    • 2012
  • In intelligent surveillance systems, it is required to robustly track multiple people. Most of the previous studies adopted a Gaussian mixture model (GMM) for discriminating the object from the background. However, it has a weakness that its performance is affected by illumination variations and shadow regions can be merged with the object. And when two foreground objects overlap, the GMM method cannot correctly discriminate the occluded regions. To overcome these problems, we propose a new method of tracking and identifying multiple people. The proposed research is novel in the following three ways compared to previous research: First, the illuminative variations and shadow regions are reduced by an illumination normalization based on the median and inverse filtering of the L*a*b* image. Second, the multiple occluded and overlapped people are tracked by combining the GMM in the still image and the Lucas-Kanade-Tomasi (LKT) method in successive images. Third, with the proposed human tracking and the existing face detection & recognition methods, the tracked multiple people are successfully identified. The experimental results show that the proposed method could track and recognize multiple people with accuracy.

화자의 긍정·부정 의도를 전달하는 실용적 텔레프레즌스 로봇 시스템의 개발 (Development of a Cost-Effective Tele-Robot System Delivering Speaker's Affirmative and Negative Intentions)

  • 진용규;유수정;조혜경
    • 로봇학회논문지
    • /
    • 제10권3호
    • /
    • pp.171-177
    • /
    • 2015
  • A telerobot offers a more engaging and enjoyable interaction with people at a distance by communicating via audio, video, expressive gestures, body pose and proxemics. To provide its potential benefits at a reasonable cost, this paper presents a telepresence robot system for video communication which can deliver speaker's head motion through its display stanchion. Head gestures such as nodding and head-shaking can give crucial information during conversation. We also can assume a speaker's eye-gaze, which is known as one of the key non-verbal signals for interaction, from his/her head pose. In order to develop an efficient head tracking method, a 3D cylinder-like head model is employed and the Harris corner detector is combined with the Lucas-Kanade optical flow that is known to be suitable for extracting 3D motion information of the model. Especially, a skin color-based face detection algorithm is proposed to achieve robust performance upon variant directions while maintaining reasonable computational cost. The performance of the proposed head tracking algorithm is verified through the experiments using BU's standard data sets. A design of robot platform is also described as well as the design of supporting systems such as video transmission and robot control interfaces.

Simple Online Multiple Human Tracking based on LK Feature Tracker and Detection for Embedded Surveillance

  • Vu, Quang Dao;Nguyen, Thanh Binh;Chung, Sun-Tae
    • 한국멀티미디어학회논문지
    • /
    • 제20권6호
    • /
    • pp.893-910
    • /
    • 2017
  • In this paper, we propose a simple online multiple object (human) tracking method, LKDeep (Lucas-Kanade feature and Detection based Simple Online Multiple Object Tracker), which can run in fast online enough on CPU core only with acceptable tracking performance for embedded surveillance purpose. The proposed LKDeep is a pragmatic hybrid approach which tracks multiple objects (humans) mainly based on LK features but is compensated by detection on periodic times or on necessity times. Compared to other state-of-the-art multiple object tracking methods based on 'Tracking-By-Detection (TBD)' approach, the proposed LKDeep is faster since it does not have to detect object on every frame and it utilizes simple association rule, but it shows a good object tracking performance. Through experiments in comparison with other multiple object tracking (MOT) methods using the public DPM detector among online state-of-the-art MOT methods reported in MOT challenge [1], it is shown that the proposed simple online MOT method, LKDeep runs faster but with good tracking performance for surveillance purpose. It is further observed through single object tracking (SOT) visual tracker benchmark experiment [2] that LKDeep with an optimized deep learning detector can run in online fast with comparable tracking performance to other state-of-the-art SOT methods.

어안 영상을 이용한 물체 추적 기반의 한 멀티로봇의 대형 제어 (Multi-robot Formation based on Object Tracking Method using Fisheye Images)

  • 최윤원;김종욱;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.547-554
    • /
    • 2013
  • This paper proposes a novel formation algorithm of identical robots based on object tracking method using omni-directional images obtained through fisheye lenses which are mounted on the robots. Conventional formation methods of multi-robots often use stereo vision system or vision system with reflector instead of general purpose camera which has small angle of view to enlarge view angle of camera. In addition, to make up the lack of image information on the environment, robots share the information on their positions through communication. The proposed system estimates the region of robots using SURF in fisheye images that have $360^{\circ}$ of image information without merging images. The whole system controls formation of robots based on moving directions and velocities of robots which can be obtained by applying Lucas-Kanade Optical Flow Estimation for the estimated region of robots. We confirmed the reliability of the proposed formation control strategy for multi-robots through both simulation and experiment.

항공연속영상 등록 정확도 향상을 위한 특징점추적 오류검정 (Error Correction of Interested Points Tracking for Improving Registration Accuracy of Aerial Image Sequences)

  • ;유환희
    • 대한공간정보학회지
    • /
    • 제18권2호
    • /
    • pp.93-97
    • /
    • 2010
  • 본 연구에서는 카메라 자세 정보가 없는 무인헬기에 탑재된 카메라로부터 취득된 연속영상을 등록하기 위한 개량형 KLT기법을 제시하였으며 그 절차는 다음과 같이 구성된다. 초기 특징점은 연속영상에서 모서리점을 검출하고 동적프로그래밍에 의한 특성곡선매칭에 의해 특징점을 추적하였다. 추적된 특징점 중 오류점은 RANSAC추정법에 의해 제거되며 호모그래피이론에 의해 나머지점은 정확한 정합점으로 분류되었다. 영상등록에 의한 편위보정영상모자이크생성은 쌍일차보간법에 의해 생성하였으며, 결과분석을 통해 제시된 방법이 흔들림이 있는 연속영상을 등록하는데 적합한 방법임을 제시하였다.

컬러 및 광류정보를 이용한 이동물체 추적 (A Moving Object Tracking using Color and OpticalFlow Information)

  • 김주현;최한고
    • 융합신호처리학회논문지
    • /
    • 제15권4호
    • /
    • pp.112-118
    • /
    • 2014
  • 본 연구는 칼라기반에서 단일 이동객체 추적을 다루고 있다. 우선 매 영상에서 이동객체 영상의 밝기 변화에 따른 추적 약점을 개선하기 위해 기존의 Camshift 알고리즘을 보완하였다. 보완된 알고리즘도 추적중인 물체와 색상이 같은 주변 물체가 존재할 경우 불안정한 추적을 보여주었는데 본 연구에서는 이를 해결하기 위해 Optical Flow기반의 KLT 알고리즘과 병합하는 방법을 제시하였다. 픽셀기반의 특징점 추적을 수행하는 KLT 알고리즘은 칼라기반의 Camshift의 단점을 보완할 수 있다. 실험 결과 제안된 병합 방법은 기존의 추적단점을 보완하였으며 추적성능이 개선됨을 실험으로 확인하였다.

어안 이미지의 배경 제거 기법을 이용한 실시간 전방향 장애물 감지 (Real time Omni-directional Object Detection Using Background Subtraction of Fisheye Image)

  • 최윤원;권기구;김종효;나경진;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제21권8호
    • /
    • pp.766-772
    • /
    • 2015
  • This paper proposes an object detection method based on motion estimation using background subtraction in the fisheye images obtained through omni-directional camera mounted on the vehicle. Recently, most of the vehicles installed with rear camera as a standard option, as well as various camera systems for safety. However, differently from the conventional object detection using the image obtained from the camera, the embedded system installed in the vehicle is difficult to apply a complicated algorithm because of its inherent low processing performance. In general, the embedded system needs system-dependent algorithm because it has lower processing performance than the computer. In this paper, the location of object is estimated from the information of object's motion obtained by applying a background subtraction method which compares the previous frames with the current ones. The real-time detection performance of the proposed method for object detection is verified experimentally on embedded board by comparing the proposed algorithm with the object detection based on LKOF (Lucas-Kanade optical flow).