• 제목/요약/키워드: Model based Object Tracking

검색결과 235건 처리시간 0.023초

Image-based structural dynamic displacement measurement using different multi-object tracking algorithms

  • Ye, X.W.;Dong, C.Z.;Liu, T.
    • Smart Structures and Systems
    • /
    • 제17권6호
    • /
    • pp.935-956
    • /
    • 2016
  • With the help of advanced image acquisition and processing technology, the vision-based measurement methods have been broadly applied to implement the structural monitoring and condition identification of civil engineering structures. Many noncontact approaches enabled by different digital image processing algorithms are developed to overcome the problems in conventional structural dynamic displacement measurement. This paper presents three kinds of image processing algorithms for structural dynamic displacement measurement, i.e., the grayscale pattern matching (GPM) algorithm, the color pattern matching (CPM) algorithm, and the mean shift tracking (MST) algorithm. A vision-based system programmed with the three image processing algorithms is developed for multi-point structural dynamic displacement measurement. The dynamic displacement time histories of multiple vision points are simultaneously measured by the vision-based system and the magnetostrictive displacement sensor (MDS) during the laboratory shaking table tests of a three-story steel frame model. The comparative analysis results indicate that the developed vision-based system exhibits excellent performance in structural dynamic displacement measurement by use of the three different image processing algorithms. The field application experiments are also carried out on an arch bridge for the measurement of displacement influence lines during the loading tests to validate the effectiveness of the vision-based system.

물체의 움직임 궤적에 기반한 감시 비디오의 검색 (Surveillance Video Retrieval based on Object Motion Trajectory)

  • 정영기;이규원;호요성
    • 방송공학회논문지
    • /
    • 제5권1호
    • /
    • pp.41-49
    • /
    • 2000
  • 본 논문에서는 감시 비디오의 검색을 위해 객체 단위의 특징을 이용한 새로운 비디오 색인 및 탐색 방법을 제안한다. 의미론적인 레벨에서 각각의 객체에 접근하기 위해 객체의 움직임 궤적 모델을 색인 인자(Key)로 이용하였다. 객체 움직임 궤적을 이용한 내용 기반의 비디오 색인을 위해 비디오 시퀀스에서 움직임 분할에 의해 객체를 검지한 다음, 분할된 객체를 추적하여 움직임 궤적을 생성하고 이를 기호적인 표현으로 모델링한다. 제안된 검색 시스템은 query by example, query by sketch 및 query on weighting parameters 등의 사건 기반의 비디오 검색을 위한 다양한 질의 유형을 지원할 수 있도록 설계되었다. 관심있는 비디오 클립(clip)을 검색했을 때, 제안된 시스템은 유사도에 따라 순서대로 정합된 사건들을 결과로 출력한다.

  • PDF

UAV기반 동적영상센서의 위치불확실성을 통한 보행자 추정 (Tracking of Walking Human Based on Position Uncertainty of Dynamic Vision Sensor of Quadcopter UAV)

  • 이정현;진태석
    • 제어로봇시스템학회논문지
    • /
    • 제22권1호
    • /
    • pp.24-30
    • /
    • 2016
  • The accuracy of small and low-cost CCD cameras is insufficient to provide data for precisely tracking unmanned aerial vehicles (UAVs). This study shows how a quad rotor UAV can hover on a human targeted tracking object by using data from a CCD camera rather than imprecise GPS data. To realize this, quadcopter UAVs need to recognize their position and posture in known environments as well as unknown environments. Moreover, it is necessary for their localization to occur naturally. It is desirable for UAVs to estimate their position by solving uncertainty for quadcopter UAV hovering, as this is one of the most important problems. In this paper, we describe a method for determining the altitude of a quadcopter UAV using image information of a moving object like a walking human. This method combines the observed position from GPS sensors and the estimated position from images captured by a fixed camera to localize a UAV. Using the a priori known path of a quadcopter UAV in the world coordinates and a perspective camera model, we derive the geometric constraint equations that represent the relation between image frame coordinates for a moving object and the estimated quadcopter UAV's altitude. Since the equations are based on the geometric constraint equation, measurement error may exist all the time. The proposed method utilizes the error between the observed and estimated image coordinates to localize the quadcopter UAV. The Kalman filter scheme is applied for this method. Its performance is verified by a computer simulation and experiments.

모바일 감시 로봇을 위한 실시간 움직임 추정 알고리즘 (Real-Time Motion Estimation Algorithm for Mobile Surveillance Robot)

  • 한철훈;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권3호
    • /
    • pp.311-316
    • /
    • 2009
  • 본 논문에서는 파티클 필터(Particle Filter)를 사용한 모바일 감시 로봇을 위한 실시간 움직임 추정 알고리즘을 제안한다. 파티클 필터는 몬테카를로(Monte Carlo) 샘플링 방법을 기반으로 사전분포확률(Prior distribution probability)와 사후분포확률(Posterior distribution probability)을 가지는 베이지안 조건 확률 모델(Bayesian conditional probabilities model)을 사용하는 방법이다. 그러나 대부분의 파티클 필터에서는 초기 확률밀도(Prior probability density)를 임의로 정의하여 사용하지만, 본 논문에서는 Sum of Absolute Difference (SAD)를 이용하여 초기 확률밀도를 구하고, 이를 파티클 필터에 적용하여 모바일 감시 로봇 환경에서 임의로 움직이는 물체를 강인하게 실시간으로 추정하고 추적하는 시스템을 구현하였다.

Object tracking based on adaptive updating of a spatial-temporal context model

  • Feng, Wanli;Cen, Yigang;Zeng, Xianyou;Li, Zhetao;Zeng, Ming;Voronin, Viacheslav
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권11호
    • /
    • pp.5459-5473
    • /
    • 2017
  • Recently, a tracking algorithm called the spatial-temporal context model has been proposed to locate a target by using the contextual information around the target. This model has achieved excellent results when the target undergoes slight occlusion and appearance changes. However, the target location in the current frame is based on the location in the previous frame, which will lead to failure in the presence of fast motion because of the lack of a prediction mechanism. In addition, the spatial context model is updated frame by frame, which will undoubtedly result in drift once the target is occluded continuously. This paper proposes two improvements to solve the above two problems: First, four possible positions of the target in the current frame are predicted based on the displacement between the previous two frames, and then, we calculate four confidence maps at these four positions; the target position is located at the position that corresponds to the maximum value. Second, we propose a target reliability criterion and design an adaptive threshold to regulate the updating speed of the model. Specifically, we stop updating the model when the reliability is lower than the threshold. Experimental results show that the proposed algorithm achieves better tracking results than traditional STC and other algorithms.

재설정 가능한 표적 크기 추정 알고리즘 연구 (A Study on the Resizable Target Size Estimation Method for Imaging Target Tracking)

  • 정윤식;노신백
    • 제어로봇시스템학회논문지
    • /
    • 제20권8호
    • /
    • pp.842-848
    • /
    • 2014
  • In this paper, an improved method RMBE (Resizable Model Based target size Estimator) is presented for SDIIR (Strap Down Imaging Infrared) seekers. At the target engaging scenario, the IIR target measurement is separated by various parts. In this case, target object changing is important to accurate target intercept. Therefore, we need robust target size estimator. Our proposed method resize estimated target size with MC-1 (Markov Chain I) for accurate target size estimation. The performance of proposed method is tested at IIR target tracking of target intercept scenario. The experiment results show that the proposed RMBE has improved performance than MBE.

Visual Tracking Using Snake Algorithm Based on Optical Flow Information

  • Kim, Won;Lee, Ju-Jang
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1999년도 제14차 학술회의논문집
    • /
    • pp.13-16
    • /
    • 1999
  • An active contour model, Snake, was developed as a useful segmenting and tracking tool lot rigid or non-rigid (i.e. deformable) objects by Kass in 1987 In this research, Snake is newly designed to cover this large moving case. Image flow energy is proposed to give Snake the motion information of the target object. By this image flow energy Snake's nodes can move uniformly along the direction of the target motion in spite of the existences of local minima. Furthermore, when the motion is too large to apply image flow energy to tracking, a jump mode is proposed for solving the problem. The vector used to make Snake's nodes jump to the new location can be obtained by processing the image flow. The effectiveness of the proposed Snake is confirmed by some simulations.

  • PDF

Object Detection Based on Deep Learning Model for Two Stage Tracking with Pest Behavior Patterns in Soybean (Glycine max (L.) Merr.)

  • Yu-Hyeon Park;Junyong Song;Sang-Gyu Kim ;Tae-Hwan Jun
    • 한국작물학회:학술대회논문집
    • /
    • 한국작물학회 2022년도 추계학술대회
    • /
    • pp.89-89
    • /
    • 2022
  • Soybean (Glycine max (L.) Merr.) is a representative food resource. To preserve the integrity of soybean, it is necessary to protect soybean yield and seed quality from threats of various pests and diseases. Riptortus pedestris is a well-known insect pest that causes the greatest loss of soybean yield in South Korea. This pest not only directly reduces yields but also causes disorders and diseases in plant growth. Unfortunately, no resistant soybean resources have been reported. Therefore, it is necessary to identify the distribution and movement of Riptortus pedestris at an early stage to reduce the damage caused by insect pests. Conventionally, the human eye has performed the diagnosis of agronomic traits related to pest outbreaks. However, due to human vision's subjectivity and impermanence, it is time-consuming, requires the assistance of specialists, and is labor-intensive. Therefore, the responses and behavior patterns of Riptortus pedestris to the scent of mixture R were visualized with a 3D model through the perspective of artificial intelligence. The movement patterns of Riptortus pedestris was analyzed by using time-series image data. In addition, classification was performed through visual analysis based on a deep learning model. In the object tracking, implemented using the YOLO series model, the path of the movement of pests shows a negative reaction to a mixture Rina video scene. As a result of 3D modeling using the x, y, and z-axis of the tracked objects, 80% of the subjects showed behavioral patterns consistent with the treatment of mixture R. In addition, these studies are being conducted in the soybean field and it will be possible to preserve the yield of soybeans through the application of a pest control platform to the early stage of soybeans.

  • PDF

시공간적으로 확장된 토폴로지를 이용한 개인 환경간 상호작용 파악 공간 분석 (Spatial Analysis to Capture Person Environment Interactions through Spatio-Temporally Extended Topology)

  • 이병재
    • 대한지리학회지
    • /
    • 제47권3호
    • /
    • pp.426-439
    • /
    • 2012
  • 본 연구의 목적은 정성적인 개인의 공간 행동을 파악하고 행동 원인을 유추해 볼 수 있는 새로운 방법을 제안하는 것이다. 이동 객체의 단순한 기하학적인 움직임에 초점을 맞추는 것을 넘어서서, 사람과 환경 사이의 관계 변화 내지는 상호작용을 파악하여 이동 객체의 행동 특성을 분석할 수 있는 모델을 제시하고자 한다. 특히, 본 연구에서는 특정 지역의 경계 근처에서의 이동 객체의 움직임에 중점을 두고 분석하였다. 이동 객체의 영향력 범위를 적용하는 새로운 접근 방법을 이용하여 정성적인 개인 공간행위 특성을 파악하였다. 본 연구에서는, 이러한 객체를 시공간적으로 확장된 점(STEP)이라 명명하였으며, 그 영향력 범위를 그 객체의 위치와 함께 잠재적 사건이나 주변과의 상호작용이 가능한 구역으로 정의한다. STEP과 특정공간간의 관계 정량화를 위해, 위상 데이터 모델을 기반으로 2차원 공간에서의 특정 영역과 STEP 사이의 위상 관계를 나타내는 12 교차점 모델이 이용되었다. 이 연구에서는 이러한 STEP 개념의 관점에서, GPS추적 데이터를 이용한 프로토타입 응용 분석결과가 제공되었다.

  • PDF

환경에 적응적인 얼굴 추적 및 인식 방법 (A New Face Tracking and Recognition Method Adapted to the Environment)

  • 주명호;강행봉
    • 정보처리학회논문지B
    • /
    • 제16B권5호
    • /
    • pp.385-394
    • /
    • 2009
  • 사람의 얼굴은 강체(Rigid object)가 아니기 때문에 얼굴을 추적하거나 인식하는 일은 쉽지 않다. 특히 얼굴의 포즈나 주변 조명의 변화에 따른 입력 영상의 차이는 얼굴 인식을 어렵게 하는 주된 원인이다. 본 논문에서는 비디오 영상으로부터 얼굴을 추적하고 인식할 때 발생하는 이 두 가지의 문제를 해결하기 위한 프레임웍과 전처리 방법을 제안한다. 얼굴 포즈의 변화에도 효과적으로 얼굴을 추적 및 인식하기 위해 먼저 학습 영상으로부터 주성분 분석법(Principal Component Analysis)을 이용하여 각 얼굴 포즈마다 하나의 독립된 가우시안 분포를 추정하고 이를 이용하여 각 사람마다 가우시안 혼합 모델(Gaussian Mixture Model)을 구성한다. 본 논문에서는 서로 다른 조명 상태를 가진 얼굴 영상을 처리하기 위해 먼저 입력된 얼굴 영상을 SSR(Single Scale Retinex) 모델을 이용하여 반사율(Reflectance)과 조도(Illuminance)로 분해한다. 반사율은 사전 정의된 범위 안에서 히스토그램 평활화를 수행함으로써 재조정되고 조도는 조명의 변화를 포함하고 있지 않은 영상들으로부터 학습된 매니폴드 모델로 다시 근사된다. 이 두 특징을 결합함으로써 실내 환경이나 실외 환경에서 촬영된 영상에서 효율적으로 얼굴을 추적 및 인식한다. 비디오 기반의 영상으로부터 보다 효율적으로 얼굴을 추적하기 위해 본 논문에서는 구성된 모델의 가중치를 각 프레임마다 이전 프레임의 추적 결과에 의해 EM 알고리즘을 이용하여 갱신함으로써 비디오 영상내의 연속적으로 변화하는 얼굴 포즈를 추정하였다. 본 논문에서 제안된 방법은 실내에서의 다양한 조명환경과 실외의 여러 장소에서 획득한 실험 영상을 이용하여 기존에 연구되어 온 다른 방법에 비해 우수한 성능을 보였다.