• 제목/요약/키워드: vision-based tracking

검색결과 405건 처리시간 0.037초

혼합 비주얼 서보 제어 기법을 이용한 이동로봇의 목표물 추종 (Target Tracking of the Wheeled Mobile Robot using the Combined Visual Servo Control Method)

  • 이호원;권지욱;홍석교;좌동경
    • 전기학회논문지
    • /
    • 제60권6호
    • /
    • pp.1245-1254
    • /
    • 2011
  • This paper proposes a target tracking algorithm for wheeled mobile robots using in various fields. For the stable tracking, we apply a vision system to a mobile robot which can extract targets through image processing algorithms. Furthermore, this paper presents an algorithm to position the mobile robot at the desired location from the target by estimating its relative position and attitude. We show the problem in the tracking method using the Position-Based Visual Servo(PBVS) control, and propose a tracking method, which can achieve the stable tracking performance by combining the PBVS control with Image-Based Visual Servo(IBVS) control. When the target is located around the outskirt of the camera image, the target can disappear from the field of view. Thus the proposed algorithm combines the control inputs with of the hyperbolic form the switching function to solve this problem. Through both simulations and experiments for the mobile robot we have confirmed that the proposed visual servo control method is able to enhance the stability compared to of the method using only either PBVS or IBVS control method.

Development of Low-Cost Vision-based Eye Tracking Algorithm for Information Augmented Interactive System

  • Park, Seo-Jeon;Kim, Byung-Gyu
    • Journal of Multimedia Information System
    • /
    • 제7권1호
    • /
    • pp.11-16
    • /
    • 2020
  • Deep Learning has become the most important technology in the field of artificial intelligence machine learning, with its high performance overwhelming existing methods in various applications. In this paper, an interactive window service based on object recognition technology is proposed. The main goal is to implement an object recognition technology using this deep learning technology to remove the existing eye tracking technology, which requires users to wear eye tracking devices themselves, and to implement an eye tracking technology that uses only usual cameras to track users' eye. We design an interactive system based on efficient eye detection and pupil tracking method that can verify the user's eye movement. To estimate the view-direction of user's eye, we initialize to make the reference (origin) coordinate. Then the view direction is estimated from the extracted eye pupils from the origin coordinate. Also, we propose a blink detection technique based on the eye apply ratio (EAR). With the extracted view direction and eye action, we provide some augmented information of interest without the existing complex and expensive eye-tracking systems with various service topics and situations. For verification, the user guiding service is implemented as a proto-type model with the school map to inform the location information of the desired location or building.

Voting based Cue Integration for Visual Servoing

  • Cho, Che-Seung;Chung, Byeong-Mook
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.798-802
    • /
    • 2003
  • The robustness and reliability of vision algorithms is the key issue in robotic research and industrial applications. In this paper, the robust real time visual tracking in complex scene is considered. A common approach to increase robustness of a tracking system is to use different models (CAD model etc.) known a priori. Also fusion of multiple features facilitates robust detection and tracking of objects in scenes of realistic complexity. Because voting is a very simple or no model is needed for fusion, voting-based fusion of cues is applied. The approach for this algorithm is tested in a 3D Cartesian robot which tracks a toy vehicle moving along 3D rail, and the Kalman filter is used to estimate the motion parameters, namely the system state vector of moving object with unknown dynamics. Experimental results show that fusion of cues and motion estimation in a tracking system has a robust performance.

  • PDF

비전 센서의 앨리어싱 방지 필터링 모방 기법 (Emulation of Anti-alias Filtering in Vision Based Motion Mmeasurement)

  • 김정현
    • 로봇학회논문지
    • /
    • 제6권1호
    • /
    • pp.18-26
    • /
    • 2011
  • This paper presents a method, Exposure Controlled Temporal Filtering (ECF), applied to visual motion tracking, that can cancel the temporal aliasing of periodic vibrations of cameras and fluctuations in illumination through the control of exposure time. We first present a theoretical analysis of the exposure induced image time integration process and how it samples sensor impingent light that is periodically fluctuating. Based on this analysis we develop a simple method to cancel high frequency vibrations that are temporally aliased onto sampled image sequences and thus to subsequent motion tracking measurements. Simulations and experiments using the 'Center of Gravity' and Normalized Cross-Correlation motion tracking methods were performed on a microscopic motion tracking system to validate the analytical predictions.

레이더와 비전센서 융합기반의 움직임추정을 이용한 전방차량 검출 및 추적 (Preceding Vehicle Detection and Tracking with Motion Estimation by Radar-vision Sensor Fusion)

  • 장재환;김경환
    • 전자공학회논문지
    • /
    • 제49권12호
    • /
    • pp.265-274
    • /
    • 2012
  • 본 논문에서는 레이더와 비전센서 융합 기반의 움직임추정을 이용한 전방차량 검출 및 추적 방법을 제안한다. 제안하는 방법은 움직임추정을 통하여 레이더로 관측한 타겟의 부정확한 횡방향 위치를 보정할 뿐만 아니라 자차의 거동에 따른 자차-지면 간의 기하학적 관계 변화에 적응적으로 전방차량을 검출하고 추적한다. 또한 연산량 부담이 적은 특징점기반의 움직임추정 방법을 사용하여 차량을 검증하는 과정의 수행 횟수 감소를 도모하였다. 제안하는 움직임추정 방법으로 보정한 타겟이 기존의 방법에 비해 높은 시간적 일관성(temporal consistency)을 가지고 전방차량을 추적하는 것은 물론 다양한 도로환경에서 강건하게 전방차량을 검출하는 것을 실험을 통해 입증하였다.

Study of Intelligent Vision Sensor for the Robotic Laser Welding

  • Kim, Chang-Hyun;Choi, Tae-Yong;Lee, Ju-Jang;Suh, Jeong;Park, Kyoung-Taik;Kang, Hee-Shin
    • 한국산업융합학회 논문집
    • /
    • 제22권4호
    • /
    • pp.447-457
    • /
    • 2019
  • The intelligent sensory system is required to ensure the accurate welding performance. This paper describes the development of an intelligent vision sensor for the robotic laser welding. The sensor system includes a PC based vision camera and a stripe-type laser diode. A set of robust image processing algorithms are implemented. The laser-stripe sensor can measure the profile of the welding object and obtain the seam line. Moreover, the working distance of the sensor can be changed and other configuration is adjusted accordingly. The robot, the seam tracking system, and CW Nd:YAG laser are used for the laser welding robot system. The simple and efficient control scheme of the whole system is also presented. The profile measurement and the seam tracking experiments were carried out to validate the operation of the system.

증강현실 서비스를 위한 Camshift와 SURF를 개선한 객체 검출 및 추적 구현 (Implementation of Improved Object Detection and Tracking based on Camshift and SURF for Augmented Reality Service)

  • 이용환;김흥준
    • 반도체디스플레이기술학회지
    • /
    • 제16권4호
    • /
    • pp.97-102
    • /
    • 2017
  • Object detection and tracking have become one of the most active research areas in the past few years, and play an important role in computer vision applications over our daily life. Many tracking techniques are proposed, and Camshift is an effective algorithm for real time dynamic object tracking, which uses only color features, so that the algorithm is sensitive to illumination and some other environmental elements. This paper presents and implements an effective moving object detection and tracking to reduce the influence of illumination interference, which improve the performance of tracking under similar color background. The implemented prototype system recognizes object using invariant features, and reduces the dimension of feature descriptor to rectify the problems. The experimental result shows that that the system is superior to the existing methods in processing time, and maintains better problem ratios in various environments.

  • PDF

실시간 다중이동물체 추적에 의한 이동로봇의 위치개선 (Position Improvement of a Mobile Robot by Real Time Tracking of Multiple Moving Objects)

  • 진태석;이민중;탁한호;이인용;이준탁
    • 한국지능시스템학회논문지
    • /
    • 제18권2호
    • /
    • pp.187-192
    • /
    • 2008
  • 본 논문은 실내외 공간에서 인간을 포한함 이동물체의 영상정보를 이용하여 이동로봇의 자기위치를 인식하기 위한 방법을 제시하고 있다. 제시한 방법은 로봇자체의 DR센서 정보와 카메라에서 얻은 영상정보로부터 로봇의 위치추정방법을 결합한 것이다. 그리고 이동물체의 이전 위치정보와 관측 카메라의 모델을 사용하여 이동물체에 대한 영상프레임 좌표와 추정된 로봇위치간의 관계를 표현할 수 있는 식을 제시하고 있다. 또한 이동하는 인간과 로봇의 위치와 방향을 추정하기 위한 제어방법을 제시하고 이동로봇의 위치를 추정하기 위해서 칼만필터 방법을 적용하였다. 그리고 시뮬레이션 및 실험을 통하여 제시한 방법을 검증하였다.

컬러 클러스터링 기법을 이용한 공간지능화의 다중이동물체 추척 기법 (A Study on Multi-Object Tracking Method using Color Clustering in ISpace)

  • 진태석;김현덕
    • 한국정보통신학회논문지
    • /
    • 제11권11호
    • /
    • pp.2179-2184
    • /
    • 2007
  • 본 논문에서는 인간과 환경사이의 물리적 또는 심리적 인터액션을 통한 인간중심의 적절한 서비스를 제공하는 공간지능화(iSpace: Intelligent Space) 구현하고자 네트웍 센서 인식공간을 소개하고 있다. 영상 데이터 처리 및 정보 네트웍 기능을 갖는 다수의 컬러 CCD 카메라를 iSpace 공간에 분산 배치하였다. iSpace내의 정보획득을 위한 네트웍 센서를 분산 지능형 네트웍 디바이스(DIND: Distributed Intelligent Network Devices)라고 명명하고 있으며, 각 DIND는 일종의 클라이언트 역할을 수행하도록 하였으며, DIND는 카메라 센서를 이용하는 이른바 카메라 네트워크를 구성한 것으로 이를 통해 실내 환경을 인식하고 모델링 하며 공간 내 거주자의 의도를 인식하기 위한 시스템을 구축하였다.

향상된 트래킹 시스템과 실시간 수성 사인펜을 위한 사실적 드로잉 (Improved Tracking System and Realistic Drawing for Real-Time Water-Based Sign Pen)

  • 허혜정;이주영
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권2호
    • /
    • pp.125-132
    • /
    • 2014
  • 본 논문에서는 저가의 웹 카메라를 사용하여 마커 없이 손끝과 붓을 트래킹 하는 시스템을 제시한다. 트래킹 시스템은 CUDA를 사용하여 병렬처리를 적용했다. 이 트래킹 시스템은 노트북이나 데스크탑과 같은 환경에서 수행이 가능하고, 실시간 애플리케이션에 사용 가능한 성능을 가진다. 또한 본 논문에서는 사적인 수성 사인펜 드로잉 모델을 제시하고 구현된 결과를 보여준다. 제안하는 시스템은 손끝과 붓을 트래킹 하는 저가의 실시간 트래킹 시스템으로 사실적 드로잉 애플리케이션과 연동하여 미래 최첨단 교육 환경 구축의 테스트베드로의 활용을 기대한다.