• 제목/요약/키워드: visual odometry

검색결과 35건 처리시간 0.028초

지면 특징점을 이용한 영상 주행기록계에 관한 연구 (A Study on the Visual Odometer using Ground Feature Point)

  • 이윤섭;노경곤;김진걸
    • 한국정밀공학회지
    • /
    • 제28권3호
    • /
    • pp.330-338
    • /
    • 2011
  • Odometry is the critical factor to estimate the location of the robot. In the mobile robot with wheels, odometry can be performed using the information from the encoder. However, the information of location in the encoder is inaccurate because of the errors caused by the wheel's alignment or slip. In general, visual odometer has been used to compensate for the kinetic errors of robot. In case of using the visual odometry under some robot system, the kinetic analysis is required for compensation of errors, which means that the conventional visual odometry cannot be easily applied to the implementation of the other type of the robot system. In this paper, the novel visual odometry, which employs only the single camera toward the ground, is proposed. The camera is mounted at the center of the bottom of the mobile robot. Feature points of the ground image are extracted by using median filter and color contrast filter. In addition, the linear and angular vectors of the mobile robot are calculated with feature points matching, and the visual odometry is performed by using these linear and angular vectors. The proposed odometry is verified through the experimental results of driving tests using the encoder and the new visual odometry.

열화상 이미지 히스토그램의 가우시안 혼합 모델 근사를 통한 열화상-관성 센서 오도메트리 (Infrared Visual Inertial Odometry via Gaussian Mixture Model Approximation of Thermal Image Histogram)

  • 신재호;전명환;김아영
    • 로봇학회논문지
    • /
    • 제18권3호
    • /
    • pp.260-270
    • /
    • 2023
  • We introduce a novel Visual Inertial Odometry (VIO) algorithm designed to improve the performance of thermal-inertial odometry. Thermal infrared image, though advantageous for feature extraction in low-light conditions, typically suffers from a high noise level and significant information loss during the 8-bit conversion. Our algorithm overcomes these limitations by approximating a 14-bit raw pixel histogram into a Gaussian mixture model. The conversion method effectively emphasizes image regions where texture for visual tracking is abundant while reduces unnecessary background information. We incorporate the robust learning-based feature extraction and matching methods, SuperPoint and SuperGlue, and zero velocity detection module to further reduce the uncertainty of visual odometry. Tested across various datasets, the proposed algorithm shows improved performance compared to other state-of-the-art VIO algorithms, paving the way for robust thermal-inertial odometry.

동적 환경에서 강인한 영상특징을 이용한 스테레오 비전 기반의 비주얼 오도메트리 (Stereo Vision-based Visual Odometry Using Robust Visual Feature in Dynamic Environment)

  • 정상준;송재복;강신천
    • 로봇학회논문지
    • /
    • 제3권4호
    • /
    • pp.263-269
    • /
    • 2008
  • Visual odometry is a popular approach to estimating robot motion using a monocular or stereo camera. This paper proposes a novel visual odometry scheme using a stereo camera for robust estimation of a 6 DOF motion in the dynamic environment. The false results of feature matching and the uncertainty of depth information provided by the camera can generate the outliers which deteriorate the estimation. The outliers are removed by analyzing the magnitude histogram of the motion vector of the corresponding features and the RANSAC algorithm. The features extracted from a dynamic object such as a human also makes the motion estimation inaccurate. To eliminate the effect of a dynamic object, several candidates of dynamic objects are generated by clustering the 3D position of features and each candidate is checked based on the standard deviation of features on whether it is a real dynamic object or not. The accuracy and practicality of the proposed scheme are verified by several experiments and comparisons with both IMU and wheel-based odometry. It is shown that the proposed scheme works well when wheel slip occurs or dynamic objects exist.

  • PDF

적응적 이진화를 이용하여 빛의 변화에 강인한 영상거리계를 통한 위치 추정 (Robust Visual Odometry System for Illumination Variations Using Adaptive Thresholding)

  • 황요섭;유호윤;이장명
    • 제어로봇시스템학회논문지
    • /
    • 제22권9호
    • /
    • pp.738-744
    • /
    • 2016
  • In this paper, a robust visual odometry system has been proposed and implemented in an environment with dynamic illumination. Visual odometry is based on stereo images to estimate the distance to an object. It is very difficult to realize a highly accurate and stable estimation because image quality is highly dependent on the illumination, which is a major disadvantage of visual odometry. Therefore, in order to solve the problem of low performance during the feature detection phase that is caused by illumination variations, it is suggested to determine an optimal threshold value in the image binarization and to use an adaptive threshold value for feature detection. A feature point direction and a magnitude of the motion vector that is not uniform are utilized as the features. The performance of feature detection has been improved by the RANSAC algorithm. As a result, the position of a mobile robot has been estimated using the feature points. The experimental results demonstrated that the proposed approach has superior performance against illumination variations.

차량의 모션계측을 위한 RANSAC 의존 없는 스테레오 영상 거리계 (Stereo Visual Odometry without Relying on RANSAC for the Measurement of Vehicle Motion)

  • 송광열;이준웅
    • 제어로봇시스템학회논문지
    • /
    • 제21권4호
    • /
    • pp.321-329
    • /
    • 2015
  • This paper addresses a new algorithm for a stereo visual odometry to measure the ego-motion of a vehicle. The new algorithm introduces an inlier grouping method based on Delaunay triangulation and vanishing point computation. Most visual odometry algorithms rely on RANSAC in choosing inliers. Those algorithms fluctuate largely in processing time between images and have different accuracy depending on the iteration number and the level of outliers. On the other hand, the new approach reduces the fluctuation in the processing time while providing accuracy corresponding to the RANSAC-based approaches.

3차원 장면 복원을 위한 강건한 실시간 시각 주행 거리 측정 (Robust Real-Time Visual Odometry Estimation for 3D Scene Reconstruction)

  • 김주희;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권4호
    • /
    • pp.187-194
    • /
    • 2015
  • 본 논문에서는 RGB-D 입력 영상들로부터 3차원 공간을 움직이는 카메라의 실시간 포즈를 효과적으로 추적할 수 있는 시각 주행 거리측정기를 제안한다. 본 논문에서 제안하는 시각 주행 거리 측정기에서는 컬러 영상과 깊이 영상의 풍부한 정보를 충분히 활용하면서도 실시간 계산량을 줄이기 위해, 특징 기반의 저밀도 주행 거리 계산 방법을 사용한다. 본 시스템에서는 보다 정확한 주행 거리 추정치를 얻기 위해, 카메라 이동 이전과 이동 이후의 영상에서 추출한 특징들을 정합한 뒤, 정합된 특징들에 대한 추가적인 정상 집합 정제 과정과 주행 거리 정제 작업을 반복한다. 또한, 정제 후 잔여 정상 집합의 크기가 충분치 않은 경우에도 잔여 정상 집합의 크기에 비례해 최종 주행 거리를 결정함으로써, 추적 성공률을 크게 향상시켰다. TUM 대학의 벤치마크 데이터 집합을 이용한 실험과 3차원 장면 복원 응용 시스템의 구현을 통해, 본 논문에서 제안하는 시각 주행 거리 측정 방법의 높은 성능을 확인할 수 있었다.

Development of Visual Odometry Estimation for an Underwater Robot Navigation System

  • Wongsuwan, Kandith;Sukvichai, Kanjanapan
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제4권4호
    • /
    • pp.216-223
    • /
    • 2015
  • The autonomous underwater vehicle (AUV) is being widely researched in order to achieve superior performance when working in hazardous environments. This research focuses on using image processing techniques to estimate the AUV's egomotion and the changes in orientation, based on image frames from different time frames captured from a single high-definition web camera attached to the bottom of the AUV. A visual odometry application is integrated with other sensors. An internal measurement unit (IMU) sensor is used to determine a correct set of answers corresponding to a homography motion equation. A pressure sensor is used to resolve image scale ambiguity. Uncertainty estimation is computed to correct drift that occurs in the system by using a Jacobian method, singular value decomposition, and backward and forward error propagation.

속도증분벡터를 활용한 ORB-SLAM 및 관성항법 결합 알고리즘 연구 (Integrated Navigation Algorithm using Velocity Incremental Vector Approach with ORB-SLAM and Inertial Measurement)

  • 김연조;손현진;이영재;성상경
    • 전기학회논문지
    • /
    • 제68권1호
    • /
    • pp.189-198
    • /
    • 2019
  • In recent years, visual-inertial odometry(VIO) algorithms have been extensively studied for the indoor/urban environments because it is more robust to dynamic scenes and environment changes. In this paper, we propose loosely coupled(LC) VIO algorithm that utilizes the velocity vectors from both visual odometry(VO) and inertial measurement unit(IMU) as a filter measurement of Extended Kalman filter. Our approach improves the estimation performance of a filter without adding extra sensors while maintaining simple integration framework, which treats VO as a black box. For the VO algorithm, we employed a fundamental part of the ORB-SLAM, which uses ORB features. We performed an outdoor experiment using an RGB-D camera to evaluate the accuracy of the presented algorithm. Also, we evaluated our algorithm with the public dataset to compare with other visual navigation systems.

실내외 환경에서 휠 오도메트리와 비주얼 오도메트리 정보의 퍼지 융합에 기반한 궤도로봇의 위치추정 (Localization of a Tracked Robot Based on Fuzzy Fusion of Wheel Odometry and Visual Odometry in Indoor and Outdoor Environments)

  • 함형하;홍성호;송재복;백주현;유재관
    • 대한기계학회논문집A
    • /
    • 제36권6호
    • /
    • pp.629-635
    • /
    • 2012
  • 궤도로봇은 궤도의 미끄럼 때문에 위치추정의 신뢰도가 낮다. 본 논문은 엔코더 기반의 휠오도메트리와 비주얼 오도메트리의 퍼지 융합을 이용하여 궤도로봇을 위한 새로운 위치추정 방법을 제안한다. 비주얼 오도메트리는 충분한 수의 영상 특징점이 없을 경우 정확성이 저하된다. 두 방법을 융합하기 위한 각각의 가중치는 주위 환경에 따른 퍼지 결정을 통해 제어된다. 실험 결과는 제안한 방법으로 강화된 궤도 로봇의 위치추정 성능을 보인다.

후방 카메라 영상과 3차원 도로지도를 이용한 이동차량의 위치인식 (Localization of A Moving Vehicle using Backward-looking Camera and 3D Road Map)

  • 최성인;박순용
    • 전자공학회논문지
    • /
    • 제50권3호
    • /
    • pp.160-173
    • /
    • 2013
  • 본 논문에서는 실외 도로환경에서 주행하는 차량의 위치를 추정하기 위한 비쥬얼 오도메트리 기술을 제안한다. 제안하는 방법은 운전자의 이동계획에 따라 차량의 초기위치에서 원거리에 위치한 특정 목적지를 방문한 후 지나온 경로를 따라 다시 초기위치로 정확하게 복귀해야 하는 차량의 위치인식을 위해 사용된다. 위치인식에는 차량 전방의 3차원 정보획득을 위한 스테레오 카메라와 후방의 영상을 획득하는 단일 카메라를 사용한다. 차량이 목적지를 향해 순방향 주행할 때는 전방 스테레오 비쥬얼 오도메트리(stereo visual odometry)를 이용하여 이동차량의 위치를 추정하고 동시에 도로 및 주변 환경에 대한 3차원 전역지도를 그래프 구조로 생성한다. 차량이 목적지에 도달하여 복귀할 때는 후방의 단일 카메라에서 획득한 2차원 영상과 전역지도를 바탕으로 모노 비쥬얼 오도메트리(monocular visual odometry)로 위치를 추정한다. 복귀하는 차량의 위치를 정확하게 추정하기 위해서는 효과적인 전역지도의 노드 탐색방법이 요구된다. 후방 카메라의 영상 특징과 전역지도의 각 노드의 영상 특징을 정합하고 지도에 저장된 3차원 좌표를 이용하여 차량의 위치를 추정하였다. 또한 3차원 위치추정에 성공한 이전노드들의 정보를 바탕으로 매 영상 프레임마다 적응적으로 탐색영역을 확장하거나 줄이도록 하였다. 두 개의 서로 다른 경로에 대한 실험을 통하여 제안하는 방법의 성능을 검증하였다.