• 제목/요약/키워드: vision slam

검색결과 40건 처리시간 0.026초

ARVisualizer : A Markerless Augmented Reality Approach for Indoor Building Information Visualization System

  • Kim, Albert Hee-Kwan;Cho, Hyeon-Dal
    • Spatial Information Research
    • /
    • 제16권4호
    • /
    • pp.455-465
    • /
    • 2008
  • 증강현실은 지리정보의 가시화 특히 현장에서의 직접적인 가시화에 있어 매우 높은 잠재력이 있다. 하지만 현재까지의 대부분의 이동형 증강현실 시스템은 사용자의 정확한 위치를 파악하기 위해 GPS 또는 범용적으로 쓰이는 마커를 현장에 붙이는 등의 방식을 사용되었다. 물론 최근의 연구에서 마커없는 환경을 지향하고 있으나 대부분 연구실 또는 제어 환경으로 사용이 제한되어 있다. 특히 실내의 경우 GPS를 사용할 수 없기 때문에 새로운 위치파악기술이 더욱 절실하다. 최근 활발히 활용되고 있는 무선(RF)기반의 실내 위치확인 및 내비게이션 기술 역시 대량의 센서와 인식기를 설치한다는 점에서 그 실용성이 의문이다. 본 연구에서는 단일카메라기반의 SLAM 알고리듬을 이용하여 특수한 하드웨어 없이 카메라만으로 실내 위치 확인 및 내비게이션이 가능한 알고리듬을 제시하였으며, 동시에 확인된 위치에서 증강현실을 통한 정보의 가시화가 가능하도록 구현 하였다. 향후 본 연구가 목표하고 있는 실내외 seamless 연동형 u-GIS 시스템의 기본 기능으로 활용 될 것이다.

  • PDF

영상기반 자동항법을 위한 실시간 위치인식 및 지도작성 (Real-time Simultaneous Localization and Mapping (SLAM) for Vision-based Autonomous Navigation)

  • 임현;임종우;김현진
    • 대한기계학회논문집A
    • /
    • 제39권5호
    • /
    • pp.483-489
    • /
    • 2015
  • 본 논문에서는 넓은 지역에서의 영상기반 자동 항법을 위한 실시간 위치인식 및 지도작성 방법을 제안한다. 한 대의 카메라에서 입력된 영상으로부터 제안된 방법은 6 자유도 카메라 자세와 3 차원 특징점 위치를 연속적으로 계산한다. 제안된 방법은 넓은 지역을 주행하며 촬영된 영상에 적용하여 그 위치와 환경지도를 성공적으로 작성하였이다. 본 논문에서는 이진기술자(binary descriptor)와 수치-위상(metric-topological)지도 표현법을 사용하여 GPU 나 영상의 축소 없이 실시간 성능과 광범위한 지역에서의 회귀점 검출(loop detection)을 하였다. 제안된 방법은 여러 환경에서 촬영된 영상과, 해당 영상의 GPS 기준값과 비교하여 평가하였다.

직선기반 SLAM에서의 루프결합 (Loop Closure in a Line-based SLAM)

  • 장국현;서일홍
    • 로봇학회논문지
    • /
    • 제7권2호
    • /
    • pp.120-128
    • /
    • 2012
  • The loop closure problem is one of the most challenging issues in the vision-based simultaneous localization and mapping community. It requires the robot to recognize a previously visited place from current camera measurements. While the loop closure often relies on visual bag-of-words based on point features in the previous works, however, in this paper we propose a line-based method to solve the loop closure in the corridor environments. We used both the floor line and the anchored vanishing point as the loop closing feature, and a two-step loop closure algorithm was devised to detect a known place and perform the global pose correction. We propose an anchored vanishing point as a novel loop closure feature, as it includes position information and represents the vanishing points in bi-direction. In our system, the accumulated heading error is reduced using an observation of a previously registered anchored vanishing points firstly, and the observation of known floor lines allows for further pose correction. Experimental results show that our method is very efficient in a structured indoor environment as a suitable loop closure solution.

2차원 라이다와 상업용 영상-관성 기반 주행 거리 기록계를 이용한 3차원 점 구름 지도 작성 시스템 개발 (Development of 3D Point Cloud Mapping System Using 2D LiDAR and Commercial Visual-inertial Odometry Sensor)

  • 문종식;이병윤
    • 대한임베디드공학회논문지
    • /
    • 제16권3호
    • /
    • pp.107-111
    • /
    • 2021
  • A 3D point cloud map is an essential elements in various fields, including precise autonomous navigation system. However, generating a 3D point cloud map using a single sensor has limitations due to the price of expensive sensor. In order to solve this problem, we propose a precise 3D mapping system using low-cost sensor fusion. Generating a point cloud map requires the process of estimating the current position and attitude, and describing the surrounding environment. In this paper, we utilized a commercial visual-inertial odometry sensor to estimate the current position and attitude states. Based on the state value, the 2D LiDAR measurement values describe the surrounding environment to create a point cloud map. To analyze the performance of the proposed algorithm, we compared the performance of the proposed algorithm and the 3D LiDAR-based SLAM (simultaneous localization and mapping) algorithm. As a result, it was confirmed that a precise 3D point cloud map can be generated with the low-cost sensor fusion system proposed in this paper.

라이다 점군 밀도에 강인한 맵 오차 측정 기구 설계 및 알고리즘 (Map Error Measuring Mechanism Design and Algorithm Robust to Lidar Sparsity)

  • 정상우;정민우;김아영
    • 로봇학회논문지
    • /
    • 제16권3호
    • /
    • pp.189-198
    • /
    • 2021
  • In this paper, we introduce the software/hardware system that can reliably calculate the distance from sensor to the model regardless of point cloud density. As the 3d point cloud map is widely adopted for SLAM and computer vision, the accuracy of point cloud map is of great importance. However, the 3D point cloud map obtained from Lidar may reveal different point cloud density depending on the choice of sensor, measurement distance and the object shape. Currently, when measuring map accuracy, high reflective bands are used to generate specific points in point cloud map where distances are measured manually. This manual process is time and labor consuming being highly affected by Lidar sparsity level. To overcome these problems, this paper presents a hardware design that leverage high intensity point from three planar surface. Furthermore, by calculating distance from sensor to the device, we verified that the automated method is much faster than the manual procedure and robust to sparsity by testing with RGB-D camera and Lidar. As will be shown, the system performance is not limited to indoor environment by progressing the experiment using Lidar sensor at outdoor environment.

비전센서와 INS 기반의 항법 시스템 구현 시 랜드마크 사용에 따른 가관측성 분석 (Observability Analysis of a Vision-INS Integrated Navigation System Using Landmark)

  • 원대희;천세범;성상경;조진수;이영재
    • 한국항공우주학회지
    • /
    • 제38권3호
    • /
    • pp.236-242
    • /
    • 2010
  • 위성항법시스템과 INS가 결합된 항법 시스템은 가용 위성이 없는 경우 항법 정보를 제공하지 못하는 단점이 있다. 이러한 단점을 극복하기 위해 비전센서를 결합한 항법 시스템이 대안으로 사용되지만, 일반적으로 특징점만 사용하여 항법을 수행하므로 가관측성이 부족한 문제점이 존재한다. 이때 사전에 위치가 알려져 있는 랜드마크를 추가적으로 사용하면 특징점만 이용하는 경우에 비해 가관측성을 향상 시킬 수 있다. 본 논문에서는 추가적인 랜드마크를 사용하는 경우에 대하여, TOM/SOM 분석과 고유치 분석을 통해 가관측성 향상 정도를 분석하였다. 시뮬레이션 결과 특징점만 사용하는 경우 항상 가관측성이 부족하나 랜드마크를 사용하는 경우 2번째 갱신과정 이후에는 완전 가관측한 특성을 보였다. 따라서 랜드마크를 사용하면 가관측성이 향상되므로 전체 시스템 성능을 향상시킬수 있다.

수중로봇을 위한 형태를 기반으로 하는 인공표식의 인식 및 추종 알고리즘 (Shape Based Framework for Recognition and Tracking of Texture-free Objects for Submerged Robots in Structured Underwater Environment)

  • 한경민;최현택
    • 전자공학회논문지SC
    • /
    • 제48권6호
    • /
    • pp.91-98
    • /
    • 2011
  • 본 논문에서는 수중로봇에 쓰일 수 있는 카메라 영상을 기반으로 하는 인공표식물의 인식 및 추종 기법을 제안한다. 문제를 풀기 위해 제안된 방법은 인식과 추종의 두 개의 단계로 이루어져 있으며 인식단계에서는 물체의 외형에 관한 특징을 분석한 후 비선형 최적화 알고리즘을 통하여 알맞은 목표물로 분류한다. 이 후 추종 단계에서는 분류된 목표물에서 색깔 히스토그램을 추출한 후 meanshift 추종 법을 이용하여 지속적으로 추종하는 방법을 택하였다. 히스토그램 매칭 시에는 Bhattacharyya 거리를 계산하는 방법을 이용하였다. 결과적으로 제안하는 접근법은 수중로봇의 영상처리 분야에 다음과 같은 공헌을 할 것으로 기대한다. 1) 제안하는 방법은 카메라의 움직임으로 생기는 물체의 자세변화나 크기 변화에도 강인하게 대처할 수 있으며 2) 카메라 센서를 통한 방법이므로 초음파 센서 등의 기기들에 비하여 가격 경쟁력이 우수하다. 3) 또한 본 논문에서는 일반적으로 많이 쓰이는 특징 점을 기반으로 한 방법이 탁도 변화에서는 형태를 기반으로 한 방법보다 열등할 수 있음을 실험을 통하여 보였다. 4) 마지막으로 제안된 방법의 성능을 기존의 방법들과 비교하여 수치적으로 검증해 보았다.

어안 워핑 이미지 기반의 Ego motion을 이용한 위치 인식 알고리즘 (Localization using Ego Motion based on Fisheye Warping Image)

  • 최윤원;최경식;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.70-77
    • /
    • 2014
  • This paper proposes a novel localization algorithm based on ego-motion which used Lucas-Kanade Optical Flow and warping image obtained through fish-eye lenses mounted on the robots. The omnidirectional image sensor is a desirable sensor for real-time view-based recognition of a robot because the all information around the robot can be obtained simultaneously. The preprocessing (distortion correction, image merge, etc.) of the omnidirectional image which obtained by camera using reflect in mirror or by connection of multiple camera images is essential because it is difficult to obtain information from the original image. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we extract motion vectors using Lucas-Kanade Optical Flow in preprocessed image. Third, we estimate the robot position and angle using ego-motion method which used direction of vector and vanishing point obtained by RANSAC. We confirmed the reliability of localization algorithm using ego-motion based on fisheye warping image through comparison between results (position and angle) of the experiment obtained using the proposed algorithm and results of the experiment measured from Global Vision Localization System.

레이저 센서에서 두 개의 특징점을 이용한 이동로봇의 항법 (Two Feature Points Based Laser Scanner for Mobile Robot Navigation)

  • 김주완;심덕선
    • 한국항행학회논문지
    • /
    • 제18권2호
    • /
    • pp.134-141
    • /
    • 2014
  • 이동로봇의 주행에는 주로 바퀴 엔코더, 비전, 초음파, 레이저 센서가 많이 사용된다. 바퀴의 엔코더는 추측항법으로 시간에 따라 오차가 누적되기 때문에 단독 사용으로는 정확한 로봇의 위치를 계산할 수가 없다. 비전 센서는 풍부한 정보를 제공하지만 정보추출에 시간이 많이 소요되고, 초음파 센서는 거리정보의 정확도가 떨어지기 때문에 항행에 사용하기에는 어려움이 있다. 반면 레이저 센서는 비교적 정확한 거리정보를 제공하여 주므로 주행 센서로 사용하기 적합하다. 본 논문에서는 레이저 거리계에서 각도를 추출하는 방법을 제안하고 칼만 필터를 사용하여 레이저 거리계에서 추출한 거리 및 각도와 바퀴 엔코더에서 추출한 거리 및 각도에 대한 정합을 수행한다. 일반적으로 레이저 거리계 사용시 특징점 하나를 사용한 경우에 그 특징점이 변하거나 새로운 특징점으로 이동할 때 오차가 커질 수가 있다. 이를 보완하기 위해 이동 로봇의 주행 시 레이저 스캐너에서 두 개의 특징점들을 사용하는 방법을 사용하여 이동 로봇의 항법 성능이 향상됨을 보인다.

상황 이해를 위한 로봇 중심 정보 동기화 시스템 (Synchronization System of Robot-centered Information for Context Understanding)

  • 임기현;이상훈;서일홍;김학수;손진현
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2006년도 하계종합학술대회
    • /
    • pp.933-934
    • /
    • 2006
  • High level perceptual tasks such as context understanding, SLAM and object recognition are essential for intelligent robot to provide services for human supports. Those intelligent robots often use camera sensor for vision information, sonar or laser sensor for range information, encoder for angular velocity of wheel and so on. The information is generated at different time intervals by the different H/W devices and S/W algorithms. The generation of high level information requires the specific mixture of low level information. And the information should be represented to be useful for robots to use in their ecological niche. In conventional robot systems, perceptual module requires the resource to use by tightly coupling whenever it is needed. So the resource and information cannot be easily shared and even could be invalid for the delayed information. In this paper, we propose a synchronization system of robot-centered information for context understanding. Our system represents information for the robot capacity and synchronizes the information that is asynchronously generated, where is employed the black-board architecture.

  • PDF