• 제목/요약/키워드: SLAM-based navigation

검색결과 47건 처리시간 0.028초

클라우드 연동을 위한 ROS2 on Yocto 기반의 Thin Client 로봇 개발 (Development of ROS2-on-Yocto-based Thin Client Robot for Cloud Robotics)

  • 김윤성;이돈근;정성훈;문형일;유창승;이강영;최준열;김영재
    • 로봇학회논문지
    • /
    • 제16권4호
    • /
    • pp.327-335
    • /
    • 2021
  • In this paper, we propose an embedded robot system based on "ROS2 on Yocto" that can support various robots. We developed a lightweight OS based on the Yocto Project as a next-generation robot platform targeting cloud robotics. Yocto Project was adopted for portability and scalability in both software and hardware, and ROS2 was adopted and optimized considering a low specification embedded hardware system. We developed SLAM, navigation, path planning, and motion for the proposed robot system validation. For verification of software packages, we applied it to home cleaning robot and indoor delivery robot that were already commercialized by LG Electronics and verified they can do autonomous driving, obstacle recognition, and avoidance driving. Memory usage and network I/O have been improved by applying the binary launch method based on shell and mmap application as opposed to the conventional Python method. Finally, we verified the possibility of mass production and commercialization of the proposed system through performance evaluation from CPU and memory perspective.

구조화된 환경에서의 가중치 템플릿 매칭을 이용한 자율 수중 로봇의 비전 기반 위치 인식 (Vision-based Localization for AUVs using Weighted Template Matching in a Structured Environment)

  • 김동훈;이동화;명현;최현택
    • 제어로봇시스템학회논문지
    • /
    • 제19권8호
    • /
    • pp.667-675
    • /
    • 2013
  • This paper presents vision-based techniques for underwater landmark detection, map-based localization, and SLAM (Simultaneous Localization and Mapping) in structured underwater environments. A variety of underwater tasks require an underwater robot to be able to successfully perform autonomous navigation, but the available sensors for accurate localization are limited. A vision sensor among the available sensors is very useful for performing short range tasks, in spite of harsh underwater conditions including low visibility, noise, and large areas of featureless topography. To overcome these problems and to a utilize vision sensor for underwater localization, we propose a novel vision-based object detection technique to be applied to MCL (Monte Carlo Localization) and EKF (Extended Kalman Filter)-based SLAM algorithms. In the image processing step, a weighted correlation coefficient-based template matching and color-based image segmentation method are proposed to improve the conventional approach. In the localization step, in order to apply the landmark detection results to MCL and EKF-SLAM, dead-reckoning information and landmark detection results are used for prediction and update phases, respectively. The performance of the proposed technique is evaluated by experiments with an underwater robot platform in an indoor water tank and the results are discussed.

실내 물류 환경에서 라이다-카메라 약결합 기반 맵핑 및 위치인식과 네비게이션 방법 (Loosely Coupled LiDAR-visual Mapping and Navigation of AMR in Logistic Environments)

  • 최병희;강경수;노예진;조영근
    • 로봇학회논문지
    • /
    • 제17권4호
    • /
    • pp.397-406
    • /
    • 2022
  • This paper presents an autonomous mobile robot (AMR) system and operation algorithms for logistic and factory facilities without magnet-lines installation. Unlike widely used AMR systems, we propose an EKF-based loosely coupled fusion of LiDAR measurements and visual markers. Our method first constructs occupancy grid and visual marker map in the mapping process and utilizes prebuilt maps for precise localization. Also, we developed a waypoint-based navigation pipeline for robust autonomous operation in unconstrained environments. The proposed system estimates the robot pose using by updating the state with the fusion of visual marker and LiDAR measurements. Finally, we tested the proposed method in indoor environments and existing factory facilities for evaluation. In experimental results, this paper represents the performance of our system compared to the well-known LiDAR-based localization and navigation system.

ARVisualizer : A Markerless Augmented Reality Approach for Indoor Building Information Visualization System

  • Kim, Albert Hee-Kwan;Cho, Hyeon-Dal
    • Spatial Information Research
    • /
    • 제16권4호
    • /
    • pp.455-465
    • /
    • 2008
  • 증강현실은 지리정보의 가시화 특히 현장에서의 직접적인 가시화에 있어 매우 높은 잠재력이 있다. 하지만 현재까지의 대부분의 이동형 증강현실 시스템은 사용자의 정확한 위치를 파악하기 위해 GPS 또는 범용적으로 쓰이는 마커를 현장에 붙이는 등의 방식을 사용되었다. 물론 최근의 연구에서 마커없는 환경을 지향하고 있으나 대부분 연구실 또는 제어 환경으로 사용이 제한되어 있다. 특히 실내의 경우 GPS를 사용할 수 없기 때문에 새로운 위치파악기술이 더욱 절실하다. 최근 활발히 활용되고 있는 무선(RF)기반의 실내 위치확인 및 내비게이션 기술 역시 대량의 센서와 인식기를 설치한다는 점에서 그 실용성이 의문이다. 본 연구에서는 단일카메라기반의 SLAM 알고리듬을 이용하여 특수한 하드웨어 없이 카메라만으로 실내 위치 확인 및 내비게이션이 가능한 알고리듬을 제시하였으며, 동시에 확인된 위치에서 증강현실을 통한 정보의 가시화가 가능하도록 구현 하였다. 향후 본 연구가 목표하고 있는 실내외 seamless 연동형 u-GIS 시스템의 기본 기능으로 활용 될 것이다.

  • PDF

환경 변화에 강인한 비전 기반 로봇 자율 주행 (Robust Vision-Based Autonomous Navigation Against Environment Changes)

  • 김정호;권인소
    • 대한임베디드공학회논문지
    • /
    • 제3권2호
    • /
    • pp.57-65
    • /
    • 2008
  • Recently many researches on intelligent robots have been studied. An intelligent robot is capable of recognizing environments or objects to autonomously perform specific tasks using sensor readings. One of fundamental problems in vision-based robot applications is to recognize where it is and to decide safe path to perform autonomous navigation. However, previous approaches only consider well-organized environments that there is no moving object and environment changes. In this paper, we introduce a novel navigation strategy to handle occlusions caused by moving objects using various computer vision techniques. Experimental results demonstrate the capability to overcome such difficulties for autonomous navigation.

  • PDF

이동 장애물을 고려한 DQN 기반의 Mapless Navigation 및 학습 시간 단축 알고리즘 (Mapless Navigation Based on DQN Considering Moving Obstacles, and Training Time Reduction Algorithm)

  • 윤범진;유승열
    • 한국정보통신학회논문지
    • /
    • 제25권3호
    • /
    • pp.377-383
    • /
    • 2021
  • 최근 4차 산업혁명에 따라 공장, 물류창고, 서비스영역에서 유연한 물류이송을 위한 자율 이동형 모바일 로봇의 사용이 증가하고 있다. 대규모 공장에서는 Simultaneous Localization and Mapping(SLAM)을 수행하기 위하여 많은 수작업이 필요하기 때문에 개선된 모바일 로봇 자율 주행에 대한 필요성이 대두되고 있다. 이에 따라 본 논문에서는 고정 및 이동 장애물을 피해 최적의 경로로 주행하는 Mapless Navigation에 대한 알고리즘을 제안하고자 한다. Mapless Navigation을 위하여 Deep Q Network(DQN)을 통해 고정 및 이동 장애물을 회피하도록 학습하였고 두 종류의 장애물 회피에 대하여 각각 정확도 90%, 93%를 얻었다. 또한 DQN은 많은 학습 시간을 필요로 하는데 이를 단축하기 위한 목표의 크기 변화 알고리즘을 제안하고 이를 시뮬레이션을 통하여 단축된 학습시간과 장애물 회피 성능을 확인하였다.

Dilution of Precision (DOP) Based Landmark Exclusion Method for Evaluating Integrity Risk of LiDAR-based Navigation Systems

  • Choi, Pil Hun;Lee, Jinsil;Lee, Jiyun
    • Journal of Positioning, Navigation, and Timing
    • /
    • 제9권3호
    • /
    • pp.285-292
    • /
    • 2020
  • This paper introduces a new computational efficient Dilution of Precision (DOP)-based landmark exclusion method while ensuring the safety of the LiDAR-based navigation system that uses an innovation-based Nearest-Neighbor (NN) Data Association (DA) process. The NN DA process finds a correct landmark association hypothesis among all potential landmark permutations using Kalman filter innovation vectors. This makes the computational load increases exponentially as the number of landmarks increases. In this paper, we thus exclude landmarks by introducing DOP that quantifies the geometric distribution of landmarks as a way to minimize the loss of integrity performance that can occur by reducing landmarks. The number of landmarks to be excluded is set as the maximum number that can satisfy the integrity risk requirement. For the verification of the method, we developed a simulator that can analyze integrity risk according to the landmark number and its geometric distribution. Based on the simulation, we analyzed the relationship between DOP and integrity risk of the DA process by excluding each landmark. The results showed a tendency to minimize the loss of integrity performance when excluding landmarks with poor DOP. The developed method opens the possibility of assuring the safety risk of the Lidar-based navigation system in real-time applications by reducing a substantial amount of computational load.

영상기반 자동항법을 위한 실시간 위치인식 및 지도작성 (Real-time Simultaneous Localization and Mapping (SLAM) for Vision-based Autonomous Navigation)

  • 임현;임종우;김현진
    • 대한기계학회논문집A
    • /
    • 제39권5호
    • /
    • pp.483-489
    • /
    • 2015
  • 본 논문에서는 넓은 지역에서의 영상기반 자동 항법을 위한 실시간 위치인식 및 지도작성 방법을 제안한다. 한 대의 카메라에서 입력된 영상으로부터 제안된 방법은 6 자유도 카메라 자세와 3 차원 특징점 위치를 연속적으로 계산한다. 제안된 방법은 넓은 지역을 주행하며 촬영된 영상에 적용하여 그 위치와 환경지도를 성공적으로 작성하였이다. 본 논문에서는 이진기술자(binary descriptor)와 수치-위상(metric-topological)지도 표현법을 사용하여 GPU 나 영상의 축소 없이 실시간 성능과 광범위한 지역에서의 회귀점 검출(loop detection)을 하였다. 제안된 방법은 여러 환경에서 촬영된 영상과, 해당 영상의 GPS 기준값과 비교하여 평가하였다.

2차원 라이다와 상업용 영상-관성 기반 주행 거리 기록계를 이용한 3차원 점 구름 지도 작성 시스템 개발 (Development of 3D Point Cloud Mapping System Using 2D LiDAR and Commercial Visual-inertial Odometry Sensor)

  • 문종식;이병윤
    • 대한임베디드공학회논문지
    • /
    • 제16권3호
    • /
    • pp.107-111
    • /
    • 2021
  • A 3D point cloud map is an essential elements in various fields, including precise autonomous navigation system. However, generating a 3D point cloud map using a single sensor has limitations due to the price of expensive sensor. In order to solve this problem, we propose a precise 3D mapping system using low-cost sensor fusion. Generating a point cloud map requires the process of estimating the current position and attitude, and describing the surrounding environment. In this paper, we utilized a commercial visual-inertial odometry sensor to estimate the current position and attitude states. Based on the state value, the 2D LiDAR measurement values describe the surrounding environment to create a point cloud map. To analyze the performance of the proposed algorithm, we compared the performance of the proposed algorithm and the 3D LiDAR-based SLAM (simultaneous localization and mapping) algorithm. As a result, it was confirmed that a precise 3D point cloud map can be generated with the low-cost sensor fusion system proposed in this paper.

대학 캠퍼스용 로봇차량의 자율주행을 위한 실험환경 구축 (Experimental Setup for Autonomous Navigation of Robotic Vehicle for University Campus)

  • 조성택;박영준;정슬
    • 한국지능시스템학회논문지
    • /
    • 제26권2호
    • /
    • pp.105-112
    • /
    • 2016
  • 본 논문은 대학 캠퍼스를 주행하는 차량의 자율주행을 위한 실험환경 구축에 대해 논한다. 이 차량은 대학이나 공원과 같은 특별한 장소에서 사용되고 근거리를 이동하기 위해 2인이 탑승한다. 정문에서 본부까지 자율주행을 수행하기 위한 실험환경을 구축한다. 초기 단계로 카메라로 바닥의 색깔을 구별하여 선을 검출한다. 빨간색과 노란색의 경계선을 검출하여 로봇차량이 추종할 수 있도록 하였다. 일부 구간의 자율 주행 실험을 통해 가능성을 검증하였다.