• 제목/요약/키워드: ROS (Robot Operating System)

검색결과 64건 처리시간 0.02초

도심 자율주행을 위한 라이다 정지 장애물 지도 기반 위치 보정 알고리즘 (LiDAR Static Obstacle Map based Position Correction Algorithm for Urban Autonomous Driving)

  • 노한석;이현성;이경수
    • 자동차안전학회지
    • /
    • 제14권2호
    • /
    • pp.39-44
    • /
    • 2022
  • This paper presents LiDAR static obstacle map based vehicle position correction algorithm for urban autonomous driving. Real Time Kinematic (RTK) GPS is commonly used in highway automated vehicle systems. For urban automated vehicle systems, RTK GPS have some trouble in shaded area. Therefore, this paper represents a method to estimate the position of the host vehicle using AVM camera, front camera, LiDAR and low-cost GPS based on Extended Kalman Filter (EKF). Static obstacle map (STOM) is constructed only with static object based on Bayesian rule. To run the algorithm, HD map and Static obstacle reference map (STORM) must be prepared in advance. STORM is constructed by accumulating and voxelizing the static obstacle map (STOM). The algorithm consists of three main process. The first process is to acquire sensor data from low-cost GPS, AVM camera, front camera, and LiDAR. Second, low-cost GPS data is used to define initial point. Third, AVM camera, front camera, LiDAR point cloud matching to HD map and STORM is conducted using Normal Distribution Transformation (NDT) method. Third, position of the host vehicle position is corrected based on the Extended Kalman Filter (EKF).The proposed algorithm is implemented in the Linux Robot Operating System (ROS) environment and showed better performance than only lane-detection algorithm. It is expected to be more robust and accurate than raw lidar point cloud matching algorithm in autonomous driving.

ROV Manipulation from Observation and Exploration using Deep Reinforcement Learning

  • Jadhav, Yashashree Rajendra;Moon, Yong Seon
    • Journal of Advanced Research in Ocean Engineering
    • /
    • 제3권3호
    • /
    • pp.136-148
    • /
    • 2017
  • The paper presents dual arm ROV manipulation using deep reinforcement learning. The purpose of this underwater manipulator is to investigate and excavate natural resources in ocean, finding lost aircraft blackboxes and for performing other extremely dangerous tasks without endangering humans. This research work emphasizes on a self-learning approach using Deep Reinforcement Learning (DRL). DRL technique allows ROV to learn the policy of performing manipulation task directly, from raw image data. Our proposed architecture maps the visual inputs (images) to control actions (output) and get reward after each action, which allows an agent to learn manipulation skill through trial and error method. We have trained our network in simulation. The raw images and rewards are directly provided by our simple Lua simulator. Our simulator achieve accuracy by considering underwater dynamic environmental conditions. Major goal of this research is to provide a smart self-learning way to achieve manipulation in highly dynamic underwater environment. The results showed that a dual robotic arm trained for a 3DOF movement successfully achieved target reaching task in a 2D space by considering real environmental factor.

선박 자동계류를 위한 LiDAR기반 시각센서 시스템 개발 (A LiDAR-based Visual Sensor System for Automatic Mooring of a Ship)

  • 김진만;남택근;김헌희
    • 해양환경안전학회지
    • /
    • 제28권6호
    • /
    • pp.1036-1043
    • /
    • 2022
  • 본 논문은 자동계류 장치에 설치하여 선박의 접안 상황을 검출할 수 있는 시각 센서의 개발에 대하여 논하고 있다. 선박의 접안 시 사고방지를 위해 선박의 속도를 통제하고 위치를 확인하고 있음에도 불구하고 부두에서의 선박 충돌사고는 매년 발생하고 있으며, 이로 인한 경제적, 환경적 피해가 매우 크다. 따라서 부두에 접안하는 선박에 대한 안전성 확보를 위해 선박의 위치 및 속도 정보를 신속하게 확보할 수 있는 시각 시스템의 개발은 중요하다. 이에 본 연구에서는 선박의 접안 시 사람과 유사하게 영상을 통해 접안하는 선박을 관찰하고, 주변 환경에 따른 선박의 접안 상태를 적절하게 확인할 수 있는 시각센서를 개발하였다. 먼저, 개발하고자 하는 시각 센서의 적정성을 확보하기 위해 기존 센서로부터 제공되는 정보, 감지 범위, 실시간성, 정확도 및 정밀도 측면에서 센서 특성을 분석하였다. 이러한 분석 자료를 바탕으로 LiDAR형태의 3D시각 시스템의 개념 설계, 구동메커니즘 설계 및 모션 구동부의 힘과 위치 제어기 설계 등을 수행하여 대상물의 정보를 실시간으로 획득할 수 있는 3D 시각 모듈을 개발하였다. 최종적으로 시스템 구동을 위한 제어 시스템의 성능평가와 스캔 속도에 대한 성능을 분석하였고, 실험을 통해 개발된 시스템의 유용성을 확인할 수 있었다.

분산군집제어 알고리즘 기반 농업용 멀티 UAV 시스템의 시뮬레이터 구현 (Implementation of Agricultural Multi-UAV System with Distributed Swarm Control Algorithm into a Simulator)

  • 주찬영;박성준;손형일
    • 한국농업기계학회:학술대회논문집
    • /
    • 한국농업기계학회 2017년도 춘계공동학술대회
    • /
    • pp.37-38
    • /
    • 2017
  • 최근 방제 및 예찰과 같은 농작업에 단일 UAV(Unmanned Aerial Vehicle)시스템이 적용되고 있지만, 가반하중과 체공시간 등 기존시스템의 문제가 점차 대두되면서 작업 시간을 보다 단축시키고 작업 효율을 극대화 할 수 있는 농업용 멀티 UAV시스템의 필요성이 증대되고 있다. 본 논문에서는 작업자가 다수의 농업용 UAV를 효과적으로 제어할 수 있는 분산군집제어 알고리즘을 제안하며 알고리즘 검증 및 평가를 위한 시뮬레이터를 소개한다. 분산군집제어는 UAV 제어 계층, VP(Virtual Point) 제어 계층, 원격제어 계층으로 이루어진 3계층 제어구조를 가진다. UAV 제어 계층에서 각 UAV는 point mass로 모델링 되는 VP의 이상적인 경로를 추종하도록 제어한다. VP 제어 계층에서 각 VP는 입력 $p_i(t)=u^c_i+u^o_i+u^{co}_i+u^h_i$-(1)을 받아 제어되는데 여기서, $u^c_i{\in}{\mathbb{R}}^3$는 VP 사이의 충돌방지제어, $u^o_i{\in}{\mathbb{R}}^3$는 장애물과의 충돌방지제어, $u^{co}_i{\in}{\mathbb{R}}^3$는 UAV 상호간의 협조제어, $u^h_i{\in}{\mathbb{R}}^3$는 작업자로부터의 원격제어명령이다. (1)의 제어입력에서 충돌방지제어는 각 $u^i_c:=-{\sum\limits_{j{\in}{\eta}_i}}{\frac {{\partial}{\phi}_{ij}^c({\parallel}p_i-p_j{\parallel})^T}{{\partial}p_i}}$-(2), $u^o_c:=-{\sum\limits_{r{\in}O_i}}{\frac {{\partial}{\phi}_{ir}^o({\parallel}p_i-p^o_r{\parallel})^T}{{\partial}p_i}}$-(3)로 정의되면 ${\phi}^c_{ij}$${\phi}^o_{ir}$는 포텐셜 함수를 나타낸다. 원격제어 계층에서 작업자는 햅틱 인터페이스를 통해 VP의 속도를 제어하게 된다. 이때 스케일변수 ${\lambda}$에 대하여 VP의 원격제어명령은 $u^t_i(t)={\lambda}q(t)$로 정의한다. UAV 시뮬레이터는 리눅스 환경에서 ROS(Robot Operating Systems)를 기반한 3차원 시뮬레이터인 Gazebo상에 구축하였으며, 마스터와 슬레이브 간의 제어 명령은 TCPROS를 통해 서로 주고받는다. UAV는 PX4 기반의 3DR Solo 모델을 사용하였으며 MAVROS를 통해 MAVLink 통신 프로토콜에 접속하여 UAV의 고도, 속도 및 가속도 등의 상태정보를 받을 수 있다. 현재 멀티 드론 시스템을 Gazebo 환경에 구축하였으며, 추후 시뮬레이터 상에 분산군집제어 알고리즘을 구현하여 검증 및 평가를 진행하고자 한다.

  • PDF