DOI QR코드

DOI QR Code

A Design and Implementation of Educational Delivery Robots for Learning of Autonomous Driving

  • Hur, Hwa-La (Dept. of Aeronautical Software Engineering, Kyungwoon University) ;
  • Park, Myeong-Chul (Dept. of Avionics Engineering, Kyungwoon University)
  • Received : 2022.10.18
  • Accepted : 2022.11.11
  • Published : 2022.11.30

Abstract

In this paper, proposes a delivery robot that can be autonomous driving learning. The proposed robot is designed to be used in park-type apartments without ground parking facilities. Compared to the existing apartments with complex ground and underground routes, park-type apartments have a standardized movement path, allowing the robot to run stably, making it suitable for students' initial education environment. The delivery robot is configured to enable delivery of parcels through machine learning technology for route learning and autonomous driving using cameras and LiDAR sensors. In addition, the control MCU was designed by separating it into three parts to enable learning by level, and it was confirmed that it can be used as a delivery robot for learning through operation tests such as autonomous driving and obstacle recognition. In the future, we plan to develop it into an educational delivery robot for various delivery services by linking with the precision indoor location information recognition technology and the public technology platform of the apartment.

본 논문은 자율주행 학습이 가능한 택배 로봇을 제안한다. 제안하는 로봇은 지상 주차시설이 없는 공원형 아파트에서 활용 가능하도록 설계되었으며 지상 및 지하 경로가 복잡한 기존 아파트에 비해 공원형 아파트는 이동 경로가 정형화되어 있어 로봇의 안정적인 주행이 가능하여 학생들의 초기 교육 환경으로 적합하다. 택배 로봇은 경로학습을 위한 머신러닝 기술과 카메라와 라이다 센서를 이용한 자율주행을 통하여 택배 운반이 가능하도록 구성하였다. 또한, 수준별 학습이 가능하도록 제어 MCU를 3개로 분리하여 설계하였으며 자율주행, 장애물 인식 등의 동작 테스트를 통하여 학습용 택배 로봇으로 활용될 수 있음을 확인하였다. 향후 정밀한 실내 위치정보 인식 기술과 아파트의 공공기술 플랫폼과 연동하여 다양한 배송 서비스를 위한 교육용 배송 로봇으로 발전시키고자 한다.

Keywords

I. Introduction

교육환경에서 자율주행과 머신러닝과 같은 신기술 학습은 모바일 앱과 같이 소프트웨어적 관점에서 편향적으로 교육되는 경향을 보인다. 또한, 하드웨어와 연동된 학습활동은 특정 전공이나 제한적인 지적 계층에서만 사용되고 있는 것이 현실이다. 이에 일반적인 학생들에게 수용될 수 있는 경제적이면서 자의적인 창의성과 컴퓨팅 사고를 반영할 수 있는 교구의 필요성이 매우 높다. 학생들이 흥미를 가지고 지속적으로 사용하기 위해서는 현실성 있는 하드웨어와 손쉬운 동작 변경이 전제되어야 하며 활동도가 높고 비교대상이 될 수 있는 시장 진입의 초기 제품이 유용하다. 이에 본 연구에서는 택배 배송을 위한 이동 로봇을 설계하고 이를 통하여 자율주행 등의 다양한 기능적 행위를 구현할 수 있는 택배 로봇을 제안한다. 코로나로 인한 비대면 일상은 택배 배송 환경에도 많은 변화를 가져왔다. 키오스크를 통한 무인 주문 및 계산에 이어 자율주행 서빙 로봇은 식당 등에서 쉽게 접할 수 있으며 대기업부터 스타트업까지 서빙 로봇 시장에 뛰어 들고 있다. 대부분의 서빙 로봇은 음식 전달과 퇴식의 기능을 수행하는데, 자율주행 기능과 LiDAR 센서를 통한 장애물 및 사람과의 충돌을 회피하며 서비스를 수행한다. 근래에는 집 앞까지 택배를 배달하는 로봇도 개발되어 실증테스트를 마치고 상용화를 앞두고 있다. 국외에서는 최대 전자상거래 업체인 아마존이 2019년에 상품 배송용 로봇 ‘스카우트(Scout)’로 로봇 배송을 시작하였지만 2022년 10월에 매출 증가세 둔화로 인해 테스트를 중단하였다. 하지만, 지속적인 다른 유형의 변형 로봇을 통하여 투자를 확장하고 있다[1] 국내에서는 2021년부터 국내 스타트업을 중심으로 택배기사를 대신한 라스트 마일 구간을 배송하는 로봇이 실증테스트에 돌입하였으며, 일반적으로 자율주행 로봇과 택배를 보관하는 별도의 스테이션으로 구성되며 LiDAR 센서와 카메라, 적외선 센서를 이용하여 서비스를 수행한다[2]. 최근 대부분의 공동주택은 쾌적한 환경과 입주민의 통행 안전성을 높이기 위하여 지상 주차시설이 없는 공원형 아파트가 늘어나고 있는 추세이다. 또한 외부인의 출입을 제한하고 다른 아파트와 차별화된 시스템을 제공하는 차원에서 무인 택배 시스템이 설치되고 있다. 하지만, 무인 택배 시스템은 사용자가 직접 물건을 수령해야 하는 문제점이 있으며, 이를 해결하고 편리성을 도모하기 위하여 라스트 마일 구간에 배송 로봇을 적용하는 사례가 늘고 있다[3]. 본 연구에서는 이부분에 착안하여 공원형 아파트에 적용될 수 있는 학습용 택배 로봇을 제안한다. 이는 지상 및 지하 경로가 복잡한 기존 아파트에 비해 공원형 아파트는 이동 경로가 정형화 되어 있어 로봇의 안정적인 주행이 가능하여 학생들의 초기 교육 환경으로 적합하기 때문이다. 택배 로봇은 경로학습을 위한 머신러닝 기술과 카메라와 LiDAR 센서를 이용한 자율주행을 통하여 택배 운반이 가능하도록 구성하였다. 논문의 구성은 2장에서 자율주행 로봇의 이용한 기존 연구를 살펴보고 3장에서 구현을 위한 로봇의 설계에 관해 기술한다. 4장에서 실제 구현된 택배 로봇에 대해 상세히 설명하고 5장에서 결과에 관해 기술한다.

II. Background

1. Related works

현행 도로교통법규상으로 실외의 자율주행 로봇은 ‘자동차’로 규정하여 일반 도로 및 횡단보도 주행을 금지하고 있다. 이에 산업통상자원부는 2022년 7월에 자율주행 배송 로봇 서비스 실증특례 부가조건을 대폭 완화하여 서울 일부 아파트에서 로봇을 통한 택배 전달이 가능하도록 하였다[4]. Jaead[5]는 LiDAR 센서를 이용하여 농작물 수확을 위한 탐색 로봇을 소개하였으며, Hutabarat[6]은 장애물 회피를 위하여 LiDAR 센서를 사용하고 Raspberry Pi3 프로세서를 이용하여 센서 데이터의 수집 및 제어 알고리즘을 구현하였다.

CPTSCQ_2022_v27n11_107_f0001.png 이미지

Fig. 1. Self-driving service robot 'James'[2]

Flavio[7]는 LiDAR 센서 데이터를 사용하여 수확 전에 대상 작물을 탐색하는 알고리즘을 제안하였다. Gatesichapakorn[8]은 2D LiDAR 및 RGB-D 카메라를 사용하며 전력 소비가 낮은 온 보드 시스템을 통하여 자율 이동 로봇을 구현하였다. 특히, Raspberry Pi 3 환경에서 2D LiDAR만을 사용한 시스템과 Intel NCU에서 RGB-D 카메라까지 포함한 2개의 시스템을 제안하였다. Jing[9]는 공개적으로 이용 가능한 OpenStreetMap을 이용하여 도로망 정보와 지역 인식 정보를 결합한 로봇 내비게이션 방법을 제안하였다. Ghorpade[10]은 자율 이동 로봇을 위한 2D LiDAR 기반의 효율적인 장애물 탐지 및 회피 모델을 제안하여 레이저 포인트 클라우드에서 공간 정보를 추출하였다. 최근 Nguyen[11]은 큰 커브 길을 선회할 때 로봇이 이동 속도를 줄이기 어려운 문제를 해결하기 위하여 로봇이 궤적을 예측하고 선회를 위해 감속하여 경로 추적의 정확도를 높일 수 있도록 개선된 Pure Pursuit 알고리즘을 제안하였다. 손영광[12]는 ROS(Robot Operating System) 기반 자율주행 배송 플랫폼 아키텍처를 제안하였으며 LiDAR 센서를 통한 장애물 감지, 카메라를 통한 환경 인식, 위치 정보를 위한 GPS와 IMU(Inertial Measurement Unit)를 장착하였다. 문유빈[13]은 공항에서 사용할 수 있는 캐리어 로봇을 제안하였으며, 사용자를 추종하는 모드와 목표 지점으로 안내하는 기능을 수행한다. 더불어 사용자 소지품 도난 방지를 위해 무게 측정 기능을 내장하고 있다. 강수민[14]는 ROS 기반에서 LiDAR SLAM 기법을 통하여 실내 물류 이동을 위한 스마트 카트를 제안하였다. 또한 도난방지를 위하여 OpenCV을 이용한 안면인식과 딥러닝을 활용한 표정인식 기술을 적용하였다. 박동규[15]는 물류 센터의 무인화를 목적으로 실내 자율 주행 로봇을 제안하였으며, 목적지 설정 및 장애물 인식 외에도 YOLO를 이용하여 상자를 분류하는 기능을 가지고 있는 것이 특징이다. 박명철[16]은 본 연구의 근간이 되는 아파트 내에서 자율주행을 통한 택배 배송 로봇을 제안하였다.

III. Design

1. Components of educational delivery robot

Fig. 2는 제안하는 전체 시스템의 구성 요소 간 기능과 데이터 흐름을 보인 것이다. 본 논문에서 제안하는 택배 로봇은 공원형 아파트에서 사용할 수 있는 구조로서 정형화된 경로와 실외에 비해 장해물로 인한 주행의 어려움이 크지 않다는 특징이 있다. 또한 자율주행 등의 학습을 위한 용도이므로 2장 1절의 기존 연구에서 언급한 기술적 로봇과는 구성요소에 차이점을 가진다. 먼저, 제어를 위한 마이크로프로세서는 3개로 구분하여 동작하게 구성한다. 자율주행과 연동되어 택배함을 전반적으로 제어하는 주 프로세서, 자율주행과 센서들을 제어하기 위한 부 프로세서, 그리고 택배함을 제어하는 독립된 제어 프로세서로 구성된다. 센서는 장애물 회피를 위한 LiDAR 센서와 거리를 측정하기 위한 초음파 센서, 이동 경로를 학습하기 위한 카메라로 구성되며 이동체 바퀴를 위한 모터 드라이버와 DC 모터도 추가되어 있다. 그 외에도 사용자 인터페이스를 위한 스크린 및 부저, 키패드도 포함되어 있다. 각 구성요소는 학습자의 이해정도에 따라 단계별로 동작할 수 있게 구성되었으며, 초기단계에서는 방향성만을 위한 수동 주행에서 고급단계에서는 자율주행 및 장애물 회피 및 경로 학습도 가능하게 하였다. 본 연구의 결과를 반영하여 차후에 다양한 교육과정을 설계하여 학습자의 난이도를 조절 가능할 수 있게 구성하는 것이 주안점 이였다.

CPTSCQ_2022_v27n11_107_f0002.png 이미지

Fig. 2. Features of Components and Data Flow Diagram

2. Circuit design of delivery robot

Fig. 3은 제안하는 택배 로봇에 대한 전체 회로도이다. 메인부는 앞서 언급한 바와 같이 3개의 MCU로 구성되어 있다. 먼저, 중앙에 위치한 Raspberry Pi는 Orange Pi와 Arduino Uno의 동작을 제어하는 메인 MCU에 해당한다. 메인 MCU의 동작 지시에 따라 Orange Pi 프로세서는 자율 주행을 시작하고 Arduino Uno 프로세서는 택배가 적재된 상자의 잠금장치를 제어하게 된다. 이는 역할별로 MCU를 분리하여 단계별 학습이 가능하도록 하기 위함이다. 센서부는 전방의 주행로를 인식하기 위한 카메라 모듈과 전방의 장애물을 감지하고 물체의 면적을 측정하기 위한 LiDAR 센서, 거리를 측정하기 위한 초음파 센서로 구성되며 데이터 송수신에 따른 동작 제어는 Orange Pi 프로세서가 처리한다. 주행을 위한 구동부는 바퀴에 연결된 네 개의 DC 기어 모터와 이를 제어하기 위한 모터 드라이버로 구성되어 있다. 주행을 위한 동작 신호는 Orange Pi 프로세서에서 모터 드라이버에 전달되고 동작구분에 따라 각 바퀴의 기어 모터를 제어하게 된다. 로봇의 상태를 사용자에게 전달하기 위하여 메인 MCU에 스크린이 연결되어 있고 장애물 거리가 50cm이내 일 경우에는 수동부저에 의해 경고음이 발생하게 된다. 수령인 확인을 위한 비밀번호 입력과 릴레이 모듈을 통한 택배함의 잠금장치(솔레노이드 도어락) 제어는 Arduino Uno가 수행하도록 회로가 구성되어 있다.

CPTSCQ_2022_v27n11_107_f0003.png 이미지

Fig. 3. Circuit design of Implemented Delivery Robots

3. Component of delivery robot

메인 MCU는 Raspberry Pi 4 Model B로 다른 두 프로세서의 총괄제어와 출력부를 담당한다. USB 3.0 포트 탑재로 빠른 데이터 전송이 가능하고 다양한 UI 포트를 가지고 있다. Orange Pi 보드는 자율주행 경로 학습이 타 보드에 비해 뛰어난 특징이 있으며, 쿼드코어와 더불어 1GB DDR3 메모리와 HDMI를 지원하고 카메라 모듈 연결을 통한 인식에 적합한 보드이다. 잠금장치를 제어하는 보드는 별도의 드라이브 설치가 없고 크기가 작으며 사용이 편리한 Arduino Uno를 사용한다. 특히, 특성이 다른 세 가지 MCU을 통하여 다양한 단계별 학습이 가능하다는 장점을 가진다. 장애물 인식을 위한 LiDAR 센서의 Tfmini Plus 모델로 측정 범위는 0.1m ~ 12m의 성능을 가지며 0.5V 전압에 동작하고 UART 통신이 가능하면서 저 전력 및 방수방진에 강한 모듈을 선택하였다.

바퀴 구동을 위한 모터 드라이버는 DM139 L298N 모델로 동작 전압은 5~35V로 자유로우며 방열판이 내장되어 발열을 효과적으로 제어할 수 있다. 최대 2개의 DC 모터 제어가 가능하므로 실제 연결되는 DC 기어 모터는 2개씩 묶어서 연결한다. DC 기어 모터는 N20 6V 모델로 최대 토크는 0.8kn/cm이며 무게가 12g으로 무게 대비 출력이 좋은 편이다. 카메라 모듈은 2MP camera module 모델로 해상도는 1600*1200 픽셀이고 2메가 픽셀 CMOS 이미지 센서가 장착되어 있다. 초음파 센서는 가장 일반적인 HC-SR04 DM4 모델로 측정 범위는 2cm ~ 500cm이며 가장 가벼운 모델로 선정하였다. 각 구성요소는 학생들의 단계별 수준에 따라 차등적으로 변경할 수 있으며 초기 구성품은 경제성을 고려하여 최소한의 동작 상태를 염두하여 선정하였다. 제안하는 택배 로봇의 핵심 제원은 Table 1과 같다.

Table 1. Specification of Delivery Robots

CPTSCQ_2022_v27n11_107_t0001.png 이미지

IV. Implementation

1. Implementation of delivery robot

Fig. 3의 회로도를 근간으로 택배 로봇을 제작하였다. 상태 점검과 동작 확인 및 결선 변경이 용이하도록 센서부와 MCU는 Fig. 4의 ( a )와 같이 로봇의 전면부 하단에 배치하였으며 초음파 센서는 하단, 카메라는 중간, LiDAR 센서는 상단에 부착하여 측정을 용이하게 하였다. 로봇의 상단에는 Fig. 4의 (b)와 같이 키패드와 라즈베리파이 스크린이 배치되어 있으며 열고 닫을 수 있게 경첩으로 연결하였다. Fig.4의 ( c )는 측면에서 본 로봇의 모습이며, 수납공간을 확보하기 위하여 별도의 공간으로 구성하였다.

CPTSCQ_2022_v27n11_107_f0004.png 이미지

Fig. 4. Deployment of units of Delivery Robots

최종 완성된 택배 로봇은 Fig. 5와 같으며, 우측은 로봇의 후면부이며 MCU와 간섭을 피하기 위하여 모터 드라이브를 배치하였다.

CPTSCQ_2022_v27n11_107_f0005.png 이미지

Fig. 5. Completed Delivery Robots

2. Operation procedure of delivery robot

Fig. 6은 택배 로봇의 표준적인 동작 흐름도를 보인 것이다. MCU에 전원이 인가되면 센서부와 구동부를 초기화 한다. 그리고 주행을 시작하기 위하여 Orange Pi 보드에 내정된 자율주행 프로그램 실행하게 된다. 이때, 목적지에 대한 경로 학습이 되어 있으면 문제가 없지만 학습된 경로 정보가 없으면 원격 조정을 통하여 경로를 학습시키고 저장하게 한다. 경로 학습이 되어 있는 상태가 되면 LiDAR 및 초음파 센서를 작동시키고 전방에 장애물이 감지되지 않으면 지속적으로 주행하게 되고, 이동 중에 장애물이 감지되면 부저를 통해 경고음을 발생시킨다. 장애물이 제거되면 이동을 계속 진행하고 목적지에 도착하면 멤브레인 키패드로 비밀번호를 입력해 달라는 메시지를 스크린에 출력한다. 비밀번호가 일치하면 잠금장치를 해제하고 프로그램을 종료하게 된다. 추가적인 동작을 통하여 출발 위치를 기억하고 배송 종료이후에 출발지점으로 되돌아가는 요소를 구현할 수 있다. Fig. 7은 LiDAR 센서에서 감지된 물체와의 거리와 면적을 측정하여 시리얼 모니터에 출력하고 물체와의 거리가 50cm 이하일 경우에는 부저를 통하여 경고음을 울리는 코드 루프를 보이고 있다.

CPTSCQ_2022_v27n11_107_f0006.png 이미지

Fig. 6. Flow Chart of Delivery Robots

CPTSCQ_2022_v27n11_107_f0007.png 이미지

Fig. 7. Calculation of distance and area of objects using LiDAR sensor

3. Experiment of delivery robot

Fig. 8은 구현한 택배 로봇의 기본적인 동작을 확인하기 위한 시나리오별 자율주행 테스트를 보인 결과이다. Fig. 8의 ( a )는 격자 바닥에 경로를 설정하고 가상의 목적지까지 자율주행 여부를 테스트하는 장면이다. 검정색 라인은 통행이 불가능한 벽면을 가상으로 설정한 것이다. Fig. 8의 ( b )는 경로의 회전 반경을 크게 했을 경우에 안정적인 턴 여부를 테스트하는 장면이다. 주행 속도를 줄이지 않고 턴을 할 경우, 회전축에 가까운 바퀴가 반대편 바퀴에 비해 속도가 빨라지는 현상으로 경로를 벗어나는 문제점을 보였다. 이를 해결하기 위하여 3축 가속도를 측정하는 자이로 센서를 추가하여 회전에 따른 방향각의 급격한 변화를 감지하여 모터의 속도 값을 보정하도록 하였다. 이는 학습자에게 새로운 도전과제를 제시하기 위한 용도로 활용될 수 있을 것이다. Fig. 8의 ( c )는 LiDAR 센서와 초음파 센서을 이용하여 장애물을 인식하고 경고음을 울리는 테스트를 보인 예시이다. 그림 하단의 붉은색 박스에 장애물 인식과 관련된 실험 화면을 보이고 있으며, Table 2와 같이 장애물이 근접할 경우 인식과 더불어 경고음을 울리는 것을 확인하였다. 다만, 고속으로 이동하는 물체에 대해서는 다소 낮은 인식률를 보였다.

CPTSCQ_2022_v27n11_107_f0008.png 이미지

Fig. 8. Autonomous driving test of delivery robots

Table 2. Result of the Obstacle Recognition Test​​​​​​​

CPTSCQ_2022_v27n11_107_t0002.png 이미지

Fig. 9의 왼쪽은 배송이 시작되기 전에 사용자에게 해당 정보를 알리고 스크린을 통해 배송중임을 표시하는 화면이 다. 실제 환경에서는 스크린 메시지는 의미가 없지만, 학습을 위한 메시지 알림 및 모니터링을 위한 용도로 활용할 수 있다. 실제 메시지는 로봇의 격납하는 장치나 별도의 배송 관리 시스템에서 발송될 수 있겠지만, 본 연구 결과물에서는 컴퓨터에 가상의 통제시스템을 지정하고 앱 인벤터를 통한 앱을 구현하여 메시지를 전달 받게 하였다. Fig. 9의 오른쪽은 목적지에 도착한 배송 로봇의 키패드에 비밀번호를 입력하여 배송을 완료하는 장면을 보인 것이다.

CPTSCQ_2022_v27n11_107_f0009.png 이미지

Fig. 9. Sending a message indicating the start and end of delivery​​​​​​​

Ⅴ. Conclusions

본 논문은 자율주행 학습이 가능한 공원형 아파트의 라스트 마일 구간에 적용 가능한 배송 로봇을 제안하였다. 또한, 학습자의 단계별 학습과 수준에 따른 난이도 적용을 위하여 제어 MCU를 3개로 구분하여 설계하였으며, MCU별 동작이 가능하도록 구현하였다. 기본적인 주행을 위한 테스트를 완료하고 해당 동작 코드를 기반으로 학습을 시작할 수 있게 하였다. 구현한 로봇은 학부 2학년 과정의 ‘디자인씽킹과 SW프로젝트’ 교육과정에 적용하여 학습용 로봇으로 활용될 수 있음을 확인하였다. 또한, 자이로 센서 및 다양한 통신 모듈을 확장하여 모바일 앱이나 중앙 모니터링 시스템과 연동할 수 있게 확장할 수 있는 가능성을 타진하였다. 하지만, 구조물의 형태 변형과 주행 속도가 현저히 느리다는 문제점을 보였으며 경로학습을 위한 실험환경 구축이 추가되어야 할 것으로 분석되었다. 향후, 로봇 동작을 위한 사실적인 가상 환경 구축과 형태 변형이 없는 구조물 개선을 통하여 문제를 해결하고자 한다.

References

  1. Amazon delivery robot, http://www.irobotnews.com/news/articleView.html?idxno=29724
  2. Robot Delivery Era, https://www.etnews.com/20210820000155
  3. Naver 1784, https://mobile.newsis.com/view.html?aAr_id=NISX20220413_0001832507
  4. Ministry of Trade, Industry and Energy(press release), Significantly eased additional conditions for self-driving robot demonstration special cases, 2022.07.28.
  5. Iqbal, Jawad and Xu, Rui and Sun, Shangpeng and Li, Changying, "Simulation of an Autonomous Mobile Robot for LiDAR-Based In-Field Phenotyping and Navigation," Robotics 2020, Vol. 9(2), 46. DOI :10.3390/robotics9020046
  6. D. Hutabarat, M. Rivai, D. Purwanto and H. Hutomo, "Lidar-based Obstacle Avoidance for the Autonomous Mobile Robot," 2019 12th International Conference on Information & Communication Technology and System (ICTS), pp. 197-202, 2019. DOI: 10.1109/ICTS.2019.8850952
  7. Flavio B.P. Malavazi, Remy Guyonneau, Jean-Baptiste Fasquel, Sebastien Lagrange, Franck Mercier, "LiDAR-only based navigation algorithm for an autonomous agricultural robot," Computers and Electronics in Agriculture, Vol. 154, pp. 71-79, Nov. 2018. DOI : 10.1016/j.compag.2018.08.034
  8. S. Gatesichapakorn, J. Takamatsu and M. Ruchanurucks, "ROS based Autonomous Mobile Robot Navigation using 2D LiDAR and RGB-D Camera," 2019 First International Symposium on Instrumentation, Control, Artificial Intelligence, and Robotics (ICA-SYMP), pp. 151-154, 2019. DOI: 10.1109/ICA-SYMP.2019.8645984
  9. J. Li, H. Qin, J. Wang and J. Li, "OpenStreetMap-Based Autonomous Navigation for the Four Wheel-Legged Robot Via 3D-Lidar and CCD Camera," in IEEE Transactions on Industrial Electronics, Vol. 69(3), pp. 2708-2717, March 2022. DOI: 10. 1109/TIE.2021.3070508 https://doi.org/10.1109/TIE.2021.3070508
  10. D. Ghorpade, A. D. Thakare and S. Doiphode, "Obstacle Detection and Avoidance Algorithm for Autonomous Mobile Robot using 2D LiDAR," 2017 International Conference on Computing, Communication, Control and Automation (ICCUBEA), pp. 1-6, 2017. DOI: 10.1109/ICCUBEA.2017.8463846
  11. Nguyen PT-T, Yan S-W, Liao J-F, Kuo C-H. "Autonomous Mobile Robot Navigation in Sparse LiDAR Feature Environments," Applied Sciences, Vol. 11(13):5963, 2021. DOI:10.3390/app11135963
  12. Younggwang Son, et al. "Autonomous Delivery Platform Architecture Design based on ROS (Robot Operating System)," KSAE 2020 Annual autumn conference, pp. 686-689, 2020.
  13. Yu-bin Moon, et al. "Self-driving Smart Carrier Robot," Proceedings of the Korea Information Processing Society Conference, Vol. 28(2), pp. 1176-1179, 2021.
  14. Soo-Min Kang, Chang-Gyun Kim, Jun-Hyeok Shin, Dong-Won Kwon, Kyung-Eun Kim, Hwang-Rae Kim., "Implemention of an Indoor Smart Cart System using Autonomous Driving," Proceedings of KIIT Conference, pp. 619-621, 2021.
  15. Dong Gyu Park, Kyu Ree Kim, Jin Woo Jang, Dong Hwan Kim. "ROS-based Control System for Localization and Object Identification of Indoor Self-driving Mobile Robot," Transactions of the Korean Society of Mechanical Engineers-A, Vol. 45(12), pp. 1149-1160, 2021. DOI : 10.3795/KSME-A.2021.45.12.1149
  16. Myeong-Chul Park, Kang-Hyun Kim, Hyo-Seop Jeon., "Apartment-type Self-Driving Courier Delivery Robot," Proceedings of the Korean Society of Computer Information Conference, Vol. 30(1), pp. 301-302, 2022.