DOI QR코드

DOI QR Code

Development and Performance Evaluation of Multi-sensor Module for Use in Disaster Sites of Mobile Robot

조사로봇의 재난현장 활용을 위한 다중센서모듈 개발 및 성능평가에 관한 연구

  • Jung, Yonghan (Disaster Scientific Investigation Division, National Disaster Management Research Institute) ;
  • Hong, Junwooh (Department of Convergence IT Engineering, Pohang University of Science and Technology) ;
  • Han, Soohee (Department of Convergence IT Engineering, Pohang University of Science and Technology) ;
  • Shin, Dongyoon (Mobility Convergence Department, Korea Cadastral Survey Corporation) ;
  • Lim, Eontaek (Disaster Scientific Investigation Division, National Disaster Management Research Institute) ;
  • Kim, Seongsam (Disaster Scientific Investigation Division, National Disaster Management Research Institute)
  • 정용한 (국립재난안전연구원 재난원인조사실) ;
  • 홍준우 (포항공과대학교 IT융합공학과) ;
  • 한수희 (포항공과대학교 IT융합공학과) ;
  • 신동윤 (한국국토정보공사 모빌리티융합부) ;
  • 임언택 (국립재난안전연구원 재난원인조사실) ;
  • 김성삼 (국립재난안전연구원 재난원인조사실)
  • Received : 2022.11.25
  • Accepted : 2022.12.12
  • Published : 2022.12.31

Abstract

Disasters that occur unexpectedly are difficult to predict. In addition, the scale and damage are increasing compared to the past. Sometimes one disaster can develop into another disaster. Among the four stages of disaster management, search and rescue are carried out in the response stage when an emergency occurs. Therefore, personnel such as firefighters who are put into the scene are put in at a lot of risk. In this respect, in the initial response process at the disaster site, robots are a technology with high potential to reduce damage to human life and property. In addition, Light Detection And Ranging (LiDAR) can acquire a relatively wide range of 3D information using a laser. Due to its high accuracy and precision, it is a very useful sensor when considering the characteristics of a disaster site. Therefore, in this study, development and experiments were conducted so that the robot could perform real-time monitoring at the disaster site. Multi-sensor module was developed by combining LiDAR, Inertial Measurement Unit (IMU) sensor, and computing board. Then, this module was mounted on the robot, and a customized Simultaneous Localization and Mapping (SLAM) algorithm was developed. A method for stably mounting a multi-sensor module to a robot to maintain optimal accuracy at disaster sites was studied. And to check the performance of the module, SLAM was tested inside the disaster building, and various SLAM algorithms and distance comparisons were performed. As a result, PackSLAM developed in this study showed lower error compared to other algorithms, showing the possibility of application in disaster sites. In the future, in order to further enhance usability at disaster sites, various experiments will be conducted by establishing a rough terrain environment with many obstacles.

재난은 돌발적으로 발생하여 예측하기가 쉽지 않고 그 규모도 과거에 비해 커지고 있어 피해가 증가하고 있으며, 하나의 재난이 2차 재난으로 발전하는 경우가 많다. 재난관리의 4가지 단계 중 응급상황이 발생하는 대응단계에서 행해지는 수색과 구조 과정에서, 현장에 투입되는 인원들은 많은 위험을 감수하고 현장에 투입되고 있다. 이러한 점에서 로봇은 재난현장의 초기 대응과정에서 인명 및 재산의 피해를 줄일 수 있는 가능성이 높은 기술이다. 또한, Light Detection And Ranging (LiDAR)는 레이저를 이용하여 비교적 넓은 범위의 3차원 정보를 획득하고 정확도 및 정밀도가 높아 재난 현장의 특징을 생각할 때 매우 유용한 센서이다. 이에 본 연구에서는 로봇이 재난 현장에서 활용될 수 있도록 LiDAR와 Inertial Measurement Unit (IMU) 센서에 실시간 모니터링을 위한 컴퓨팅 보드를 결합하여 하나의 다중센서모듈 및 조사로봇 맞춤형 Simultaneous Localization and Mapping (SLAM) 알고리즘을 개발하였다. 다중센서모듈이 재난 현장에서 최적의 정확도를 유지할 수 있도록 조사로봇에 안정적으로 탑재하는 방안에 대해 연구하였고, 모듈의 성능을 확인하기 위해 재난건축물 실내에서 SLAM 맵핑을 수행하여 다양한 SLAM알고리즘과 거리 비교를 수행하였다. 그 결과, 본 연구에서 개발한 PackSLAM이 낮은 오차를 나타내어 활용 가능성을 보였다. 향후 재난현장에서의 적용성을 더욱 높이기 위해 장애물이 많은 험지환경을 구축하여 다양한 실험을 수행할 예정이다.

Keywords

1. 서론

우리나라에서 재난은 국민의 생명·신체·재산과 국가에 피해를 주거나 줄 수 있는 것으로 자연재난 및 사회재난으로 정의하고 있다. 흔히 알고 있는 재연재난으로 태풍, 홍수, 호우, 강풍 등이 있으며 사회재난으로는 화재, 붕괴, 폭발, 교통사고 등과 더불어 감염병, 가축전염병의 확산, 미세먼지 등으로 인한 피해가 있다. 대한민국 정부는 체계적인 재난관리를 통한 효율적인 운영을 추진 및 노력하고 있지만 이러한 재난들은 돌발적으로 발생하여 예측하기가 쉽지 않고 그 규모도 과거에 비해 커지고 있어 피해가 증가하고 있다(Lee et al., 2021). 그리고 발생한 재난은 하나의 재난으로 끝나지 않고 2차 재난으로 발전하는 경우가 많다. 예를 들어 폭우나 폭설이라는 자연재해가 발생했다고 하면, 그로 인해 하천이 범람하거나 산사태를 야기시킬 수 있게 된다. 이러한 영향이 시민들이 살고 있는 민가에 미치게 되면 2차 피해로 이어질 수 있는 것이다. 때문에, 하나의 재난이 발생하게 되면 여러 소관부처들이 서로 연관하여 관리하게 된다.

재난관리는 예방, 대비, 대응, 복구의 4가지 단계로 나누어지게 된다. 4가지 단계 중 응급상황이나 재난이 일어난 후에 해당하는 대응단계에서는 수색과 구조, 대피소 운영, 의료지원 등이 이루어지게 되는데 특히, 수색과 구조에 많은 관심과 집중이 몰리게 된다. 재난 현장은 항상 새로운 형태로 나타나기 때문에 재난이 발생하였을 때 현장에 투입되는 대응인원들은 2차 피해와 같은 위험을 감수하고 현장에 투입되고 있다. 대체로 가장 많이 대응하는 소방관들은 실제로 현장 대응과정에서 다치거나 사망하는 경우도 발생하고 있다. 이러한 점에서 로봇은 재난현장의 초기 대응과정에서 수색 및 구조 등의 임무를 수행하여 인명 및 재산의 피해를 줄일 수 있는 가능성이 높은 기술이다(Kim and Shin, 2021).

로봇은 이전부터 많은 나라에서 계속 연구되고 있다. 재난 현장에서 확산 방지, 피해 축소, 신속한 현장 대응을 목적으로 하는 재난 대응 로봇에 대한 관심이 매우 높다. 2019년 노트르담 성당 화재 현장에 투입되었던 Shark Robotics의 Colossus는 250 m까지 물을 분사할 수 있으며 약 304 m 떨어진 곳에서 원격 제어가 가능했으며, iRobot의 Packbot은 폭발물 해체, 감시, 정찰 등의 임무 수행이 가능하다. Boston Dynamics의 Spot은 사족보행을 하는 로봇으로 거친 노면이나 계단 등의 장애물을 극복할 수 있으며, 미국 멜런 대학교에서는 뱀 모양의 로봇을 개발하였다. 이처럼 인간을 대신하여 로봇이 재난 현장을 대응하는 것은 이미 증명되었다.

대부분의 로봇은 현장의 접근성과 카메라 및 원격제어를 통한 모니터링을 갖추고 있지만, 재난 현장의 특수성을 생각해 볼 때, 시야가 용이하지 않을 가능성이 매우 높으며 그렇게 때문에 카메라 센서로 현장을 온전히 모니터링 하는 것은 쉽지 않다. 이러한 한계를 극복하는 센서로 Light Detection And Ranging (LiDAR)는 현 시점에서 최적의 센서이다. LiDAR는 레이저를 이용하여 비교적 넓은 범위의 주변 물체와의 거리를 인식하여 3차원 정보를 획득하여 다른 센서에 비해 정확도 및 정밀도가 높고 자율주행차, 지능형 로봇, 증강현실, 드론 등의 미래형 산업에 핵심 센서로 주목받고 있다(Choi, 2011; Kim et al., 2012). 또한, 모바일 플랫폼에 부착된 센서를 이용하여 환경에 대한 정확한 지도를 제작하면서 자신의 위치를 측정할 수 있는 Simultaneous Localization and Mapping (SLAM) 기술은 외부로부터 Global Navigation Satellite System (GNSS) 정보를 수신하기 어려운 실내 공간에서 현장 정보를 더욱 정확하게 얻을 수 있는 강점이 있다. 재난 현장에서의 SLAM 을 활용하기 위해서는 탑재되는 센서 등의 안정성을 높여 로봇이 이동할 때 발생하는 진동의 영향을 적게 받을 수 있도록 탑재가 이루어져야 하며, 그럴수록 정확한 데이터를 얻을 수 있다. 아무리 성능이 좋은 센서를 탑재한다고 하더라도 흔들리는 환경이라면 현장에 대한 정보의 오류가 많이 발생하여 신뢰성이 떨어질 수 밖에 없을 것이다.

이에 본 연구에서는 로봇이 현장에서 활용할 수 있도록 LiDAR와 Inertial Measurement Unit (IMU) 센서에 실시간 모니터링을 위한 컴퓨팅 보드를 결합하여 하나의 다중센서모듈을 개발하였다. 다중센서모듈은 LiDAR를 사용하여 현장을 스캔하였을 때 얻어지는 데이터를 IMU센서의 가속도·자이로·지자기 값을 통해 신뢰도를 향상시켰다. 또한, 미니 PC를 결합하여 LiDAR를 통해 얻어지는 현장의 스캔 데이터를 실시간으로 모니터링하고 이를 저장할 수 있도록 구성하였다. 그리고 이 다중센서모듈이 재난 현장에서 기대되는 최적의 정확도를 유지할 수 있도록 로봇에 안정적으로 탑재하는 방안에 대해 연구하였다. 실제 재난현장은 바닥부분에 어떠한 장애물이 있는지 예상할 수 없기 때문에 평지에서 로봇의 구동보다는 고르지못한 바닥에서도 정상적으로 구동되는 것이 중요하다. 특히 본 연구에서 구상하는 SLAM 알고리즘의 구현에서 로봇이 운용될 때 센서모듈이 로봇 자체에서 발생하는 진동에 의해 데이터의 정확성이 보장되지 않는 경우를 감안하여 다중센서모듈이 로봇에 탑재할 때 진동이 최소화되는 지점 및 위치·높이를 결정하는 것에 집중하여 설계하였다. 또한, 실내 공간 맵핑을 위한 조사로봇의 다중센서모듈 맞춤형 SLAM 알고리즘 개발 및 정확도 평가를 수행하였다.

2. 연구대상 및 방법

1) 활용 조사 로봇(Packbot 501)

본 연구에 활용된 재난로봇은 iRobot Packbot 501 모델이다(Fig. 1).

OGCSBN_2022_v38n6_3_1827_f0001.png 이미지

Fig. 1. iRobot Packbot 501.

Packbot은 미국의 iRobot사가 국방부의 후원으로 모르티시아(Morticia)를 군사용으로 개조한 로봇으로 이라크전 당시 지상 작전용으로 사용되었다. 이후에 성능을 개선하여 2011년 후쿠시마 원전사고에서 사람이 들어갈 수 없는 원자로 건물 내부를 조사하는데 유용하게 활용되면서 실제 재난 환경에서 사용할 수 있음을 증명되었다(Cho and Jeong, 2011). Packbot은 캐터필러 트레드형으로 본체는 길이 70 cm, 너비 53 cm, 무게 35 kg으로 다른 재난로봇보다는 비교적 가벼운 편으로 계단이나 좁은 통로로도 진입이 가능하다. Packbot은 4개의 카메라를 통해 전·후진 및 좌우 방향전환에 조종자가 원격조종기를 통해 쉽게 대처할 수 있으며 충격이나 날씨 등의 환경요인에 영향을 받지 않도록 튼튼하게 설계되었다. 또한, 집게 팔이 달려있어 인양(4.5–15 kg) 및 견인(50 kg)이 가능하고 시료를 채취하는 등의 행위도 가능하여 재난 현장에 활용되기에 적합한 성능을 갖추고 있다. 현실적으로 후쿠시마 원전사고와 같은 원자력사고는 자주 일어나는 사고는 아니다. 또한, Packbot의 형태는 앞에서 볼 수 있듯이 건물 붕괴와 같은 실내 현장에서도 사람을 대신하여 임무수행을 충분히 할 수 있다. 본 연구에서는 Packbot에 LiDAR 등의 센서를 탑재하여 보다 다양한 재난 현장에서 수색 및 현장 모니터링을 하는데 활용되고자 한다.

2) 다중센서모듈의 개발

본 연구에서 로봇에 탑재하고자 하는 가장 중요한 센서는 LiDAR이다. 탑재하여서도 LiDAR센서가 온전한 상태로 현장을 스캔할 수 있어야 한다. 로봇에 탑재할 LiDAR는 Ouster OS1-32이다. Ouster OS1은 32 채널의 기계식 LiDAR로 수평 해상도 512/1024/2048 point, 수직 화각 45°(±22.5°), 최대 측정거리 120 m, 정확도 0.7 cm의 소형 LiDAR이다. 조사 로봇에 탑재되어 운용하기 위해 크기와 무게를 고려하였다. 그리고 LiDAR 스캔 정확도를 유지 및 향상을 위해 IMU센서 VectorNav VN100와 LiDAR 데이터를 저장 및 출력하고 실시간 모니터링을 위해 Intel i5 CPU를 탑재한 컴퓨팅 보드를 함께 탑재하였다(Table 1). 탑재의 용이성을 위해 LiDAR, IMU, 컴퓨팅 보드를 하나의 다중센서모듈로 제작하였다(Fig. 2).

Table 1. Specifications of multi-sensor module

OGCSBN_2022_v38n6_3_1827_t0001.png 이미지

OGCSBN_2022_v38n6_3_1827_f0002.png 이미지

Fig. 2. Multi-sensor module.

제작된 다중센서모듈이 로봇에 탑재되어 높은 정확도를 유지하기 위해서는 로봇의 외형과 운용방식 등을 고려하여 최적의 위치를 찾는 것이 중요하다. 그리고 LiDAR센서의 스캔하는 범위를 고려하고 로봇이 운용될 때 발생하게 되는 진동의 영향을 최소로 할 수 있는 높이를 찾는 것도 중요하다. 본 연구에서는 연구에서 활용하고 있는 조사 로봇인 Packbot의 외형 및 운행 특성을 고려하여 마운트의 위치를 선정하고, 다중센서모듈의 탑재 높이를 변화시키면서 실험하여 LiDAR가 최적의 스캐닝을 할 수 있는 높이를 선정하고자 한다.

3) 다중센서모듈의 활용을 위한 SLAM 알고리즘

LiDAR 기반 SLAM 알고리즘 중 Lidar Odometry and Mapping (LOAM) 은 실시간 실내 맵핑에 많이 활용되는 대표적인 알고리즘이다. 실시간성을 확보하기 위해 소프트웨어 시스템을 병렬적으로 구성하여, 점군자료를 활용한 6-Degree-of-Freedom (DOF)의 자세를 추정함과 동시에 복셀(voxel)기반의 맵핑을 수행한다(Zhang et al., 2014). LOAM에서 파생된 LiDAR Inertial Odometry via Smoothing and Mapping (LIO-SAM) 알고리즘은 LiDAR와 IMU의 강결합 시스템을 요인 그래프(Factor Graph)를 통해 구축하여 IMU를 포함한 모듈에 대해 적합하다. 측위 모듈과 포인트 클라우드 지도를 최적화하는 맵핑 모듈 탑재 및 실시간성을 보유하여 다중센서 시스템에 적합한 최적화 시스템으로 구성되어있다(Shan et al., 2020). 또한 실좌표 위치를 제공하는 GNSS와 같은 다양한 센서 간 통합 시스템을 구성하여 LiDAR 및 IMU의 측위 신뢰도가 낮은 구간에서도 또다른 센서의 활용으로 신뢰도 높은 결과를 연산할 수 있는 활용성이 높은 SLAM 시스템이다.

따라서 본 연구는 LIO-SAM 알고리즘을 기반으로 3차원 점군 자료의 ring filed와 time field를 계산하여, 3차원 공간정보를 포함한 총 5개의 값을 가지는 점들을 5차원 벡터로 표현하였다(Fig. 3). 최종적으로 추가 계산된 정보들이 다중센서모듈에서 모두 활용될 수 있도록 구현하여 조사로봇 다중센서모듈 맞춤형 SLAM 알고리즘인 PackSLAM을 개발하였다.

OGCSBN_2022_v38n6_3_1827_f0003.png 이미지

Fig. 3. Concept of Ring/Time field.

4) 실험 대상지

본 연구는 포항시 북구에 위치한 한국로봇융합연구원 안전로봇실증센터의 재난환경 테스트존에 있는 재난 건축물에서 다중센서모듈 맞춤형 SLAM 알고리즘 실험을 수행하였다. 재난건축물은 2층으로 구성되어 있으며 여러 개의 방이 존재한다. 그리고 다양한 부자재들이 곳곳에 분포되어 있기 때문에 재난 환경과 유사하게 설계되어 있다. 이러한 이유로 재난안전분야와 관련된 다양한 로봇의 실증실험 및 연구가 이루어지고 있다. Fig. 4는 실험이 이루어진 재난환경 테스트존의 재난건축물의 전경이고 Fig. 5는 재난건축물 내부의 모습이다. 본 연구는 재난 건축물 2층에서 PackSLAM을 통해 3차원 점군자료를 취득하여 실내 공간에 대한 정량적인 수치 분석을 수행하였다.

OGCSBN_2022_v38n6_3_1827_f0004.png 이미지

Fig. 4. Disaster environment test zone.

OGCSBN_2022_v38n6_3_1827_f0005.png 이미지

Fig. 5. Inside the building: (a) first floor and (b) second floor.

3. 결과분석

1) 다중센서모듈 탑재 조사로봇

(1) 다중센서모듈 마운트 위치선정

다중센서모듈의 마운트 위치는 Packbot의 형태를 고려할 때, Fig. 6와 같이 로봇의 팔 부분의 본래 방사능 센서를 위한 마운팅 포인트와 차체의 모터 쪽에 위치한 차체 마운팅 포인트가 가장 가능성이 높았다.

OGCSBN_2022_v38n6_3_1827_f0006.png 이미지

Fig. 6. Mount location: (a) arm and (b) body.

로봇 팔에 센서를 탑재하게 되면 모듈의 방향각(Orientation)과 위치의 조절이 자유롭지만, 로봇의 운용시 팔의 관절에 해당하는 부분의 흔들림이 발생하는 것으로 나타났다. 이에 흔들림이 적고 센서 모듈을 강건하게 고정시킬 수 있는 차체의 마운팅 포인트가 적절한 것으로 판단되었다.

또한, 바닥 면과 측면에 고정시키면서 센서 모듈의 스캐닝의 용이성을 위해 차체와 다중센서모듈을 결합할 수 있는 통합 마운트를 설계 및 제작하였다. 통합 마운트는 3D CAD 모델로 설계하였고, 3D 프린팅으로 제작하여 알루미늄 프로파일, 체결 볼트 및 너트 등의 부품으로 구성하였다. Fig. 7은 Packbot에 통합 마운트를 통해 다중센서모듈을 탑재한 모습이다.

OGCSBN_2022_v38n6_3_1827_f0008.png 이미지

Fig. 7. Robot mounted multi-sensor module.

(2) 다중센서모듈의 탑재 높이 선정

다중센서모듈의 높이는 높을수록 차체에서 전달되는 진동의 진폭이 커지게 되어 원하는 정확도의 스캔 데이터를 얻기가 힘들다. 하지만, 높이가 너무 낮아지게 되면 LiDAR가 스캔하는 범위를 주변 장애물 등이 가려지게 하여 원하는 스캔 데이터를 취득할 수 없다. 그래서 조사로봇에 탑재될 다중센서모듈의 높이를 선정하는 것이 중요하다.

본 연구에서는 다중센서모듈과 Packbot을 결합하는 통합 마운트의 높이의 다양성을 주기 위해 Fig. 8과 같이 15 cm, 30 cm, 50 cm 의 3가지 경우로 나누어 실험하였다.

OGCSBN_2022_v38n6_3_1827_f0007.png 이미지

Fig. 8. Mount height: (a) 15 cm, (b) 30 cm, and (c) 50 cm.

Packbot을 Creep, Normal, Fast 3가지로 구분하여 각각의 높이에 따라 측정되는 가속도를 비교하였다. 진동 수준의 실험에서 거리는 약 10 m 정도이며, 직선 운동 및 회전 운동을 실시하였다. 진동 수준의 비교는 IMU 데이터 중 가속도계에서 측정되는 가속도를 통해 확인하였다.

먼저 같은 높이에서 Creep 모드에서 확실하게 진동 수준이 낮은 것을 확인할 수 있었다. 항상 Creep 모드로 운용하면 더욱 높은 정확도를 유지할 수 있겠지만 재난 현장에서는 무엇이든 단정할 수 없기 때문에 Normal 및 Fast 모드에서도 최선의 정확도를 유지할 수 있어야 한다.

같은 높이에서 운용 모드에 따른 진동 수준을 30 cm를 기준으로 비교하기 위해 비율을 함께 표로 정리하였다(Table 2).

Table 2. Acceleration by mount height

OGCSBN_2022_v38n6_3_1827_t0002.png 이미지

Table 2를 보게 되면 Creep 모드에서 15 cm 일 때의 진동 수준이 확실히 낮은 것을 확인할 수 있다. 하지만 Normal 및 Fast 모드에서의 비율을 보면 30 cm 일 때보다 오히려 큰 수준의 진동의 변화가 감지되었다. 그리고 50 cm 일 때에는 모든 운용모드에서 가장 큰 진동 수준이 감지되었다.

진동 수준으로 높이가 선정 되는 것은 아니다. LiDAR 센서의 높이에 따른 스캔 정도를 확인하여야 한다. 앞서 말했듯이 다중센서모듈 LiDAR센서의 수직 화각은 45°(±22.5°)로 그 범위에 장애물 등이 있을 때에는 원하는 스캔 데이터를 얻을 수가 없다. 그렇기 때문에 각각의 높이에서 스캔데이터를 취득하여 비교하였다. 30 cm와 50 cm에서는 큰 이상이 없이 데이터가 취득되는 것을 확인하였다. 하지만 LiDAR의 높이가 15 cm일 때에는 Fig. 9과 같이 Packbot의 차체에 장착되어 있는 카메라 및 조명 모듈에 의한 간섭으로 스캔 데이터의 공백이 생기는 것을 확인할 수 있었다.

OGCSBN_2022_v38n6_3_1827_f0015.png 이미지

Fig. 9. Scan data blank.

2) 조사로봇의 SLAM 정확도 평가

PackSLAM으로 취득한 3차원 점군자료 정확도 평가를 위해 Leica BLK360 장비를 참조자료로 활용하고 LOAM 계열의 SLAM 알고리즘과 비교하였다(Toschi et al., 2015). BLK360은 소형 LiDAR로 휴대성에 특화되어 있으며 준수한 성능을 보유하고 있어 실내 공간 맵핑에 많이 활용되고 있다. 소형 크기로 제작되었지만 4개의 스캔 설정을 통한 초당 680,000 포인트로 7~75초 내 데이터 캡처, 5개의 브래킷 High-Dynamic Range (HDR)을 포함한 풍부한 이미지를 나타낼 뿐만 아니라 파장 830 nm, 범위 정확도 4 mm @ 10 m, 점밀도 5 mm @ 10 m 등 준수한 성능을 보유하고 있다(Fig. 10).

OGCSBN_2022_v38n6_3_1827_f0016.png 이미지

Fig. 10. BLK360 Lidar.

본 연구에서 개발한 PackSLAM의 정확도 비교를 위해 LOAM 계열의 알고리즘 중 A-LOAM, LeGO-LOAM, LIO-SAM 알고리즘으로도 데이터를 취득하였다. Fig. 11–13는 LOAM 계열 알고리즘으로 취득한 모습을 나타내고, Fig. 14은 PackSLAM으로 취득한 모습을 나타낸다.

OGCSBN_2022_v38n6_3_1827_f0009.png 이미지

Fig. 11. A-LOAM scan data.

OGCSBN_2022_v38n6_3_1827_f0010.png 이미지

Fig. 12. LeGO-LOAM scan data.

OGCSBN_2022_v38n6_3_1827_f0011.png 이미지

Fig. 13. LIO-SAM scan data.

OGCSBN_2022_v38n6_3_1827_f0012.png 이미지

Fig. 14. PackSLAM scan data.

정확도 평가는 Fig. 15처럼 3개의 구간을 분할하여 거리를 계산하는 방식으로 수행하였다. 이 방법은 3차원 점군자료에서 일부 구역을 분할하여 구역과 구역사이의 거리를 측정하는 방법으로 벽면과 같은 균일한 형태의 구역을 선정하여 최근접 기법을 통해 거리 관측오차를 계산하여 정확도를 평가하였다. 점군 사이의 거리를 계산함으로써 얻어지는 결과로 거리 값들의 평균값과 분포를 얻을 수 있다. 평균거리는 생성된 전체 공간 지도의 기하학적인 구조에 대한 정확도를 평가할 수 있는 척도로 활용될 수 있다. Fig. 16은 정확도 평가 기법에 대한 개념을 그림으로 설명하였다.

OGCSBN_2022_v38n6_3_1827_f0013.png 이미지

Fig. 15. Distance measurement section for accuracy assessment.

OGCSBN_2022_v38n6_3_1827_f0014.png 이미지

Fig. 16. Nearest neighbor concept.

위 방법으로 평가한 결과, Table 3–5와 같이 나타났으며, 모든 구간에서 PackSLAM이 다른 SLAM 알고리즘보다 가장 낮은 오차를 보였다. LeGO-LOAM은 LiDAR의 정보만 활용하며 scan-to-scan과 scan-to-model의 매칭을 통해 맵핑을 수행함으로 정밀한 공간 정보를 기록하기에는 한계가 존재한다. 하지만 LIO-SAM과 PackSLAM 알고리즘은 LiDAR와 IMU의 결합 시스템을 활용하며, Keyframe을 생성하여 그래프 기반 Smoothing 기법을 사용하여 두 알고리즘과는 다르게 선명한 경계면을 갖는 맵핑 결과를 나타내고 평가 결과에도 더 우수한 성능을 보여준 것으로 판단된다.

Table 3. Distance accuracy assessment (section 1)

OGCSBN_2022_v38n6_3_1827_t0003.png 이미지

Table 4. Distance accuracy assessment (section 2)

OGCSBN_2022_v38n6_3_1827_t0004.png 이미지

Table 5. Distance accuracy assessment (section 3)

OGCSBN_2022_v38n6_3_1827_t0005.png 이미지

4. 결론

본 논문에서는 iRobot Packbot에 LiDAR 센서가 포함한 다중센서모듈이 최적의 스캔 데이터를 취득하기 위한 탑재 방안을 연구하였다. 탑재 위치와 모듈의 높이를 선정하기 위해 로봇의 주행을 통한 실험을 한 결과 다음과 같은 결과를 확인하였다.

먼저, 다중센서모듈을 탑재하기 위한 최적의 위치를 선정하기 위해 가능성이 높은 로봇의 팔에 있는 방사능 센서 탑재용 마운팅 포인트와 캐터필러 트레드 모터 쪽에 위치하는 차체 마운팅 포인트를 선정하였다. 로봇팔의 마운팅 포인트는 다중센서모듈의 방향각과 위치를 자유롭게 조절할 수 있지만 안정성이 떨어지고 로봇이 주행할 때 전달되는 진동의 수준이 매우 크다. 그래서 더 안정성이 큰 차체 마운팅 포인트를 선정하였다. 또한, 자체와 다중센서모듈을 정밀하게 연결시키기 위해 통합 마운트를 설계 제작하였다.

그리고 다중센서모듈이 최소의 진동을 받으며 최적의 스캔 데이터를 취득할 수 있는 높이를 선정하기 위해 실험을 하였다. Packbot의 3가지(Creep, Normal, Fast) 모드 중에서 진동이 아주 심한 Fast 모드를 제외한 Creep과 Normal 모드에서 통합 마운트의 높이를 15 cm, 30 cm, 50 cm의 3가지 경우로 조절하여 각각 주행하였다. 또한, 각각의 높이에서 스캔 데이터의 취득 정도를 확인하였다. 그 결과 30 cm의 높이에서 진동 수준도 양호하고, 스캔 데이터도 전 방향으로 이상없이 취득되는 것을 확인할 수 있었다.

마지막으로 개발한 다중센서모듈을 탑재한 조사로봇에 맞는 맞춤형 SLAM 알고리즘인 PackSLAM을 구현하였고 정확도 평가 결과, 우수한 성능을 확인하였으며 실내 재난현장에서의 활용가능성을 보여주었다. 향후, 지진 또는 붕괴로 인해 사람이 접근하기 어려운 실내 재난현장에 투입되어 신속하고 정확한 재난피해정보를 수집할 수 있을 것으로 기대된다.

본 연구의 목적은 실제 재난 현장에서 로봇을 활용한 수색 및 현장 모니터링을 하는 것이다. 때문에, 재난현장에서 활용될 수 있는 캐러필러형 로봇인 Packbot을 이용하여 다중센서모듈의 탑재 방안 및 정확도 평가를 다루었으나 활용하고자 하는 목적에 따라 로봇과 탑재할 센서는 달라질 것이다. 탑재하고자 하는 로봇의 특징과 사용하고자 하는 센서 등의 특징을 함께 고려하여 그에 맞는 탑재 방안을 찾는 것이 가장 중요할 것이다. 또한, 본 연구에서는 실내 공간에 대한 거리 분석만 수행하였으므로 연구결과에서 보여준 정확도를 기반으로 보다 다양한 실험을 수행하여 현장 적용성을 확대할 필요가 있다. 평탄한 지역이 아닌 험지 환경을 구성하여 실제 재난현장에 투입되어 즉시 활용될 수 있도록 보다 다양한 연구를 수행할 예정이다.

사사

이 논문은 2022년 국립재난안전연구원의 “재난안전 관리업무지원기술개발(R&D)-이동형로봇기반 재난사고 현장조사 공유 기술개발(NDMI-주요-2022-06-02)”의 지원으로 수행되었습니다.

References

  1. Choi, H.Y., 2017. LiDAR sensor technology and industry trends, Journal of Korean Institute of Electrical Engineers, 66(9): 12-17.
  2. Jo, J.W. and K.M. Jeong, 2011. Investigation of the emergency response robots used for mitigation of severe accident of the Fukushima nuclear power plant, Journal of Institute of Control, Robotics and Systems, 2011(7): 1-8.
  3. Kim, J.D., K.K. Kwon, and S.I. Lee, 2012. Trends and applications on Lidar sensor technology, Electronics and Telecommunications Trends, 27(6): 134-143.
  4. Kim, S.S. and D.Y. Shin, 2021. Current status of technology development and policy recommendations of disaster robot for inaccessible disaster site, Journal of the Korea Academia-Industrial Cooperation Society, 22(11): 270-276 (in Korean with English abstract). https://doi/org/10.5462/KAIS.2021.22.11.270
  5. Lee, J.H., M.R. Kim, and J.C. Go, 2021. A study on the development plan for promotion of advanced disaster-safety awareness, Journal of the Society of Disaster Information, 17(3): 415-426 (in Korean with English abstract). https://doi.org/10.15683/kosdi.2021.9.30.415
  6. Shan, T., B. Englot, D. Meyers, W. Wang, C. Ratti, and D. Rus, 2020. LIO-SAM: Tightly-coupled Lidar inertial odometry via smoothing and mapping, Proc. of 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems, Las Vegas, NV, Oct. 25-29, pp. 5135-5142. https://doi/org/10.48550/arXiv.2007.00258
  7. Toschi, I., P. Rodriguez-Gonzalvez, F. Remondino, S. Minto, S. Orlandini, and A. Fuller, 2015. Accuracy evaluation of a mobile mapping system with advanced statistical methods, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 40: 245-253. https://doi/org/10.5194/isprsarchives-XL-5-W4-245-2015
  8. Zhang, J. and S. Singh, 2014. LOAM: Lidar odometry and mapping in real-time, Robotics: Science and Systems, 2(9): 1-9.