DOI QR코드

DOI QR Code

UAM 환경에서의 3D Point Cloud Data 지면/객체 분리 기법 연구

A Study on Ground and Object Separation Techniques Utilizing 3D Point Cloud Data in Urban Air Mobility (UAM) Environments

  • 구본수 (한국항공우주연구원 무인기연구부) ;
  • 최인호 (한국항공우주연구원 무인기연구부) ;
  • 유재림 (뷰런테크놀로지)
  • Bon-soo Koo (Department of Unmanned Aircraft Research, Korea Aerospace Research Institute) ;
  • In-ho choi (Department of Unmanned Aircraft Research, Korea Aerospace Research Institute) ;
  • Jae-rim Yu (Vueron Technology Co. Ltd)
  • 투고 : 2023.08.03
  • 심사 : 2023.08.24
  • 발행 : 2023.08.31

초록

최근 UAM(Urban Air Mobility)에 대한 관심이 도시의 교통 혼잡과 대기오염 문제 해결 방안으로 급증하고 있다. 하지만 UAM의 효율적인 운영을 위해서는 3D Point Cloud 데이터의 정확한 처리가 필요하며, 특히 지면과 객체를 분리하는 문제가 중요하다. 본 논문은 UAM 환경의 동적이고 복잡한 특성을 고려하여 지면과 객체를 효과적으로 분리하는 방법을 제안하고 검증한다. 우리의 접근 방식은 MEMS 센서로부터 얻은 자세 정보와 RANSAC을 이용한 지면 평면 추정을 결합하여, GPS 오차에 크게 영향 받지 않는 지면/객체 분리를 가능하게 한다. 시뮬레이션 결과는 이 방법이 UAM 환경에서 효과적으로 작동함을 보여주며, 도심 항공 모빌리티의 안전성과 효율성을 향상시키는 중요한 단계를 제시한다. 향후 연구는 이 알고리즘의 정확성을 높이고 다양한 UAM 환경에서 성능을 평가하며, 실제 드론 테스트를 진행할 예정이다.

Recently, interest in UAM (Urban Air Mobility) has surged as a critical solution to urban traffic congestion and air pollution issues. However, efficient UAM operation requires accurate 3D Point Cloud data processing, particularly in separating the ground and objects. This paper proposes and validates a method for effectively separating ground and objects in a UAM environment, taking into account its dynamic and complex characteristics. Our approach combines attitude information from MEMS sensors with ground plane estimation using RANSAC, allowing for ground/object separation that isless affected by GPS errors. Simulation results demonstrate that this method effectively operates in UAM settings, marking a significant step toward enhancing safety and efficiency in urban air mobility. Future research will focus on improving the accuracy of this algorithm, evaluating its performance in various UAM scenarios, and proceeding with actual drone tests.

키워드

Ⅰ. 서론

최근 도시 공간에서의 교통 혼잡과 대기오염 문제로 인해 도심 항공교통 시스템인 UAM(Urban Air Mobility)에 대한 관심이 급격히 증가하고 있다. UAM은 도시 지역에서의 수직 이착륙(VTOL) 기능을 갖춘 항공기를 사용하여 인원 및 화물 운송과 도시의교통 혼잡을 완화하는 미래의 교통 시스템으로 큰 가능성을 보여주고 있다[1].

그러나, UAM 시스템의 안전하고 효율적인 운영을 위해, 공간 정보의 정확성은 매우 중요한 요소이다. 특히, 3D Point Cloud 데이터는 실세계의 객체들을 세밀하게 표현하여, UAM 환경에서의 항법이나충돌 회피등에 필수적인 역할을한다[2]. 3D Point Cloud 데이터를 활용하는 과정에서는 데이터의 복잡성, 노이즈, 그리고 도시 환경의 복잡한 요소들로 인해 지면과 비지면 객체를 효과적으로 구분하는 문제가 발생한다[3]. 본 논문에서는 위의 문제를 해결하기 위해, UAM 환경에 특화된 3D Point Cloud 데이터를 활용하여 지면과 객체를 효과적으로 분리하는 방법을 제안하고 시험하는 것을 목표로 한다. 이전의 대부분 연구는 2D 이미지 데이터를 활용하여 지면과 객체를 분리하는데 초점을 맞추었으나, 최근에는 LiDAR(Light Detection And Ranging) 등의 센서를 활용하여 3D Point Cloud 데이터를 사용하는 연구가 진행되고 있다[4]. 그러나, UAM 환경에 맞게 조정된 연구는 아직까지 부족하다[. 더욱이, 기존 연구는 대부분 정적인 환경에 초점을 맞추었으나, UAM 환경은 동적이며 복잡한 요소들이 상호 작용하는 공간이다. 이러한 동적 환경에서도 효과적으로 작동할 수 있는 지면과 객체 분리 기법에 대한 연구가 필요하다.

본 논문의 목적은 위의 배경과 필요성을 바탕으로 UAM 환경에서 3D Point Cloud 데이터를 이용하여 지면과 객체를 효과적으로 분리하는 방법을 제안하고 검증하는 것이다. 본 논문의 방법론은 UAM 환경의 동적이고 복잡한 특성을 반영하여, 정확하고 신뢰할 수 있는 지면 및 객체 분리를 도모할 것이다. 본 논문은 UAM 환경에 대한 더 깊은 이해를 제공하며, 이 분야의 연구를 이끌어 나가는데 중요한 단계가 될 것으로 기대한다.

Ⅱ. 이론적 배경 및 관련 연구

비행체에 사용되는 자율주행 시스템은 다양한 센서를 이용해 주변 환경을 인지하고, 이를 바탕으로 항로를 계획하고 안전하게 이동할 수 있어야 한다. 이 중 핵심적인 역할을 하는 것이 3D LiDAR 센서와 이를 이용한 지면/객체 분리 기술이다[5].

LiDAR 센서: LiDAR 센서는 레이저를 이용해 주변 환경의 거리 정보를 측정하는 센서이다. LiDAR 센서는 높은 해상도와 장거리 측정 능력을 가지고 있어, 정밀한 3D 지도 생성이나 객체 인식 등에 사용된다[6].

지면/객체 분리: 비행체의 안전한 비행을 위해 주변 환경을 정확히 인지하는 것은 필수적이다. 이를 위해 LiDAR 센서로 취득한 3D 포인트 클라우드 데이터를 이용해 지면과 객체를 분리하는 기술이 중요하다. 이를 통해 비행체는 지면과 장애물을 구분하여 안전한 비행 경로를 계획하고, 필요한 경우 적절히 회피할 수 있다[6].

2-1 관련 연구

Zermas 등의 연구: Zermas 등은 LiDAR 포인트 클라우드를 이용해 도심 지역에서의 지면과 객체를 분리하는 방법을 제안하였습니다. 이 연구는 RANSAC 알고리즘을 이용해 지면 평면을 모델링하고, 이를 바탕으로 지면과 객체를 분리하는 방법을 제안하였다[7].

Douillard 등의 연구: Douillard 등은 분류기를 이용하여 LiDAR 포인트 클라우드를 지면과 비지면으로 분리하는 방법을 제안하였습니다. 이 방법은 지면과 비지면 각각의 특성을 학습하여 분류하는 방법으로, 학습 데이터에 따라 성능이 달라질수 있다[8].

Patchwork, Patchwork++: 이 연구들은 학습이 필요 없는 방법으로 지면과 객체를 분리하는 방법을 제안하였습니다. 특히, Patchwork++는 지면 평면의 기울기와 높이 분산을 이용하여 효과적으로 지면과 객체를 분리하였다[9].

이러한 이론적 배경과 관련 연구를 바탕으로 본 논문에서는 비행체에 장착된 LiDAR를 이용한 지면/객체 분리 기능을 개발하였다. 기존의 지면/객체 분리 기법들은 주로 지상 이동체에 초점을 두었기 때문에, 비행체의 특성과 비행 환경을 고려하지 않은 경우가 대부분이다. 본 논문에서는 비행체의 고유한 특성과 동적인 비행 환경을 고려한 지면/객체 분리 기법을 제안한다.

2-2 Point Cloud Data 전처리 및 노이즈 제거

항공기의 빠른 움직임과 기류 변화 등으로 인해 LiDAR 센서에서 다수의 노이즈가 발생할 것으로 예상되며, 이는 정확한 지형 및 객체 인식에 방해가 될 수 있다. 또한, 정적인 구조물이나 지형과 같은 노면에 대한 필터링은 올바른 장애물 검출을 위한 필수 전처리 과정이다. 이러한 과정을 거쳐 고품질의 객체 포인트 데이터를 구성하며, 그림 1은 이런 두 단계를 나타낸다.

HHHHBI_2023_v27n4_481_f0001.png 이미지

그림 1. 전처리 및 잡음 제거 과정

Fig. 1. Preprocessing and noise cancelling Process

간헐적 노이즈 포인트 제거: 항공기의 빠른 움직임과 LiDAR 데이터의 난반사로 인해 생기는 노이즈는 위치 정보를 활용하여 간헐적으로 발생하는 노이즈를 제거하는 알고리즘을 통해 처리된다. 이 과정은 데이터의 품질을 향상시키는데 매우 중요하다[10].

노면 피팅 및 노면 정보 배제: 이 단계에서는 노면 정보를 정확하게 검출하고, 이를 장애물로 간주하지 않도록 처리한다. 이 과정은 평면 피팅 또는 그에 상응하는 방법을 이용하여 수행된다. 이를 통해 장애물 포인트에 대한 정의를 명확히 하여 안전한 자율주행 환경을 구축하게 된다[10].

이렇게 전처리된 데이터는 장애물 검출에 활용되며, 이는 UAM 환경에서의 안전성을 보장하고, 비행체의 자율주행 능력을 높이는데 큰 도움을 준다.

Ⅲ. 지면/객체 분리 기능을 위한 데이터 분석

3-1 기존 지상이동체 시스템과 차이점

UAM은 특별한 환경에서 작동하며, 이는 지면과 객체를 분리하는 방법론에 특별한 고려사항을 요구한다. 전통적인 지상 이동체 시스템과는 달리, UAM 시스템은 전/후, 좌/우 뿐만 아니라 상승 및 하강이 가능하며, 이동 중에 지면과 접촉이 없다. 또한, 이동을 위한 자세변화가 상대적으로 크다[11].

지상 이동체에서 적용되는 지면과 객체의 분리는 대체로 차량이 지면에 맞닿아 있고, 지면의 절대 높이가 0이라는 가정하에 구현된다. 그러나 UAM의 경우, 지면과의 절대 높이가 0이 아니며, INS를 통해 측정되는 높이 정보의 정확도 확보가 어렵다.

지상 이동체에서의 일반적인 지면/객체 분리 방법은 포인트 높이 변화 기반 검출법과, Grid Map 기반 영역 내 높이 차이를 이용한 검출법이 있다. 포인트 높이 변화 기반 검출법은 주변 포인트 간의 관계를 이용하여 노면을 검출하며, 센서 인접영역의 노면 높이를 0과 유사하게 가정하고 노면 검출을 수행한다. 반면에 Grid Map 기반 영역 내 높이 차이를 이용한 검출법은 Grid Map의 Cell 내부 높이 차이가 적으면 노면으로 가정한다. 이 방법은 자세 변화가 적은 지상 이동체에 적합하다[12].

그러나 UAM 환경에서는 이러한 가정들이 깨지므로, 새로운 지면/객체 분리 기법이 필요하다. 또한 UAM은 지상 이동체와는 다르게, 실시간 3D 환경 맵핑을 통해 동적으로 변하는 환경을 인식해야 하며, 이를 위해선 기존의 지면/객체 분리 방법론들이 충분히 적용될 수 없다. 이러한 문제를 해결하기 위해, 본 논문에서는 UAM 환경에 특화된 새로운 지면/객체 분리 기법을 제안하고자 한다[12].

HHHHBI_2023_v27n4_481_f0002.png 이미지

그림 2. 포인트 높이 변화 기반 검출법

Fig. 2. Point Height Change-Based Detection Method

HHHHBI_2023_v27n4_481_f0003.png 이미지

그림 3. Grid Map 기반 영역 내 높이 차이를 이용한 검출법

Fig. 3. Grid Map-Based Detection Method Utilizing Height Difference Within a Region

3-2 UAM 환경에서의 RANSAC 기반 지면/객체 분리

비행체는 공중에서 이동하므로 지상 이동체에 비해 상대적으로 더 넓은 영역의 지면을 측정할 수 있다. 이런 넓은 범위의 지면 데이터를 모델링하여 지면을 찾아내는 방법이 필요하다.

본 논문에서는 지면을 효과적으로 모델링하기 위해 RANSAC (Random Sample Consensus) 알고리즘을 사용한다. RANSAC는 임의의 샘플을 선택하여 모델을 만들고, 이 모델이 얼마나 많은 데이터를 잘 설명하는지를 기준으로 최적의 모델을 선택하는 방법이다. 특히 이상치(outliers)가 있는 데이터에서 모델을 추정할때 유용하다. 이를 이용해 3D LiDAR 센서로 수집한 대량의 포인트 클라우드 데이터 중에서지면 후보군에 해당하는 데이터를 선별하고, 이를 이용해 지명을 평면으로 모델링한다.

넓은 영역의 지면 인식: 비행체는 지상 이동체보다 더 넓은 영역을 인식할 수 있다. 따라서 본 논문에서는 이러한 특징을 활용하여 넓은 영역에서 측정한 지면 데이터를 모델링한다.

비행체의 자세와 위치 정보 활용 비행체는 관청측정장치(IMU)를 통해 자세와 위치 정보를 취득 할 수 있으며, 이를 활용해 클라우드 포인트를 보정하여 지면/객체 분리의 정확도를 높였다.

이처럼, 비행체의 지면/객체 분리 기능은 공중에서의 이동 특성과 넓은 측정 영역을 고려하여 구현되어야 하며, 본 논문에서는 이를 위해 RANSAC 기반의 지면 모델링 방법을 제안한다. 이 방법을 통해, 복잡하고 동적인 UAM 환경에서도 효과적인 지면/객체 분리를 가능하게 할 것이다.

3-3 RANSAC(Random Sample Consensus) 알고리즘

RANSAC은 이상치(outliers)가 포함된 데이터 셋에서 로버스트한 모델 추정을 위한 반복적인 방법이다. RANSAC은 데이터 셋의 랜덤한 하위 집합으로부터 초기 모델을 산출하고, 그 후 다른 모든 데이터를 이 모델에 대해 테스트한다. 데이터 포인트가 모델에 적합하면 인라이어로 분류되고, 그렇지 않으면 아웃라이어로 분류됩니다. 이후 인라이어의 수를 확인하고, 이 과정을 반복한다. 최종적으로는 가장 많은 수의 인라이어를 포함하는 모델이 최적의 모델로 선택된다[12].

본 시스템에 적용된 RANSAC 알고리즘의 단계는 다음과 같다.

1) 데이터셋에서 램덤하게 데이터를 선택한다. 이를 램덤 샘플이라고 하며, 평면 모델의 경우 최소 3점의 정보가 필요하기 때문에 램덤 샘플은 3점의 집합으로 구성된다.

2) 램덤 샘픙을 이용하여 평면 방정식의 계수를 계산한다.(평면 모델을 생성한다.)

3) 생성된 평면 모델과 나머지 데이터와의 높이 오차를 계산한다.

4) 허용범위 내의 높이 오차를 갖는 포인트 집합을 인라이어로 결정하고, 그 수를 확인한다.

5) 1)~4) 과정을 반복하며, 가장 많은 수의 인라이어를 갖는 모델을 최종 모델로 선정한다.

이 방법을 통해 RANSAC 알고리즘은 지면과 객체를 분리하는 데에 이상치의 영향을 최소화할 수 있다. 이는 동적인 UAM 환경에서 특히 중요한데, 이러한 환경에서는 객체와 지면의 경계가 불분명하거나, 센서의 오차로 인해 이상치가 자주 발생하기 때문이다. 따라서 RANSAC을 활용하면 이런 문제를 효과적으로 해결할 수 있다[14].

HHHHBI_2023_v27n4_481_f0004.png 이미지

그림 4. RANSAC 알고리즘 적용 예시

Fig. 4. RANSAC Algorithm Application Example

Ⅳ. 지면/객체 분리 기능 구현

4-1 비행체의 자세 및 위치정보를 이용한 지면/객체 분리

비행체에 장착된 IMU (Inertial Measurement Unit)는 AHRS(Attitude and Heading Reference System)와 GPS(Global Positioning System)를 통합하여 비행체의 자세 (Roll, Pitch) 및 위치 (Local Odometry)에 대한 데이터를 취득할 수 있다. 이 중 비행체의 자세는 MEMS (Micro-Electro-Mechanical Systems) 센서를 이용하여 상대적으로 정확하게 측정이 가능하다. 그러나 위치의 경우 GPS의 특성상 일정한 오차가 존재하며, 이 오차는 도심과 같이 신호 간섭이 심한 환경에서 더욱 커질 수 있다. IMU의 사용은 자세 측정의 정확도를 높이는 데 크게 기여하며, 이로 인해 비행체의 안정적인 항법과 지면 및 객체의 정확한 분리가 가능하다. 도심 지역과 같은 복잡한 환경에서는 IMU와 GPS의 통합 사용이 특히 중요하며, 이 연구에서는 이러한 통합 시스템을 활용한 비행체의 효율적인 운영 방안을 제시한다.

시뮬레이션 환경에서는 비행체의 자세 데이터만을 이용하여 보정하고, 높이 값의 경우에는 RANSAC을 이용해 찾아낸 지면의 평면 모델로부터 얻은 높이 값을 사용하여 보정하였다. 실제 비행시험에서도 이를 통해 GPS의 오차로 인한 문제를 최소화하고, 보다 정확한 지면/객체 분리 기능을 구현이 가능하다.

MEMS 센서를 이용해 얻은 비행체의 자세 데이터를 이용하여 초기 보정을 실시한다. 이용되는 메시지 정보는 그림 5와 같다. 이후, RANSAC을 이용하여 취득한 포인트 클라우드 데이터로부터 지면의 평면 모델을 추정하고, 이를 바탕으로 비행체의 높이 값을 보정한다. 이렇게 구현된 지면/객체 분리 기능은 GPS의 오차에 크게 영향 받지 않으며, 복잡하고 동적인 UAM 환경에서도 효과적으로 지면과 객체를 분리하는 데 활용할 수 있다.

HHHHBI_2023_v27n4_481_f0005.png 이미지

그림 5. 사용중인 ROS Msg. 리스트

Fig. 5. List of ROS Messages in Use

HHHHBI_2023_v27n4_481_f0006.png 이미지

그림 6. 지면/객체 분리 기능 구현 전략

Fig. 6. Ground/Object Separation Feature Implementation Strategy

HHHHBI_2023_v27n4_481_f0007.png 이미지

그림 7. 비행체 자세 데이터 보정 전/후

Fig. 7. Before/After Correction of Aircraft Attitude Data

4-2 시뮬레이션 환경 및 시험결과

복잡한 UAM 환경을 반영한 로보틱스 시뮬레이션 플랫폼인 Gazebo를 이용해 테스트 환경을 구축 하였다. Gazebo는 물리 엔진을 통해 실제 환경을 정밀 하게 모사할 수 있어, 3D LiDAR 센서의 작동과 데이터 처리 과정을 재현하는데 적합하다. 이를 통해, 우리는 지면과 객체의 분리 기능을 효과적으로 테스트하고 성능을 평가할 수 있다.

시뮬레이션 환경은 그림 6과 같이, 다양한 장애물, 지면의 경사도 변화, 다양한 건물과 조건 등을 포함하여 UAM 환경의 다양성을 반영하도록 설계하였다. 이렇게 설정된 환경은 실제 UAM 환경에서 센서가 어떻게 작동하는지를 더욱 정확하게 이해하게 돕고, 복잡한 실세계 조건에서 알고리즘의 성능을 평가하는데 적합하다.

3D LiDAR 센서는 고해상도와 넓은 시야각을 가지고 있어, 다양한 객체와 장애물을 정밀하게 탐지할 수 있다. 이러한 센서의 특성은 안전한 UAM 운행에 있어 필수적이며, RANSAC 알고리즘과 결합되어 지면과 객체를 더욱 정확하게 분리할 수 있다.

그림 7과 8은 알고리즘 적용 전과 후의 포인트 클라우드 데이터를 비교하여 보여준다. 이 데이터를 통해 알고리즘이 얼마나 효과적으로 작동하는지를 정량적으로 평가할 수 있다.

시뮬레이션 환경을 통해, 우리는 3D LiDAR 센서와 RANSAC 알고리즘을 결합한 지면/객체 분리 기능이 UAM 환경에서 어떻게 작동하는지 확인할 수 있다.

이러한 시뮬레이션 결과는 도심 항공 모빌리티에서의 안전성과 효율성을 향상시키는 데 있어 중요한 발전을 나타낸다. 특히, 알고리즘의 성공적인 적용은 UAM 시스템의 안정성과 신뢰성을 높이는 데 크게 기여할 것으로 예상된다.

HHHHBI_2023_v27n4_481_f0008.png 이미지

그림 8. 시뮬레이션 환경

Fig. 8. Simulation Environment

HHHHBI_2023_v27n4_481_f0009.png 이미지

그림 9. 시뮬레이션 지면/객체 분리 기능 결과 전

Fig. 9. Ground/Object Separation Feature Results Before Simulation

HHHHBI_2023_v27n4_481_f0010.png 이미지

그림 10. 시뮬레이션 지면/객체 분리 기능 결과

Fig. 10. Ground/Object Separation Feature Results After Simulation

Ⅴ. 결론

UAM 환경에서의 비행체의 자율주행을 위한 효과적인 지면/객체 분리 기능을 제안하고 검증하였다. 이 기능은 MEMS 센서를 통한 비행체의 자세 정보와 RANSAC을 이용한 지면의 평면 모델 추정을 결합하여, GPS 오차에 크게 영향 받지 않는 지면/객체 분리 기능을 구현하였다. 이는 복잡하고 동적인 환경에서 비행체가 안전하게 비행하도록 돕는 중요한 기능이다.

시뮬레이션을 통한 결과는 지면/객체분리가 UAM 환경에서 효과적으로 작동함을 보여주며, 그 결과로서 도심 항공 모빌리티 환경에서 UAM에 안전성과 효율성을 향상시키는 중요한 단계를 제시한다.

향후 연구에서는 지면/객체 분리 알고리즘의 정확성을 높이기 위한 방법을 연구하면서, 실제 드론에 장착하여 시험을 진행 예정이다. 그 외에도 다양한 UAM 환경에서 이 알고리즘의 성능을 평가하고, 알고리즘의 성능 향상을 위한 다양한 전략을 모색할 것이다. 이러한 노력은 UAM 환경에서의 안전과 효율성을 극대화하는데 중요한 역할을할 것으로 기대된다.

Acknowledgments

본 연구는 국가과학기술연구회(한국항공우주연구원 주요사업)에서 지원한 “차세대 항공 모빌리티 안전성 향상 핵심기술연구” 사업의 연구결과의 일부이며 지원에 감사드립니다.

참고문헌

  1. R. A. Cacace, F. Forni, and M. D. Di Benedetto, "A Survey on Urban Air Mobility: The Role of UAS, VTOL and AAMV," Aerospace, Vol. 7, No. 12, pp. 160, Dec. 2020.
  2. S. Wang, H. Wang, D. Liu, "A Comprehensive Review on Point Cloud Based Object Detection for Autonomous Driving: Techniques and Applications," Information Fusion, vol. 72, pp. 52-73, 2021.
  3. Z. Zhang, J. Yan, S. Liu, Z. Lei, D. Yi, S. Li, "3D FaceNet: Real-time Dense Face Reconstruction via Synthesizing Photo-realistic Face Images," arXiv preprint arXiv:1703.10131, 2017.
  4. C. R. Qi, W. Liu, C. Wu, H. Su, L. J. Guibas, "Frustum PointNets for 3D Object Detection from RGB-D Data," in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Salt Lake City, UT, pp. 918-927, June 2018.
  5. D. Scaramuzza, "The Role of Perception in Autonomous Vehicles," in IEEE Robotics & Automation Magazine, Vol. 27, No. 4, pp. 24-35, Dec. 2020, Available: (URL if needed).
  6. S. Huang, M. Ye, Z. Wu and R. Yang, "3D LiDAR intrinsic calibration and automatic system from planar surfaces," in 2019 IEEE Intelligent Vehicles Symposium (IV), 2019, pp. 2532-2538
  7. D. Zermas, I. Izzat, and N. Papanikolopoulos, "Fast segmentation of 3D point clouds: A paradigm on LiDAR data for autonomous vehicle applications," in Proc. IEEE Int. Conf. Robot. Autom. (ICRA), 2017, pp. 5067-5073.
  8. B. Douillard, D. Fox, and F. Ramos, "A spatio-temporal probabilistic model for multi-sensor multi-class object recognition," in Proc. AAAI Conf. Artif. Intell., 2011.
  9. S. Oh, S. Lee, J. Park, and I. S. Kweon, "Patchwork++: Fast and robust ground segmentation solving partial under-segmentation using 3D point cloud," 2023. 
  10. B. Douillard, J. Underwood, N. Kuntz, V. Vlaskine, A. Quadros, P. Morton and A. Frenkel, "On the Segmentation of 3D LIDAR Point Clouds," in 2011 IEEE International Conference on Robotics and Automation, 2011, pp. 2798-2805, doi: 10.1109/ICRA.2011.5980382
  11. A. G. Cunningham, K. M. Wurm, W. Burgard, and F. Dellaert, "Fully Autonomous Onboard Approach and Landing on a Platform Using Fiducials," in IEEE International Conference on Robotics and Automation (ICRA), Karlsruhe, Germany, May 2013.
  12. Schnabel, R.; Wahl, R.; Klein, R. (2007). "Efficient RANSAC for Point-Cloud Shape Detection". Computer Graphics Forum.