DOI QR코드

DOI QR Code

Building Dataset of Sensor-only Facilities for Autonomous Cooperative Driving

  • Received : 2023.11.20
  • Accepted : 2023.12.27
  • Published : 2024.01.31

Abstract

In this paper, we propose a method to build a sample dataset of the features of eight sensor-only facilities built as infrastructure for autonomous cooperative driving. The feature extracted from point cloud data acquired by LiDAR and build them into the sample dataset for recognizing the facilities. In order to build the dataset, eight sensor-only facilities with high-brightness reflector sheets and a sensor acquisition system were developed. To extract the features of facilities located within a certain measurement distance from the acquired point cloud data, a cylindrical projection method was applied to the extracted points after applying DBSCAN method for points and then a modified OTSU method for reflected intensity. Coordinates of 3D points, projected coordinates of 2D, and reflection intensity were set as the features of the facility, and the dataset was built along with labels. In order to check the effectiveness of the facility dataset built based on LiDAR data, a common CNN model was selected and tested after training, showing an accuracy of about 90% or more, confirming the possibility of facility recognition. Through continuous experiments, we will improve the feature extraction algorithm for building the proposed dataset and improve its performance, and develop a dedicated model for recognizing sensor-only facilities for autonomous cooperative driving.

본 논문에서는 자율협력주행 인프라를 위해 제작된 8가지 센서 전용 시설물들에 대해 라이다로 취득한 포인트 클라우드 데이터로부터 시설물들의 특징을 추출하여 샘플 데이터셋으로 구축하는 방법을 제안한다. 고휘도 반사지가 부착된 8가지 센서 전용 시설물들과 데이터 취득 시스템을 개발했고, 취득된 포인트 클라우드 데이터로부터 일정한 측정 거리 내에 위치한 시설물들의 특징을 추출하기 위해 포인트 대상의 DBSCAN 방법과 반사강도 대상의 OTSU 방법을 응용하여 추려낸 포인트들에 원통형 투영법을 적용했다. 3차원 포인트 좌표, 2차원 투영 좌표, 그리고 반사강도 등을 해당 시설물의 특징으로 설정했고, 정답 레이블과 함께 데이터셋으로 제작했다. 라이다로 취득한 데이터를 기반으로 구축된 시설물 데이터셋의 효용 가능성을 확인하기 위해서 기본적인 CNN 모델을 선정하여 학습 후 테스트를 진행하여 대략 90% 이상의 정확도를 보여 시설물 인식 가능성을 확인했다. 지속적인 실험을 통해 제시한 데이터셋 구축을 위한 특징 추출 알고리즘의 개선 및 성능 향상과 더불어 이에 적합한 자율협력주행을 위한 센서 전용 시설물을 인식할 수 있는 전용 모델을 개발할 예정이다.

Keywords

I. Introduction

자율주행 레벨 4/4+ 이상의 자율주행 안전성을 확보하기 위한 디지털 도로‧교통 인프라 환경을 구축하기 위해서 클라우드 소싱 기반 디지털 도로‧교통 인프라 플랫폼과 물리적 인프라인 도로‧교통 시설물의 측위 및 인식 성능 제고를 위한 기존의 도로‧교통 시설물 개선 및 자율협력주행을 위한 전용 가상시설물 개발 등을 고려할 수 있다. 해당 플랫폼은 자율협력주행을 위해 디지털 도로‧교통 인프라 정보를 도로관리자 등 인프라 공급자의 생산정보와 다양한 자율협력주행 서비스에 가입된 차량의 검지 정보와 민간 데이터 등을 개방형 플랫폼에서 수집/검증/재생산/배포/공유하여 최대 다수의 커넥티드 차량 등이 혜택을 받을 수 있는 플랫폼으로 정의된다. 그리고 가상 도로‧교통 시설물의 정의는 기존 설치된 도로‧교통 시설물의 형태 및 기능을 변경하여 자율주행 레벨 4 이상의 자율협력주행 기능을 지원하는 물리적 시설물로써 인식성능 향상 및 측위를 지원하는 역할을 수행하는 시설물을 일컫는다. 이러한 플랫폼은 도로‧교통 변화정보를 신속히 갱신하고 배포해서 도로‧교통 시설물을 관리하는 지자체와 유관기관 등에서 체계적인 시설물 유지 관리에 활용할 수 있으며, 개선 및 가상 시설물들은 자율주행 핸디캡 구간 및 상황에서 안전한 자율협력주행을 지원할 수 있다. 그래서 자율주행차량을 위한 전용지도를 구축하여 전방의 도로 및 교통 상황을 인지하여 자율주행의 안전성을 확보할 수 있고, 도로 및 시설물 유지관리와 스마트시티 및 도시 인프라 산업 등 타 분야로의 파급효과가 있을 것으로 보인다.[1-5]

자율협력주행 모델을 구축하기 위한 인프라로 자율주행을 위한 개선 및 가상 시설물들을 소개하고 이들 시설물에 사용하기에 적합한 재료의 특성을 분석한 연구[2-4]가 소개되었다. 이의 후속 연구로 자율주행차량에 장착된 다양한 센서들을 통해 인지하는 표지 시설의 활용을 위해 기존 도로시설물인 도로표지, 교통안전표지, 시선유도시설과 정밀도로지도의 시설물 관련 레이어와의 비교분석을 통한 자율주행차량의 인식 가능 표지시설의 역할을 도출한 연구[5]도 진행되었다.

상기 연구들[2-5]은 단계적으로 수행되면서 기존에 존재하지 않는 자율주행차량만을 위한 표지 시설의 역할 도출 및 기존의 도로시설인 국토교통부에서 관리하는 도로 표지와 시선유도시설, 경찰청에서 관리하는 교통안전표지, 국토지리정보원에서 제공하는 자율주행차량을 위한 정밀 도로지도의 레이어 등에 대한 분석을 통해 자율주행차량이 인식할 수 있는 전용 표지시설을 활용하여 원활하고 안전한 주행을 하도록 도로시설물의 설치 위치, 높이, 방향 등이 현행법령에서 규정하는 범위 내에서 설치 및 관리될 필요가 있다고 보았다.

자율주행차량에 장착되는 센서들 중 라이다 센서는 현재 자율주행기술 발전을 선도할 것으로 보이며, 국내에서 시험 중인 자율주행차량 대부분이 카메라와 라이다를 융합하여 사용하고 있다. 이러한 복합 센싱기술은 기존의 CCTV 감시 시스템에서도 적극적으로 활용되고 있다. 효용성 측면에서 라이다를 일반 카메라와 비교해 본다면, 조도의 영향에 민감하지 않아 주야간 성능의 차이가 상대적으로 적고 3차원 형태로 물체를 감지하여 상대적으로 정확도가 우수한 것으로 알려져 있다.

라이다는 자율주행차량에 부착되어 동적 물체의 인지나 주행 중인 차량의 절대위치 파악 등에 활용되고 있으며, 이를 기반으로 도로시설물에 대한 다양한 성능변화에 대한 연구[6]가 수행되었다. 또한, 완벽한 자율주행기술의 구현을 지원하기 위한 자율주행 인프라를 기반으로 한 자율 협력주행에서는 GPS 기반의 자율주행차량의 절대측위는 GPS의 오류를 보정하기 위한 주변의 차선 및 표지판과 같은 도로시설물을 인식하여 상대측위로 보정하는 과정이 필요하다. 즉, 센서는 주변 참조시설물의 탐지와 더불어 자율협력주행에 필요한 연속적 측위를 위한 참조시설물의 탐지도 수행해야 한다.

본 논문에서는 앞서 언급된 연구들의 연장선 상에서 정밀도로지도를 제작하기 위한 사전 제작된 동적 시설물들을 라이다로 인식하기 위해 포인트 클라우드 데이터 취득에서부터 시설물들의 특징을 추출하여 데이터셋을 구축한 후 이를 적용한 가상시설물의 인식 가능성을 기술한다. 제2장에서는 자율협력주행을 위한 시설물의 종류 및 라이다로 시설물을 감지하기 위한 센서 데이터 취득 시스템, 그리고 취득된 포인트 클라우드 데이터 분석 등을 기술한다. 제3장에서는 본 논문의 핵심인 포인트 클라우드 데이터의 전처리, 군집화, 데이터셋 구축 과정을 기술하고, 제4장에서는 기본적인 CNN 모델을 대상으로 구축된 데이터셋의 효용 가능성을 확인한다. 마지막 제5장에서는 본 논문의 내용을 기반으로 향후 추진 방향을 논의한다.

II. Facilities and Acquisition System

1. Senor-Only Facilities

자율협력주행을 위한 인프라로 기존 시설물의 개선 및 자율협력주행 전용 가상시설물은 복잡구간, 특수구간, 측위보정 등 3가지로 분류하였다. 복잡구간을 위한 5가지 시설물들은 엇갈림구간의 시점(C1)과 종점(C2), 곡선구간(C3), 그리고 공사구간의 시점(C4)과 종점(C5)으로 구성되며, 특수구간 시설물로는 기존의 어린이보호구역의 시점(C6)과 종점(C7), 그리고 측위보정(C8) 등을 포함하여 모두 8가지의 시설물들을 제작했으며 이들의 외관은 Fig. 1과 같다.

CPTSCQ_2024_v29n1_21_f0001.png 이미지

Fig. 1. Facilities with blue sheeting reflective to LiDAR: C1 and C2 are referred to as the start and end points of the cross zone, C3 for the curve zone, C4 and C5 for the start and end points of the construction zone, and finally C8 for the georeferencing.

제작된 시설물들은 [2-5]의 연구결과를 기반으로 디자인 및 반사 재질의 물성 등에 대해 지속적으로 수정 및 보완해 왔으며, 향후 K-City에 적용하기 위해 시설물이 추가되거나 반사지 형상 등이 수정 및 보완될 예정이다.

2. Acquisition System

자율협력주행을 위한 물리적 인프라인 시설물을 인지하기 위한 데이터 취득 시스템의 구성도는 Fig. 2와 같다.

CPTSCQ_2024_v29n1_21_f0002.png 이미지

Fig. 2. Block diagram of an acquisition system with 5 types of sensors

차량에 장착된 해당 시스템은 리눅스 우분투 배포판의 ROS 플랫폼 기반으로 1/10초 단위로 설정하여 5가지 타입의 센서 데이터를 취득해서 ROSBAG 파일형태로 저장한다. 5가지 종류의 센서들로부터 취득되는 데이터는 5가지 타입(Frame, IMU, NavSatFix, PointCloud2, TFMessage)의 9가지 토픽(4개의 Cams, 1개의 IMU, 1개의 GNSS, 2개의 LiDARs, 1개의 TF)으로 구성된다.

본 논문에서는 9가지 토픽들 중에서 한 대의 라이다에서 취득된 포인트 클라우드 데이터 내 특정 시설물에 대해 추출한 특징점들을 기반으로 시설물 인식 및 거리 측정 가능성을 확인하기 위한 연구 내용을 기술한다. 나머지 센서들로 취득된 데이터는 라이다를 활용한 시설물 인식 성능을 검토하여 이의 보완 및 정밀도로지도와 관련된 시스템들과의 연계를 위해 활용될 예정이다.

3. Manual Analysis

라이다로부터 취득된 포인트 클라우드 데이터에서 시설물이 어느 정도의 거리에서 명확하게 감지되는지를 확인하기 위해서 수동으로 검토하여 시설물별 적정 거리 및 반사강도를 확인하였으며, 포인트 클라우드 뷰어에서 시설물별로 캡처한 내용은 Fig. 3과 같다.

CPTSCQ_2024_v29n1_21_f0003.png 이미지

Fig. 3. Capture plots by distance for each facility

전반적으로 1m 이내에서는 반사강도가 낮아지는 경향을 보였다. C1 ~ C5의 경우는 2 ~ 10m 거리 내에서는 확인되는 포인트들의 반사강도 및 형태가 적정해 보였고, 15m 거리까지는 이들 시설물들의 상호 구분이 가능할 것으로 파악되었으나 15m 거리 이상에서는 정확도가 낮아지기에 잠정적으로는 2 ~ 10m 사이가 이들 시설물들의 검지거리로 적정하다고 판단되었다.

C6과 C7의 경우는 6m 거리 이내에서는 포인트 수가 상대적으로 많았으나 라이다 채널의 밀집영역을 벗어나고, 13m 거리 이후부터는 형태가 소실되는 경향을 보였기에 6 ~ 10m 거리 사이가 최적의 탐지거리로 판단되었다. 마지막으로 C8의 경우는 3m 거리 미만의 경우에는 좌상단판이 검출되지 않는 경우가 있었고, 10m 거리 이상부터는 포인트 수와 형상이 변형되는 경향이 있어 3 ~ 10m 거리 사이가 최적의 탐지거리로 판단되었다.

III. The Proposed Scheme

1. Overview

현재 진행 중인 연구는 자율협력주행을 위한 8종의 시설물 제작, 데이터셋 구축, 그리고 구축된 데이터셋을 기반으로 시설물을 인식하는 과정으로 구분되어 단계별로 진행되고 있으며 Fig. 4와 같다. 본 논문에서는 취득된 포인트 데이터로부터 8종류의 시설물들에 대한 데이터셋을 구축한 후 이를 기반으로 개별 시설물의 인식 가능성을 기술한다.

CPTSCQ_2024_v29n1_21_f0004.png 이미지

Fig. 4. Workflow; gray boxes depict modules that have progressed to date.

취득 시스템에 장착된 라이다는 Velodyne사의 Ultra Puck이고 핵심 사양으로는 32채널, 수직 해상도는 0.33이고 수평 해상도는 0.4이다. 그리고 수직 FoV(Field of View)는 –25 ~ 15도이지만 채널 밀집 FoV는 –4 ~ 1.667도인 특성을 갖고 있다.

Fig. 4의 두 번째 단계에 입력이 되는 포인트 클라우드 데이터는 PointCloud2 타입으로 포맷은 0.7 버전을 준수하고, 포인트별 레코드는 4개 필드로 포인트의 3차원 좌푯값(x, y, z)과 반사강도(intensity)로 구성되며 각각의 크기는 4바이트씩이다. 해당 라이다로 1회 취득하는 포인트 클라우드 데이터의 포인트 수는 대략 49,476개이며, 15m 거리 정도에서의 C1은 Fig. 5-(a)와 같다.

CPTSCQ_2024_v29n1_21_f0005.png 이미지

Fig. 5. Point Cloud Data Visualization and Projection Views

공간정보 분야에서는 라이다 센서를 기반으로 3차원 공간을 스캔하여 3차원 공간을 재구성하는 등의 연구 개발이 활발히 진행되었고, 최근에는 이러한 공간 내에서 물체의 탐지 및 인식과 관련하여 방대한 데이터 양, 개발된 모형의 정확도 및 처리 속도 향상 등을 대상으로 다양한 연구들이 진행되고 있다. 방대한 양의 포인트 클라우드 데이터를 처리함에 있어서 인공지능기술의 접목은 부인할 수 없는 대세라고 볼 수 있겠는데, 이는 영상처리 및 컴퓨터비전 분야에서의 다양한 연구들에 의하면 인공지능기술은 전통적인 알고리즘들에 비해 상대적으로 높은 정확도와 일반화된 강건성을 보여주고 있다고 볼 수 있겠다.

다양한 연구들을 기반으로 라이다에서 취득한 포인트 클라우드 데이터 내 시설물을 배경으로부터 분리시켜 인식할 수도 있겠지만 해당 연구의 특수성을 고려하여, 즉, 자율협력주행 인프라를 위한 시설물들은 특히 [5]에서 언급한 바와 같이 라이다 센서에 민감한 특정 패턴의 고휘도 반사지가 부착된다는 점이고, 일반 물체에서 반사되는 포인트의 밝기보다 고휘도 반사지가 상대적으로 밝다는 점이다. 시설물 내 패턴의 반사 특성으로 인해 포인트 클라우드 데이터를 군집화하는 과정에서 데이터의 양을 줄이기 위해 제2장의 제3절 내용을 토대로 고려해야 할 포인트들의 범위를 어느 정도 한정시켰다고 볼 수 있겠다.

원통형 투영(Fig. 5-(b)) 또는 구면 투영(Fig. 5-(c))은 3차원 포인트 클라우드 데이터를 2차원 이미지 데이터로 표현하는 방법이지만 기본적으로 차원 축소 역할을 한다. 그리고 구형 투영은 포인트 클라우드 처리를 위한 다양한 딥러닝 솔루션에서 점점 더 활용도가 높아지는 실정이다. 가장 많이 응용되는 분야 중 하나는 포인트 클라우드 데이터에서 객체를 분류하고 분할하는 것[7-9]이다. 포인트 클라우드 데이터를 이미지로 표현하는 가장 큰 장점은 지난 10여 년간 2차원 이미지를 대상으로 진행 되었던 수많은 연구들(FCN, U-Net, Mask- RCNN, Faster-RCNN 등)을 3차원 포인트 클라우드로 확장할 수 있다는 점이다. 특히, 자율주행 분야에서 많은 연구자들이 이를 위해 노력하고 있다[10-12].

2. The Proposed Method

2.1 Key Idea

정확한 데이터셋을 활용해서 정확도를 높이는 것이 해당 분야의 관건이라고 할 수 있으며, 대량의 학습데이터 학습은 모델 성능 향상과 직결되어 정확도 향상에 매우 중요한 요소라고 볼 수 있다. 하지만 자율협력주행 연구분야에서의 데이터 구축의 특이점으로 절차의 표준화가 어렵고, 가상시설물의 필요성 여부 및 기준, 그리고 현장 운영의 미확정 등 데이터 획득을 위한 통제요인들이 다양하다고 볼 수 있다. 그래서 프로토타이핑과 같이 실제 제작해 보고 문제를 신속히 해결하는 과정이 필요하기에 “모델 기반의 학습”에 초점을 맞춘 연구 외에도 일관성 있는 데이터 수집과 특징 추출, 그리고 코드 모델을 학습시키는 방법에 대한 “모델 외적인 방법의 개발”을 병행하는 방법론[7]을 고려하였다.

정부에서 제시한 데이터셋 구축 가이드라인[8]에 의거하여 “획득-정제-라벨링-저장-적용”의 전주기 프로세스에서 라벨링에 필요한 객체 설정 및 인공지능 학습용 데이터에 필요한 기준으로 활용함에 있어서 거리에 따른 시설물의 형태의 기준 설정이 확정되지 않았고, 샘플링은 샘플 채취 구간에 대해서 인공지능 모델러와 협의 후 기준을 정하고 진행해야 하는데 모델이 명확하지 않았기에 MNIST 데이터셋을 모방하기로 하였다. 그리고 해당 구축 안내서에서는 특수 카메라 중 LiDAR 센서에 대한 획득 세부항목 기준이 정해져 있지 않았다. 그래서 데이터 정제 방법의 상세 내용을 기반으로 취득된 PCD(Point Cloud Data) 파일명에 시설물 ID를 수동으로 추가하고, 라벨링 작업 방식을 자동화하기 위해서 특징점을 추출하였다. 라벨링 작업 방식들 중 우선적으로 keypoint를 어노테이션으로 선택하여 테스트한 후 개발될 인공지능 모형을 기반으로 다양한 형태의 어노테이션 방식을 고려하기로 하였다.

개발 초기에는 취득된 모든 포인트 클라우드 데이터를 대상으로 데이터셋을 구성하여 기개발된 전이모형[9-13]을 기반으로 인식하는 방법도 고려 되었지만, 처리할 방대한 포인트들의 수를 줄이기 위해 일반적으로 수행되는 차원 축소 및 샘플링 과정 등에서 시설물의 크기가 상대적으로 아주 작기 때문에 해당 포인트들이 제거될 가능성이 높았다. 반면에 제작된 시설물이 일반적인 물체와 비교하여 라이다에 상대적으로 강하게 반사하도록 제작되었다는 점과 시설물의 입체감이 작은 점 등의 특징을 고려하여 포인트들의 반사강도 분포분석과 임계값을 기준으로 분할한 후 2차원으로 투영하여 인식하고자 하는 시설물의 포인트 수를 최소화 하고자 하였다. 이를 기반으로 제작된 시설물에 대한 특징추출 및 이를 데이터셋으로 구축하여 이들의 효용성을 확인하기 위해 Fig. 6과 같은 단계들을 수행하였다.

CPTSCQ_2024_v29n1_21_f0006.png 이미지

Fig. 6. Flowchart of building a dataset for sensor-only facilities.

2.2 2D Projection

자율주행에서 라이다를 활용함으로써 3차원 포인트 클라우드의 시각화를 위한 다양한 연구들[14,15]이 진행되었는데, 경우에 따라 차원축소를 위한 다양한 투영법들 중에서 포인트 클라우드 데이터 처리에 있어서 일반적으로 원통형 투영(Fig. 5-(b))과 구면 투영(Fig. 5-(c))을 고려할 수 있다. Fig. 5-(c)는 장착한 라이다가 32채널이기 때문에 스캔라인의 수를 채널 수와 일치시켜 투영한 것이며, 포인트 클라우드 데이터를 2차원으로 표현하는 장점을 고려한다면 구면 투영이 적정할 것으로 판단되었다. 하지만 개발 단계에서 시설물 확인 등의 이유로 원통형 투영법을 선정하였다.

2.3 Extracting Keypoints as Annotation

해당 단계에서는 포인트의 3차원 좌표와 반사강도를 기반으로 군집화를 수행하였다. 포인트의 좌표를 대상으로 라이다의 후면부(-X축)와 좌측 시야각을 고려하여 해당 영역 내의 포인트들을 제거하였다. 반사강도에 대해서는 사분위수 이상치를 기반으로 임계값을 설정하였다. 취득된 포인트 클라우드 데이터 내에서 시설물에 관련된 포인트들의 밝기는 상대적으로 이상치에 해당하기 때문이며, 거리와 환경에 따라서 라이다 센서의 민감도가 일정하지 않다는 점도 고려하였다.

이러한 두 단계를 거친 후 포인트의 좌표를 기반으로 비지도학습 기반의 군집화 방법들 중 DBSCAN을 적용하였다. 해당 방법은 밀도가 다양하거나 모양이 불규칙한 클러스터처럼 모양이 잘 정의되지 않고 서로 가까운 포인트들을 함께 그룹화하는 방법으로 어느 정도 활용도가 높다는 연구결과와 실험을 통해 선정하게 되었다. 아울러 이번 단계에서의 중간 결과물로 산출된 여러 개의 라벨들 중에서 포인트 수가 20개 미만일 경우를 제거하였는데 이는 관련 업계에서 최소 20개를 기준으로 라벨링을 하고 있기 때문에 우선적으로 해당 조건을 유지시켰다.

이렇게 선정된 여러 개의 라벨링 중에서 상대적으로 밝기가 가장 큰 그룹을 선정했고, 포인트들의 반사강도를 대상으로 히스토그램에서 분포 기반의 자동으로 임계값을 설정하는 OTSU 방법을 반사강도의 평균치와 비교함으로써 적용 여부를 결정하여 포인트 수를 조정했다. 이렇게 추출된 포인트들을 해당 포인트 클라우드 데이터의 특징으로 선정하고 원통형 투영법을 적용하여 2차원 좌표로 변환했다. 최종적으로, 주어진 PCD 파일마다 PCD 파일명, 3차원 포인트들과 반사강도, 그리고 투영된 2차원 좌표들과 클래스 분류를 해당 시설물의 특징으로 저장했다.

IV. Experiments

1. Acquisition and Feature Analysis

제작한 8종의 시설물을 대상으로 동일한 환경에서 시설물만 변경하며 센서 데이터 취득 차량으로 -2 ~ 35m의 거리를 반복 이동하여 포인트 클라우드 데이터를 취득했다. 이렇게 취득된 ROSBAG 파일들에서 총 7,898개의 PCD 파일을 추출했으며, Fig. 6에서 제안한 알고리즘을 적용하여 4,192개의 특징 파일을 추출하였다.

이와 관련하여 시설물별 추출된 포인트의 수, 최소 및 최대 검지 거리, 유효한 최소 및 최대 검지 거리, 특징점으로 추출된 포인트들의 평균 개수 및 최대 개수에 대해서는 Table. 1과 같으며, 시설물의 디자인 패턴에 따라 인지 거리가 다양함을 확인할 수 있다. 이를 기반으로 시설물들에 대한 인지거리에 대한 기준을 결정해야 하지만 특징 추출 방법의 개선 등으로 인지거리를 향상시킬 필요가 있겠다.

Table 1. Characteristics by facilities

CPTSCQ_2024_v29n1_21_t0001.png 이미지

2. Building Sample Dataset

취득된 PCD 파일에서 추출된 특징점들을 기반으로 기존의 모델에서 인식 가능성을 파악하기 위해서 MNIST 데이터셋의 구조를 모방하고 이를 대상으로한 일반적인 CNN 모형에 적용하여 추출된 특징점이 해당 시설물을 어느 정도 표현할 수 있는지 그리고 어느 정도 인식할 수 있는지에 대한 실험을 수행하였다.

적용할 CNN 모형의 입력 벡터 크기와 정규화 단계를 수행하기 위해서 원통형 투영의 2차원 배열을 고려했기 때문에 특징 파일로부터 2차원 좌표와 반사강도를 화소값으로 하는 1채널 이미지를 제작하고 라벨은 원-핫 인코딩으로 변환 후 테스트를 위한 샘플 데이터셋을 제작했다. 저장된 데이터셋은 4,192 x 784(=28 x 28)과 4,192 x 8의 라벨 데이터로 구성했다. 추후 개발될 인식 모델에 따라 입력 데이터 벡터의 크기는 달라질 수 있겠지만, 제안한 알고리즘에 의거하여 구축된 데이터셋의 효용 가능성을 확인하기 위해서 MNIST의 데이터셋과 동일한 차원으로 구축했다. Fig. 7은 이렇게 구축된 시설물별 거리에 따른 샘플을 보여주고 있는 데 C5는 20m 이상에서, C8은 19m 이상에서 특징점이 추출 되지 않았다. 이는 추출된 특징점이 20개 이하인 경우가 대부분이며 제2장 제3절의 내용과 어느 정도 관련성이 높다고 볼 수 있겠다.

CPTSCQ_2024_v29n1_21_f0008.png 이미지

Fig. 7. Sample images by distance (approximately 20 ~ 1m in sequence) per facility

시설물 특징추출을 기반으로 구축된 데이터셋의 효용성 및 라이더 기반의 시설물 인식의 가능성을 확인하기 위해서 기본적인 CNN 모델을 구축했으며 해당 모델의 요약은 Fig. 8과 같으며, 데이터의 수는 총 4,192개이고 훈련을 위해서 3,353개와 테스트를 위해 839개로 나누어 PyTorch로 모형을 구성한 후 학습률은 1e-3, epoch는 5, batch size는 64, 손실함수로는 CrossEntropyLoss, 최적화 함수로 Adam을 적용했다.

CPTSCQ_2024_v29n1_21_f0007.png 이미지

Fig. 8. Summary of CNN model

해당 모델을 적용하여 테스트한 결과, CNN 모델에서는 825개 중 797개을 맞춰 정확도가 96.61%가 나왔으며, 결과를 시설물별 테스트 개수와 예측이 어긋난 개수 등을 정리한 내용은 Table. 2와 같다. 여기서 디자인 측면에서 C4와 C5가 유사하며, 추출된 특징점들의 분포(혹은 형태) 역시 거리에 따라 영향을 미치기 때문에 시설물 디자인에 대한 변경을 고려할 필요가 있다고 판단된다.

Table 2. Results of CNN model by facilities

CPTSCQ_2024_v29n1_21_t0002.png 이미지

V. Conclusions and Discussion

본 논문에서는 자율협력주행을 지원하기 위한 인프라로 제작된 가상시설물 인식을 위해 다양한 센서들을 탑제한 취득 시스템과 8종류의 가상시설물에 대한 거리별 포인트 클라우드 데이터를 기반으로 해당 시설물의 특징을 추출한 후 샘플 데이터셋을 구축하는 과정을 기술했다. 아울러 구축된 시설물 데이터셋의 효용 가능성을 확인하기 위해서 기본적인 CNN 모델을 적용하여 인식 테스트를 진행했다. 결과는 예측을 상회하여 가능성은 보였다는 점에서 고무적이라고 할 수 있겠지만 추가적으로 시설물의 디자인 보완 및 특징 추출의 일반화가 필요해 보인다.

그리고 데이터 취득에 있어서 본 연구에서는 단순하고 이상적인 환경에서 데이터를 취득했지만, 이후 다양한 기상 조건과 현실 도로 환경에서 취득한 데이터를 활용할 필요가 있다.

특징추출 알고리즘 측면에서는 입력 데이터 타입으로 3차원 포인트 데이터 전체 혹은 2가지 투영법에 의해 투영된 2차원 데이터를 각각 시도해 보는 것과 포인트 수 축소를 위해서 라이다의 특성과 시설물의 반사강도 특성을 고려하여 이에 적합한 군집 알고리즘을 개발하는 것이 필요하다, 예를 들면, 포인트 좌표를 기반으로 DBSCAN을 수행한 결과를 기반으로 반사강도에 대해서 히스토그램 임계값을 설정했는데 이들 단계를 축소시키는 방법도 고려될 수 있겠다.

데이터셋 구축 측면에서는 적정한 벡터 크기를 고려해 볼 필요가 있는데 이는 모델의 성능과 관련성이 높다고 볼 수 있겠다. 본 실험에서는 일반적인 CNN 모델을 적용해서 구축된 데이터셋의 효용 가능성을 확인했지만 앞서 언급한 바와 같이 연구자들의 예측을 상회하는 결과를 보였다. 아마도 추출된 특징점들로 구성된 데이터셋이 어느 정도 패턴화 되었기 때문으로 판단된다. 본 논문은 가상시설물 인식을 위한 모델 개발보다 이를 위한 데이터셋 구축의 효용 가능성을 확인하기 위한 것이었기 때문에 향후 진행될 연구에서는 ViT[16] 등 최신 전이모델을 접목하는 시도와 함께 자율협력주행을 위한 센서 전용 가상시설물 인식에 적합한 모형을 개발하여 인식 성능을 향상시킬 예정이다. 이를 위해 앞서 언급한 다양한 고려 사항들을 지속적으로 보완 및 수정 작업이 함께 수반될 것이다.

향후 자율협력주행을 위한 시설물의 개발 및 고도화에 있어 해당 연구의 지속적인 실험 결과가 시설물의 디자인 및 재질 선정 등 시설물 제작과 상호 환류되면서 추진될예정이다.

ACKNOWLEDGEMENT

This research was supported by the research project “(22AMDP-C161924-02) Development of integrated digital platform for the road and transport infrastructure based on crowdsourcing” funded by the Ministry of Land, Infrastructure and Transport/Korea Agency for Infrastructure Technology Advancement (KAIA).

References

  1. Sang-Yeon Won, Young-Jae Jeon, Hyng-Woo Jeong, Chan-Oh Kwon, "A Comparison of Korea Standard HD Map for Actual Driving Support of Autonomous Vehicles and Analysis of Application Layers," Journal of the Korean Association of Geographic Information Studies, vol. 23, no. 3, pp. 132-145, 2020. 9. DOI:10.11108/kagis.2020.23.3.132
  2. Young-Jae Jeon, Chul-Woo Park, Jin-Woo Kim, Jun-Hyuk Lee, "Study on the Material Characteristics of Improved and Virtual Facility for Autonomous Vehicles," Journal of Korea Contetns Association, Vol. 22, No. 12, pp. 171-179. 2022. 12. DOI:10.5392/JKCA.2022.22.12.171
  3. Young-Jae Jeon, Chul-Woo Park, Jin-Woo Kim, Jun-Hyuk Lee, "Deriving the Role of Sign Facilities Recognized by Autonomous Vehicles," Journal of the Korean Association of Geographic Information Studies, Vol.26, No. 1, pp. 1-10, 2023. 1. DOI:10. 11108/kagis.2023.26.1.001 https://doi.org/10.11108/kagis.2023.26.1.001
  4. Young-Jae Jeon, Chul-Woo Park, Sang-Yeon Won, Jun-Hyuk Lee, "Study on Applying New Infrastructure for Autonomous Driving in HD Maps," Journal of the Korea Association of Geographic Information Studies, vol 26, no. 4, pp. 1-11, 2023, DOI:10.11108/kagis.2023.26.4.001
  5. Ji-Yeon Kim, Bum-Jin Park, "A Research of Factors Affecting LiDAR's Detection on Road Signs: Focus on Shape and Height of Road Sign," Journal of Korea Institute of Intelligence Transport Systems, vol. 21, no. 4, pp. 190-211, 2022. 7. DOI:10.12815/kits.2022.21.4.190
  6. Bum-Jin Park, Ji-Yoon Kim, "A Study of LiDAR's Performance Change by Road Sign's Color and Climate," Journal of Korea Institute of Intelligence Transport Systems, vol. 20, no. 6, pp. 227-241, 2021. 11. DOI:10.12815/ kits.2021.20.6.228
  7. Do Young Kim, Taehoon Kim, Junhee Youn, "A Study on data set construction method using deep learning technologies - improvement of accuracy through dataset and hyper-parameter adjustment using CNN," Journal of Digital Contents Society, vol. 24, no. 2, pp. 341-351, 2023. 2, DOI:10.9728/dcs.2023.24.2.343
  8. "Building Guide of AI Training Dataset," Ministry of Science and ICT, pp. 157-220, 2021.2
  9. Charles R. Qi, et. al, "PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation," Proceedings on the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 252-660, 2017. DOI: 10.48550/ arXiv.1612.00593
  10. Charles R. Qi, et. al, "PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space," Proceedings of the 30th Conference on Neural Infroamtion Processing System(NeurIPS 2017), pp. 2017. 6. DOI:10.48550/arXiv.1706.02413
  11. Yangyn Li, et. al., "PointCNN: Convolution On x-Trans formed Points," Proceedings of the 32nd Conference on Neural Information Processing Systems(NeurIPS 2018), pp. 828-838, 2018. 11. DOI: 10.48550/arXiv.1801.07791
  12. Aoran Xiao, etl, al., "FPS-Net: A convolutional fusion network for large-scale LiDAR point cloud segmentation," ISPRS Journal of Photogrammetry and Remote Sensing, vol. 17, pp. 237-249, 2021. 6. DOI: 10.1016/j.isprsjprs. 2021.04.011
  13. Jaehyun Park, et. al., "PCSCNet: Fast 3D semantic segmentation of LiDAR point cloud for autonomous car using point convolution and sparse convolution network," Export Systems with Application, vol. 212, 2023. 2. DOI: 10.1016/j.eswa.2022.118815
  14. Xiakhan Tu, Cheng Xu, Siping Liu, Shuai Lin, et. al., "LiDAR Point Cloud Recognition and Visualization with Deep Learning for Overhead Contact Inspection," Sensors 2020, 20, 6387. DOI:10.3390/s20216387
  15. J. Sreevalsan-Nair, "Visual Analytics of Three-Dimensional Airborne LiDAR Point Clouds in Urban Regions," Geospatial Infrastructure, Applications and Technologies: India Case Studies. pp. 313-325, Springer, Singapore. DOI:10.1007/978-981-13-2330-0_23
  16. Alexey Dosovotskiy, et. al., "An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale," Published as a conference paper at ICLR 2021, DOI:10.48550/arXiv.2010.11929