1. INTRODUCTION
복잡한 주행 환경 하에서 자율주행 차량은 안전하고 효율적인 주행 능력이 요구되며, 이를 성능 검증하기 위한 시험 방법에 대한 요구가 증가하고 있다 (Huang et al. 2016). 이에 따라 요구 사항에 발맞춰 안전한 연구개발 환경하에서 사고를 포함한 다양하고 복잡한 주행 환경을 모사하는 자율주행 드라이빙 시뮬레이터 기술이 광범위하게 사용되고 있다. CarMaker (Schiegg et al. 2019), Virtual Test Drive (Chen 2023), Mobility Research AI (MORAI) (Envisioning the future of mobility 2024)와 같은 국내외 드라이빙 시뮬레이터 또한 이에 대응해 자율주행 차량 센서를 모사하는 기술 개발에 초점을 맞추고 있다 (Sievers et al. 2018).
한 발 더 나아가, 드라이빙 시뮬레이터의 장점을 현실 환경에 적용하는 혼합현실(mixed reality) 개념인 디지털 트윈 방법을 자율주행 차량의 시험 검증에 적용한 연구들이 이루어졌다 (Niaz et al 2021). 자율주행 분야에서 디지털 트윈은 현실과 복제 환경을 이루는 가상 시뮬레이터 환경과 현실 환경의 연계 시험 방법으로 자율주행 알고리즘 검증을 효율적이고 안전하게 수행하기 위해 활용된 기술이다. 특히 현실의 제약 사항을 시뮬레이터의 장점을 활용한 디지털 트윈을 통해 해결하고자 다방면으로 기술을 적용하려는 노력이 진행 중이며, 차량의 회피, 추월, 급정지 등 위험상황에 대한 연구가 최근 활발히 진행 중이다. 일례로 디지털 트윈 환경 하의 Connected and Automated Vehicles를 통해 자율주행 차량의 예측 알고리즘에 따른 차량 반응에 대한 연구가 수행되었으며 (Liao et al. 2023), Light Detection And Ranging (LiDAR) 센서 모델링을 통해 동적 교통 객체에 대한 자율주행 차량의 인지, 판단, 제어 알고리즘을 디지털 트윈을 활용해 검증하기위한 연구가 수행되었다 (Yu et al. 2022). 그러나 디지털 트윈 환경에서 자율주행 차량의 제어를 포함한 시험은 시뮬레이터의 차량 모델링 오차로 인해 시험 결과를 신뢰하기 어려우며, 차량 모델링 오차로 인한 누적 위치오차가 발생한다 (Chen & Ulsoy 2006).
누적 위치오차는 특히 위험 상황에서 차량의 급격한 조작이 필요한 상황에 크게 발생해 위험 상황을 안전하고 효율적으로 검증할 수 있는 디지털 트윈의 장점을 크게 희석시킨다.
본 논문은 디지털 트윈기반 혼합현실 시험에서 차량의 위치와 방향 변화가 큰 경우 드라이빙 시뮬레이터의 누적 위치 오차로 발생하는 현실과의 차이 (simulation to real gap)를 해결하는 것을 목적으로 한다. 이를 위해 본 논문은 실제 위성 항법 센서를 통해 얻은 위치 및 자세각 정보를 활용한 디지털 트윈 개념 적용으로 시뮬레이터의 차량과 실제 차량을 동기화해 시뮬레이터가 실제 차량의 운동 역학을 반영하도록 주기적으로 재구성한다. 현실의 위치에 기반한 재구성을 통해 시뮬레이터 내 차량은 누적 위치 오차를 갖지 않고 시험 수행을 가능케 한다. 이 방법은 특히 객체와의 상호작용이 필요한 시험에 효과적이다. 자율주행 차량이 객체와 상호작용하는 시험은 위치 오차가 시험 결과에 크게 좌우한다. 특히 충돌 및 회피에 관련한 시험의 경우 시뮬레이터의 누적 위치오차가 발생할 경우 현실의 위치와 큰 차이가 발생해 시뮬레이터 내 수행된 매개변수 조정이 신뢰성을 잃게 된다.
본 논문의 시험 프로토콜은 혼합현실 환경에서 실제 차량의 동적 특성을 포함한 결과를 시험하기 위해 동적 특성을 크게 부각시킬 수 있는 급 정지 프로토콜인 Euro-NCAP의 Autonomous Emergency Braking (AEB) 프로토콜을 따른다. 특히 Vulnerable Road User 프로토콜 하의 Car-to-Pedestrian Far Side Adult 실험을 수행한다. 이 프로토콜은 Euro-NCAP Pedestrian Target (EPT)이라 불리는 엄격한 규격의 보행자 실험 더미 사용을 요구한다. 해당 더미를 직접 현실에서 구현하는 것은 비용 및 시간적 노력이 소요되지만, 시뮬레이터를 활용한 디지털 트윈 환경은 쉽게 적용하고 시뮬레이션 할 수 있다 (Kamalasanan et al. 2022).
이 논문의 구성은 다음과 같다. 2장에서는 혼합현실 기반 디지털 트윈 시스템 아키텍처를 설명한다. 3장은 이 논문에 활용한 디지털 트윈, 시험 프로토콜, 항법 센서 기반의 가상 차량 위치 초기화 등 혼합현실 구현을 위한 방법론들을 설명한다. 4장은 실험 결과 및 비교 분석을 제시하고, 마지막으로 5장은 이 논문의 결론이다.
2. SYSTEM ARCHITECTURE
Fig. 1은 본 논문에서 제안하는 혼합현실 환경 아키텍처를 나타낸다. 전체 시스템 아키텍처는 시뮬레이터부와 실제 차량부로 나누어진다. 데이터 통신 측면에서 드라이빙 시뮬레이터는 시뮬레이터 내에서 모사한 센서 데이터를 실제 차량 자율 주행 제어기로 전송한다. 이 가상 센서 데이터는 시뮬레이션 내 센서 사양과 차량의 종류 및 시험 검증 시나리오를 기반으로 생성된다. 데이터는 필요에 따라 이더넷 프로토콜을 통해 실제 차량부로 전송되며, 각 센서 데이터의 주기를 맞추기 위한 시간 관리 모듈이 드라이빙 시뮬레이터의 timestamp 기준으로 설계되어 모사된 센서 데이터의 송신을 통제한다. 실제 차량부는 자율주행 시스템 수신 데이터에 대한 관리를 포함하며, Global Navigation Satellite System (GNSS) 수신기 및 Inertial Navigation System (INS)를 포함하는 실제 차량에 장착된 항법 장치를 통해 얻은 차량의 위치 및 자세각 정보를 역으로 시뮬레이터부로 송신한다. 즉, 차량의 항법센서가 송신하는 거동 정보는 차량의 동역학적 특성을 포함한 자율주행 시스템의 제어 결과이므로, 이 정보를 드라이빙 시뮬레이터로 주기적으로 역전송한다. 이를 통해 가상 환경 드라이빙 시뮬레이터의 모사 차량은 실제 환경에서 동작하는 실제 차량의 위치 및 방향과 동기화 되며, 실제 차량은 드라이빙 시뮬레이터가 제공하는 가상 환경 하의 각종 센서 데이터를 자율 주행 제어기에서 이용한다. 이 때, 가상 환경 하에서 복잡하고 다양한 주행 시나리오를 적용할 수 있으며, 이에 반응한 센서 데이터를 실제 차량은 이용하게 된다. 혼합현실 환경 구성에 특히 시뮬레이터의 장점을 극대화하기 위해 매체 간 데이터 전송 속도 및 지연 시간의 확인이 중요하다. 이러한 요소들은 실제 환경과 시뮬레이션 환경 간의 원활한 상호작용을 보장하는 데 필수적이다. 특히 자율주행에 활용하는 센서의 경우 그 종류에 따라 전송하는 데이터의 양과 지연율이 상이하다. 원활한 자율주행 제어기의 동작을 위해서는 센서 데이터의 실시간 처리 및 통합이 필수적이다.
Fig. 1. System architecture of the proposed mixed-reality methodology.
본 논문에서는 혼합현실 환경의 시뮬레이터 센서 통합을 위해 자율주행을 위한 여러 센서의 전송 속도를 분석하였다. LiDAR 센서는 3D 공간 정보를 대량으로 생성하여 높은 용량의 데이터를 전송한다. 시뮬레이터에 모델링 된 16채널 LiDAR 센서는 평균 904 kb의 패킷 데이터를 약 1.378 ms에 혼합현실 환경으로 전송하였고, 32채널 LiDAR는 평균 1810 kb의 패킷 데이터를 약 0.682 ms에 수신됨을 확인하였다. 반면, GNSS 및 INS는 LiDAR 센서에 비해 상대적으로 적은 양의 데이터를 전송한다. GNSS는 약 7.21 kb 패킷 데이터를 5.344 ms에 전송하며, INS는 더 높은 전송 주기를 가져 5.43 kb 패킷 데이터를 9.994 ms에 전송함을 확인하였으며, 이를 Table 1에 나타내었다. 센서 데이터 전송 속도의 차이는 자율주행 제어기의 성능에 영향을 미치며, 특히 실시간 데이터 처리와 관련된 의사결정에 중요한 요소로 작용한다. 이를 통해 사용자는 목적하는 시험에 필요한 특정 센서에 대한 혼합현실 환경의 통합을 효율적으로 수행할 수 있다. 특히 센서 데이터의 전송 속도와 용량의 관계는 실시간 데이터 처리를 위한 시스템 아키텍처 설계에 중요한 역할을 한다.
Table 1. Transmission speed and capacity of driving simulator sensors.
Sensor | Data volume per packet (kb) | Transmission speed (ms) |
LiDAR (16ch) LiDAR (32ch) GPS INS |
904 1810 7.21 5.43 |
1.378 0.682 5.344 9.994 |
3. METHODOGY
3.1 Test Vehicle and Equipment
시험 차량으로는 현대자동차의 상용차량 IONIQ5를 사용한다. 차량 제원은 Table 2와 같다. 차량과 그 하위 제어기인 브레이크, 엑셀, 스티어링 휠은 별도의 동작을 위한 엑추에이터를 장착하지 않고 controller area network 통신 방식을 사용한 직접제어를 수행한다.
Table 2. IONIQ5 specifications.
Parameter | Value |
Overall length Overall width Overall height Wheelbase Curb weight Front tire Rear tire |
4,635 mm 1,890 mm 1,605 mm 3,000 mm 2,015 kg 235 mm, 19 inch 235 mm, 55, 19 inch |
차량과 자율주행에 필요한 센서 구성인 LiDAR, 카메라, GNSS의 구성과 장착 위치는 Fig. 2와 같다. 전방 카메라 및 LiDAR, 루프 GNSS 안테나 구성을 채택했다. 객체 인지 및 차량의 위치 추정 보정을 위해 128채널 Ouster OS2 장거리 LiDAR를 사용하였으며, LiDAR 센서 상세 제원은 Table 3과 같다. 추가적으로 전방 카메라를 설치해 객체 인지 성능을 강화했다. 시뮬레이터로 정밀한 위치 및 방향 제공을 위해 듀얼 안테나 구성의 INS와 GNSS를 결합한 항법 센서인 Novatel CPT7을 후방 차축 부근에 장착했다. 기기 상세 제원은 Table 4와 같으며, CPT7에서 출력된 위치 정보는 드라이빙 시뮬레이터로 전달되어 혼합현실 환경에서 실제 차량의 위치와 자세각 정보 반영을 통해 현실과 가상환경을 동기화한다. 실험을 위해 드라이빙 시뮬레이터의 차량의 좌표축은 실제 CPT7 장착 위치인 후방 차축 부근으로 transform 하였다.
Fig. 2. Experimental test vehicle and sensors for autonomous driving.
Table 3. Ouster OS2 128ch specifications.
Parameter | Value | |
Range | 80% Lambertian reflectivity, 2048 @ 10 Hz mode | 240 m @ >50% detection probability, 100 klx sunlight |
10% Lambertian reflectivity, 2048 @ 10 Hz mode | 100 m @ >50% detection probability, 100 klx sunlight | |
Range accuracy | ±3 cm for Lambertian targets, ±10 cm for retroreflectors | |
Resolution | Range resolution Vertical resolution Horizontal resolution |
0.3 cm 128 channel 512, 1024, 2048 configurable |
Precision | (10% Lambertian reflectivity, 2048 @ 10 Hz mode, 1 standard deviation) | 1 - 30 m: ± 2.5 cm 30 - 60 m: ± 4 cm >60 m: ± 8 cm |
Vertical field of view | 22.5° (+11.25° to -11.25°) | |
Horizontal field of view | 360° |
Table 4. CPT7 specifications.
Parameter | Value | |
Signal tracking | GPS L-Band (primary RF only) |
L1C/A, L1C, L2C, L2P, L5 Up to 5 channels |
Performance | Single point L1/L2 SBAS DGPS IMU raw data rate |
1.2 m 60 cm 40 cm 100 or 400 Hz |
Gyroscope performance Accelerometer performance |
Input rate (max) Range |
±325 °/S ±20 g |
3.2 Driving Simulator
본 논문에서 활용한 MORAI Sim은 그래픽 처리 기술의 발전으로 주변 환경을 사실적으로 구현하고 있으며, 해당 지역의 실제 GNSS 위치 정보가 시뮬레이터 내 좌표로 구성되어 있어 디지털 트윈 기반 혼합현실 실험에 특히 적합하다. MORAI 시뮬레이터는 자율주행 연구를 위해 LiDAR, 카메라, GPS, INS, 레이더 등 다양한 센서를 모사하는 기능을 내장하고 있으며, 연결성을 위해 Robot Operating System (ROS) (Zorov et al. 2014) 및 User Datagram Protocol (UDP) 등 다양한 통신 채널을 제공한다. 통신 채널 중 UDP를 활용해 센서 데이터를 시뮬레이터로 전송해 시뮬레이터와 실제 차량을 연동하며, ROS 통신을 활용해 시뮬레이터 객체 및 주변 환경 정보를 실제 차량에 전송한다. 특히 논문의 실험에 사용하는 프로토콜의 객체인 Euro-NCAP EPT를 시뮬레이션 할 수 있는 기능을 기본적으로 포함한다.
3.3 Mixed Reality and Co-Simulation
혼합현실 환경은 가상 환경인 시뮬레이터와 현실 환경 시험 방법의 장점만을 취해 구현한 환경이다. 드라이빙 시뮬레이터는 자율주행 차량의 시험을 안전하고, 시간 효율적으로 수행할 수 있는 장점이 있으나, 실제 차량을 이용한 시험 방법 대비 시뮬레이터의 환경, 차량, 노면, 날씨, 페달 지연 등 기구 모델링 오차로 인해 정확도가 떨어진다. 실제 시험 방법은 시험의 정확도 측면에서 가장 이상적이나 비용, 시간, 위험이 따르는 방법이다. 이에 비해 혼합현실 시험 방법의 경우 실제 위치에 기반한 주기적인 재구성을 통해 위치 오차를 보정해 객체와 상호작용을 수행하는 시험에 효과적이다. 두 매체간 통신을 위해 드라이빙 시뮬레이터와 실제 차량의 자율주행 제어기의 직접 직렬 연결 채널을 구성해 지속적인 통신을 통해 디지털 트윈에 필요한 정보를 교환하는 혼합현실 환경을 구성한다. 이를 통해 각 매체의 장점을 결합한 종합적인 자율주행 시험 검증이 가능케한다.
본 논문의 혼합현실 환경은 앞서 언급한 단점을 극복하고 각 매체의 장점을 혼합하는 실험환경을 구성하기 위해 현실과 디지털 트윈을 이루는 시뮬레이터와 연계 시험인 Co-simulation을 수행한다. Co-simulation은 단일 시뮬레이션 환경이 아닌 다른 환경과의 연계 시험을 통해 시뮬레이션 효율을 높이기 위한 방법이다. Co-simulation의 범주에는 이기종의 시뮬레이터를 동시 활용해 각 시뮬레이터의 특징을 활용하는 Simulation-to-Simulation Co-simulation 방법과 시뮬레이터와 현실의 연계 시험 방법인 Simulation-to-Real (Sim2Real) Co-simulation 방법이 존재한다. 혼합현실 환경의 경우 시뮬레이터와 현실의 연계 시험방법으로 Sim2Real Co-simulation 범주에 속하며, 현실 환경의 정보를 통해 양 방향의 정보를 혼합해 시뮬레이터 및 현실의 제약사항을 보완하는 방법을 활용한다.
3.4 Autonomous Emergency Braking Using Time to Collision
혼합현실 환경을 활용한 시뮬레이터의 누적오차 해소에 대한 명확한 시험결과를 도출하기 위해 본 연구에서는 차량 가속도 성분이 크게 변하는 AEB 시험을 수행한다 (Cicchino 2017). 특히 본 논문에서는 혼합현실 환경의 장점을 극대화하기 위해 가상의 객체를 활용한 AEB를 수행한다. 현실에서의 AEB 실험은 실제 객체를 사용함에 따라 충돌의 위험이 존재하며, 다중 객체를 통한 시험 환경 구성이 어렵지만, 혼합현실 환경에서는 이를 쉽게 구현하고 각 매체의 장점을 살려 실험을 수행할 수 있다. 또한 현실에서는 객체의 구현, 준비, 사용에 시간 및 노력이 많이 소요되지만 혼합현실 환경에서는 이를 쉽고 빠르게 구현한다. 가상 객체에 대한 AEB 알고리즘의 동작을 검증하기 위해, 식 (1)과 같이 Time To Collision (TTC) 알고리즘을 구현하여 시험 검증을 실시한다. 이 알고리즘은 드라이빙 시뮬레이터 내의 가상환경에서 회피해야 할 가상 장애물에 대한 정보를 수신하여 작동한다.
\({\rm TTC}=\frac{\sqrt{\left({\hat{x}}_{target}-x_{\mathrm{ego}}\right)^2+\left({\hat{y}}_{target}-y_{\mathrm{ego}}\right)^2}}{V_{\mathrm{ego}}}\) (1)
여기서 \(({\hat{x}}_{target}, {\hat{y}}_{target})\)은 추정된 목표 객체의 2차원 평면 좌표를, \((x_{\mathrm{ego}}, y_{\mathrm{ego}})\)는 측정된 자차의 좌표를, \(V_{\mathrm{ego}}\)는 자차의 현재 속도를 나타낸다.
4. EXPERIMENT
4.1 Experiment Between Simulator-Alone and Mixed Reality
실험은 드라이빙 시뮬레이터만을 사용해 시뮬레이션을 수행하고, 이후 동일한 실험 프로토콜로 혼합현실 환경에서 실험을 진행하였다. 두 환경에서 실험을 모두 수행한 후 실험 결과를 비교, 분석해 혼합현실 환경의 시뮬레이터 누적오차 해소에 대한 부분을 검증한다. 실험 환경은 Fig. 3과 같이 동일한 드라이빙 시뮬레이터와 디지털 트윈을 갖춘 자율주행 시험 환경에서 수행되었다. 환경은 자율주행 시험을 위한 필수적인 환경 요소인 신호등 위치, 정지선, 도로 구조물, 표지판 등이 현실 세계의 위치에 맞게 재현되어 있다. 또한 가상의 장애물을 통한 AEB 실험을 위해 드라이빙 시뮬레이터의 객체를 Ground Truth (GT) 형태로 실제 자율주행 제어기로 전송한다. 이때, 본 논문에서 활용한 MORAI Sim의 객체의 GT 정보는 패킷 당 약 5350 Byte의 데이터를 담고 있으며, 혼합현실 환경을 통한 가상환경에서 실제환경으로의 객체 GT 데이터 전송 속도는 평균 19.98 ms의 속도로 전송됨을 확인하였다.
Fig. 3. Digital Twin in K-CITY: (a) a real vehicle in real environment, and (b) a virtual vehicle in driving simulator with digital twin of (a).
4.2 Comparative Analysis Between Simulator-Only and Mixed Reality
두 환경에서 측정한 시험 결과는 데이터 세트 길이가 달라 시뮬레이터 데이터를 실제 데이터 시간 구간에 맞게 보간 하여 검증을 수행한다. 비교를 위해 Fig. 4와 같이 International Organization for Standardization (ISO) 8855-2011 (2011) 문서 기준의 X, Y, Z 차체 프레임의 가속도를 분석해 두 환경 간 차이를 확인한다.
Fig. 4. ISO 8855-2011 (2011) vehicle axis system: the x-axis pointing forward, the y-axis to the side, and the z-axis upward.
Fig. 5는 혼합현실 환경에서 가속도 구성 요소와 시뮬레이터 단독 동작 환경에서 X축 방향 가속도를 보여준다. 가속도 측면에서 실험 결과는 제동 시간 측면에서 큰 차이를 보인다. 제동 시작 직후에 발생하는 X 방향 가속도는 혼합현실 환경의 경우 제동 시간이 시뮬레이션 단독 동작 환경 결과의 약 절반 이하라는 것을 보여준다. 이는 최종적으로 제동 거리 차이를 나타내며 시뮬레이터에서 모사된 제동 모델이 실제 제동 제어기 및 동작방식과 다르다는 것을 의미한다. 이는 결과적으로 누적 위치 오차를 유발한다. 하지만 혼합현실 환경의 경우 실제 차량의 특성을 포함한 결과로 시뮬레이터 내부의 차량을 지속적으로 재구성하여 누적 위치오차를 제거할 수 있다.
Fig. 5. Comparison of acceleration data in the X direction between two environments (blue: mixed reality, red: simulator). The difference in braking time between the two environments is observed.
혼합현실 환경에서는 AEB 작동 후 Y, Z축 방향 가속도의 급격한 변화가 관찰된다. 이는 시뮬레이터의 단일 동작 환경에서 나타나는 정적인 결과와 상반된 경향을 보인다. 이러한 차이는 혼합현실 환경이 실제 차량의 동역학적 특징을 보다 정확하게 반영하기 때문이며, 특히 급제동 상황에서의 Antilock Braking System (ABS) 개입으로 인한 진동 동역학을 포함하고 있다. 혼합현실 환경에서 관찰된 Y축 방향 가속도 변화는 ABS의 영향을 받으며, 이로 인해 횡방향 진동과 진폭이 Fig. 6과 같이 AEB 작동 이후 크게 증가하는 것을 볼 수 있다. 또한 Pitch축의 양의 방향 피크로 차량의 nose-dive 현상을 단적으로 나타내며, 이후 이러한 진폭은 서서히 회복되는 양상을 나타내는데, 이는 ABS가 제동 중 휠의 잠김을 방지하여 안정적인 제동을 가능하게 하는 메커니즘에 기인한 것으로 판단된다. 반면, 시뮬레이터 단일 동작 환경에서는 이러한 차량 동역학적 특성이 반영되지 않으며, 이는 시스템이 실제 차량의 물리적 행동을 모델링하는 데 한계를 가지고 있음을 시사한다 (Gowal et al. 2010).
Fig. 6. Comparison of acceleration data in the Y direction between two environments. The lateral vibrations caused by the ABS are observed in the mixed-reality environment, in contrast to the simulation-only environment.
또한, 혼합현실 환경에서는 제동 시작 후 Z축 방향 가속도는 Fig. 7과 같이 피크 형태의 진동이 관찰되며, 이는 차량의 nose-dive 현상 및 ABS로 인한 차체의 Z축 방향 떨림을 나타낸다. 이 현상은 서스펜션 설계, 차량 무게 및 무게 분포, 휠 베이스, 프론트 오버행 등과 같은 복잡한 차량 동역학적 요소의 상호작용에 의해 발생한다. 이러한 요소들은 차량이 급제동 시 받는 하중 분포에 크게 영향을 미치며, 결과적으로 가속도 변화에 영향을 미친다. 그러나, 시뮬레이터 단독 동작 환경에서는 이러한 차량 동역학적 특성에 대한 적절한 모델링이 결여되거나 부정확하게 구현되어, 데이터 간에 유의미한 차이가 발생하게 된다. 이러한 차이는 누적되어 큰 위치 오차로 이어지며, 혼합현실 환경과 단일 시뮬레이터 단일 동작 환경 간의 차이를 더욱 두드러지게 한다.
Fig. 7. Comparison of acceleration data in the Z direction between two environments. The nose-dive phenomenon and vibration recovery of the vehicle are observed in the mixed-reality environment, in contrast to the simulation-only environment.
5. CONCLUSION
본 논문은 항법 센서를 활용한 혼합현실 환경을 통해 시뮬레이터의 누적 위치 오차를 극복한 자율주행 차량 시험 방법을 제시하였다. 이를 위해 드라이빙 시뮬레이터의 차량을 주기적으로 현실 차량의 위치와 동기화하는 디지털 트윈 개념을 적용하였다. 또한 시뮬레이터 내부의 객체를 실제 차량을 활용하는 시험에 사용해 안전성과 효율성을 강화한 시험 환경을 구성하였다.
실험 결과 동일한 시험 프로토콜을 사용한 드라이빙 시뮬레이터 단독 시험과 혼합현실 시험 방법의 ISO 8855-2011 기준 차체 프레임을 기준으로 각 방향 가속도 성분을 비교하였다. 실험을 통해 시뮬레이터 단독 동작 환경에서 발생하는 모델링 오차 문제를 명확히 확인하였다. 문제 해결을 위해 실제 항법 센서 데이터를 활용한 혼합현실 방법을 적용해 시뮬레이터의 차량 모델링 오차로 인한 누적 위치 오차를 해소할 수 있었다. 이를 통해 제안한 시험 방식이 시뮬레이터의 누적 위치오차 해소에 적합한 방법임을 확인하였으며, 연구 결과를 통해 효율적인 자율주행 차량의 검증을 위한 자료로 활용할 수 있을 것으로 기대된다.
ACKNOWLEDGMENTS
This work was supported by Korea Institute of Police Technology (KIPoT) grant funded by the Korea government (KNPA) (No. 092021D75000000, AI driving ability test standardization and evaluation process development).
AUTHOR CONTRIBUTIONS
Conceptualization, Y.-H. Lee, W.-J. Yang, H.-J. Hong, and J.-H. Won; methodology, Y.-H. Lee, W.-J. Yang, H.-J. Hong, and J.-H. Won; software, Y.-H. Lee and W.-J. Yang; validation, Y.-H. Lee, W.-J. Yang, H.-J. Hong, and J.-H. Won; formal analysis, Y.-H. Lee, W.-J. Yang, and J.-H. Won; investigation, Y.-H. Lee and H.-J. Hong; resources, J.-H. Won; data curation, Y.-H. Lee; writing—original draft preparation, Y.-H. Lee; writing—review and editing, J.-H. Won; visualization, Y.-H. Lee; supervision, J.-H. Won; project administration, J.-H. Won; funding acquisition, J.-H. Won.
CONFLICTS OF INTEREST
The authors declare no conflict of interest.
참고문헌
- Chen, K. 2023, A Review of The Application of V TD Simulation Software in Intelligent Driving, Academic Journal of Science and Technology, 8, 70-73. https://doi.org/10.54097/ajst.v8i2.14949
- Chen, L.-K. & Ulsoy, A. G. 2006, Experimental evaluation of a vehicle steering assist controller using a driving simulator, Vehicle System Dynamics, 44, 223-245. https://doi.org/10.1080/00423110500268350
- Cicchino, J. B. 2017, Effectiveness of forward collision warning and autonomous emergency braking systems in reducing front-to-rear crash rates, Accident Analysis & Prevention, 99, 142-152. https://doi.org/10.1016/j.aap.2016.11.009
- Envisioning the future of mobility [internet], cited 2024 Sep 30, available from: https://www.morai.ai
- Gowal, S., Zhang, Y., & Martinoli, A. 2010, A realistic simulator for the design and evaluation of intelligent vehicles, In 13th International IEEE Conference on Intelligent Transportation Systems, 19-22 September 2010, Madeira Island, Portugal, pp.1039-1044. https://doi.org/10.1109/ITSC.2010.5625010
- Huang, W., Wang, K., Lv, Y., & Zhu, F. 2016, Autonomous vehicles testing methods review, In 2016 IEEE 19th International Conference on Intelligent Transportation Systems (ITS C), 01-04 November 2016, Rio de Janeiro, Brazil, pp.163-168. https://doi.org/10.1109/ITSC.2016.7795548
- ISO 8855:2011, Road vehicles 2011, Vehicle dynamics and road-holding ability, Vocabulary 3rd Edition, International Organization for Standardization.
- Kamalasanan, V., Mukbil, A., Sester, M., & Muller, J. P. 2022, Mixed reality agent-based framework for pedestrian-cyclist interaction, In 2022 IEEE International Symposium on Mixed and Augmented Reality Adjunct (ISMAR-Adjunct), 17-21 October 2022, Singapore, Singapore, pp.363-368. https://doi.org/10.1109/ISMAR-Adjunct57072.2022.00079
- Liao, X., Zhao, X., Wang, Z., Zhao, Z., Han, K., et al. 2023, Driver digital twin for online prediction of personalized lane-change behavior, IEEE Internet of Things Journal, 10, 13235-13246. https://doi.org/10.1109/JIOT.2023.3262484
- Niaz, A., Shoukat, M. U., Jia, Y., Khan, S., Niaz, F., et al. 2021, Autonomous driving test method based on digital twin: A survey, In 2021 International Conference on Computing, Electronic and Electrical Engineering (ICE Cube), 26-27 October 2021, Quetta, Pakistan, pp.1-7. https://doi.org/10.1109/ICECube53880.2021.9628341
- Schiegg, F. A., Krost, J., Jesenski, S., & Frye, J. 2019, A novel simulation framework for the design and testing of advanced driver assistance systems, In 2019 IEEE 90th Vehicular Technology Conference (VTC2019-Fall), 22-25 September 2019, Honolulu, Hawaii, USA, pp.1-6. https://doi.org/10.1109/VTCFall.2019.8891221
- Sievers, G., Seiger, C., Peperhowe, M., Krumm, H., Graf, S., et al. 2018, Driving simulation technologies for sensor simulation in sil and hil environments, In Proceedings of the DSC, 5 September 2018, Antibes, France, pp.127-130.
- Yu, B., Chen, C., Tang, J., Liu, S., & Gaudiot, J. L. 2022, Autonomous vehicles digital twin: A practical paradigm for autonomous driving system development, Computer, 55, 26-34. https://doi.org/10.1109/MC.2022.3159500
- Zorov, D. B., Juhaszova, M., & Sollott, S. J. 2014, Mitochondrial reactive oxygen species (ROS) and ROS-induced ROS release, Physiological reviews, 94, 909-950. https://doi.org/10.1152/physrev.00026.2013