Acknowledgement
본 연구는 국토교통부/국토교통과학기술진흥원의 지원으로 수행되었음(과제번호 RS-2022-00142239).
Recently, the increasing number of overloaded vehicles on the road poses a risk to traffic safety, such as falling objects, road damage, and chain collisions due to the abnormal weight distribution, and can cause great damage once an accident occurs. However, this irregular weight distribution is not possible to be recognized with the current weight measurement system for vehicles on roads. To address this limitation, we propose to build an object detection-based AI model to identify overloaded vehicles that cause such social problems. In addition, we present a simple yet effective method to construct an object detection model for the large-scale vehicle images. In particular, we utilize the large-scale of vehicle image sets provided by open AI-Hub, which include the overloaded vehicles from the CCTV, black box, and hand-held camera point of view. We inspected the specific features of sizes of vehicles and types of image sources, and pre-processed these images to train a deep learning-based object detection model. Finally, we demonstrated that the detection performance of the overloaded vehicle was improved by about 23% compared to the one using raw data. From the result, we believe that public big data can be utilized more efficiently and applied to the development of an object detection-based overloaded vehicle detection model.
최근 증가하고 있는 도로 위 적재 불량 화물차는 비정상적인 무게 중심으로 인해 물체 낙하, 도로 파손, 연쇄 추돌 등 교통 안전에 위해가 되고 한번 사고가 발생하면 큰 피해가 유발할 수 있다. 하지만 이러한 비정상적인 무게 중심은 적재 불량 차량 인식을 위한 주행 중 축중 시스템으로는 검출이 불가능하다는 한계점이 있다. 본 논문에서는 이러한 사회 문제를 야기하는 적재 불량 차량을 관리하기 위한 객체 인식 기반 AI 모델을 구축하고자 한다. 또한 AI-Hub에 공개된 약 40만장의 대형차, 소형차, 중형차 별 적재 불량 차량과 일반차량으로 구분 된 데이터 셋 중 종류별로 제공되는 CCTV, 블랙박스, 카메라 시점의 적재 불량 차량 데이터 셋을 분석하여 전처리를 통해 적재 불량 차량 검지 AI 모델의 성능을 향상시키는 방법을 제시한다. 이를 통해, 원시 데이터를 활용한 학습 성능 대비 약 23% 향상된 적재 불량 차량의 검출 성능을 나타냄을 보였다. 본 연구 결과를 통해 공개 빅데이터를 보다 효율적으로 활용하여, 객체 인식 기반 적재 불량 차량 탐지 모델 개발에 적용할 수 있을 것으로 기대된다.
본 연구는 국토교통부/국토교통과학기술진흥원의 지원으로 수행되었음(과제번호 RS-2022-00142239).