DOI QR코드

DOI QR Code

딥러닝 기반 달 표면 모사 환경 실시간 객체 인식 및 매칭 시스템 개발

Development of System for Real-Time Object Recognition and Matching using Deep Learning at Simulated Lunar Surface Environment

  • 나종호 (한국건설기술연구원 미래스마트건설연구본부) ;
  • 공준호 (한국건설기술연구원 미래스마트건설연구본부) ;
  • 이수득 (SK에코플랜트 Eco Lab센터) ;
  • 신휴성 (한국건설기술연구원 미래스마트건설연구본부)
  • Jong-Ho Na (Department of Future & Smart Construction Research, Korea Institute of Civil Engineering and Building Technology) ;
  • Jun-Ho Gong (Department of Future & Smart Construction Research, Korea Institute of Civil Engineering and Building Technology) ;
  • Su-Deuk Lee (Eco Lab Center, SK Ecoplant) ;
  • Hyu-Soung Shin (Department of Future & Smart Construction Research, Korea Institute of Civil Engineering and Building Technology)
  • 투고 : 2023.08.16
  • 심사 : 2023.08.22
  • 발행 : 2023.08.31

초록

달 현지 탐사를 위해 무인 이동체에 대한 연구가 지속적으로 이루어져 있으며 달 지상 관심 지역의 정확한 위치 및 맵핑을 위한 실시간 정보화 작업이 요구되고 있다. 딥러닝 영상 처리 분석 기술을 실제 로버에 적용하기 위해 소프트웨어의 통합과 최적화에 대한 연구가 필요하며 본 연구에서는 가상의 달 기지 건설현장의 영상을 실시간 분석하여 핵심 객체의 공간 정보를 자동으로 수치화하는 방안에 대한 기초 연구가 진행되었다. 본 연구를 통해 이미 구축된 영역 분할 기반 객체 인식 알고리즘을 경계 상자 기반 객체 인식알고리즘으로 변경하여 객체 인식 정확도 및 추론 속도를 개선하는 작업이 이루어졌으며, 대용량 데이터 기반 객체 매칭 학습을 위해 Batch Hard Triplet Mining 기법을 도입하고, 학습 및 추론에 대한 최적화 연구가 수행되었다. 또한 개선된 객체 인식 및 동일 객체 매칭 소프트웨어를 통합하고, 입력 이미지 내 동일 객체 자동 매칭을 시각화하는 소프트웨어를 개발하였으며, 위성 모사 촬영 영상 내 객체를 학습 데이터로, 이동체 촬영 영상 내 객체를 추론 데이터로 사용하여 동일 객체 매칭의 학습 및 추론이 이루어졌다. 본 연구의 결과는 이동체의 연속 촬영 영상을 기반 3차원 공간 정보를 구현 및 관심 공간 내 객체 위치 설정에 활용할 수 있을 것으로 사료되며, 향후 달 기지 건설 현장에서의 영상 기반 시공 모니터링 및 제어를 위한 자동 현장 및 주요 대상물 공간 정보 구축 시스템과의 연계에 기여할 것으로 기대된다.

Continuous research efforts are being devoted to unmanned mobile platforms for lunar exploration. There is an ongoing demand for real-time information processing to accurately determine the positioning and mapping of areas of interest on the lunar surface. To apply deep learning processing and analysis techniques to practical rovers, research on software integration and optimization is imperative. In this study, a foundational investigation has been conducted on real-time analysis of virtual lunar base construction site images, aimed at automatically quantifying spatial information of key objects. This study involved transitioning from an existing region-based object recognition algorithm to a boundary box-based algorithm, thus enhancing object recognition accuracy and inference speed. To facilitate extensive data-based object matching training, the Batch Hard Triplet Mining technique was introduced, and research was conducted to optimize both training and inference processes. Furthermore, an improved software system for object recognition and identical object matching was integrated, accompanied by the development of visualization software for the automatic matching of identical objects within input images. Leveraging satellite simulative captured video data for training objects and moving object-captured video data for inference, training and inference for identical object matching were successfully executed. The outcomes of this research suggest the feasibility of implementing 3D spatial information based on continuous-capture video data of mobile platforms and utilizing it for positioning objects within regions of interest. As a result, these findings are expected to contribute to the integration of an automated on-site system for video-based construction monitoring and control of significant target objects within future lunar base construction sites.

키워드

참고문헌

  1. Bolya, D., Zhou, C., Xiao F., and Lee, Y.J., 2020, YOLACT++ Better Real-Time Instance Segmentation, IEEE Transactions on Pattern Analysis and Machine Intelligence, 44(2), 1108-1121. https://doi.org/10.1109/TPAMI.2020.3014297
  2. Choi, J., Chun, D., Kim, H., and Lee, H.J., 2019, Gaussian yolov3: An accurate and fast object detector using localization uncertainty for autonomous driving, Proceedings of the IEEE International Conference on Computer Vision, 502-511.
  3. Pacha, A., Jan, H.J., and Jorge, C.Z., 2018, A Baseline for General Music Object Detection with Deep Learning, Applied Sciences, 8(9), 1488.
  4. Redmon, J. and Farhadi, A., 2017, YOLO9000: better, faster, stronger, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 7263-7271.
  5. Redmon, J. and Farhadi, A., 2018, Yolov3: An incremental improvement, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 1804, 1-6.
  6. Redmon, J., Divvala, S., Girshick, R., and Farhadi, A., 2016, You only look once: Unified, real-time object detection, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 779-788.
  7. Ren, S., He, K., Girshick, R., and Sun, J., 2016, Faster r-cnn: Towards real-time object detection with region proposal networks, IEEE Transactions on Pattern Analysis and Machine Intelligence, 39, 1137-1149. https://doi.org/10.1109/TPAMI.2016.2577031
  8. Schroff, F., Dmitry, K., and Philbin, J., 2015, Facenet: A unified embedding for face recognition and clustering, Proceedings of the IEEE Conference On Computer Vision And Pattern Recognition, 815-823.
  9. Tan, M. and Quoc, V.L., 2019, Efficientnet: Rethinking model scaling for convolutional neural networks, International Conference on Machine Learning, 6105-6114.
  10. Wu, X., Sahoo, D., and Steven Hoi, C.H., 2020, Recent advances in deep learning for object detection, Neurocomputing, 396, 39-64. https://doi.org/10.1016/j.neucom.2020.01.085