딥러닝 기반 추천 모델의 GPU-가속 학습 성능 측정

Performance Measurement of GPU-accelerated Training of a Deep Learning-based Recommendation Model

  • 전민기 (고려대학교 사이버국방학과) ;
  • 김순재 (고려대학교 정보보호대학원) ;
  • 이원준 (고려대학교 정보보호대학원)
  • Mingi Jeon (Dept. of Cyber Defense, Korea University) ;
  • Sunjae Kim (School of Cybersecurity, Korea University) ;
  • Wonjun Lee (School of Cybersecurity, Korea University)
  • 발행 : 2024.10.31

초록

본 연구는 딥러닝 기반 추천 모델 중 하나인 DLRM(Deep Learning Recommendation Model)의 학습 시간을 CPU 단일 환경과 GPU-가속 환경에서 비교한다. GPU를 사용하는 경우 일반적으로 더 빠른 학습이 기대되나, 배치 크기가 작아 GPU의 병렬 연산을 효율적으로 활용하지 못하는 경우 CPU만 사용하는 학습이 오히려 빠를 수도 있음을 실험을 통해 확인하였다. 학습 시간 외에 배치 크기는 자원 활용률에도 영향을 미치며, 이는 딥러닝 기반 모델의 학습과 추론에 도입 환경과 워크로드를 고려하여 실행 하드웨어를 선택할 필요가 있음을 시사한다.

키워드

과제정보

이 논문은 2024년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원(No. RS-2023-00234719, (SW스타랩) 서비스 연속형 지향 에지 Continuum SW 프레임워크)과 한국연구재단의 지원(No. RS-2024-00338786)을 받아 수행된 연구임.

참고문헌

  1. Udit Gupta et al, "DeepRecSys: A System for Optimizing End-To-End At-scale Neural Recommendation Inference," in Proc. of ISCA, May 2020.
  2. Maxim Naumov et al, "Deep Learning Recommendation Model for Personalization and Recommendation Systems," arXiv preprint arXiv:1906.00091, May 2019.
  3. Rishabh Jain et al, "Optimizing CPU Performance for Recommendation Systems At-Scale," in Proc. of ISCA, June 2023.