Multifaceted Evaluation Methodology for AI Interview Candidates - Integration of Facial Recognition, Voice Analysis, and Natural Language Processing

AI면접 대상자에 대한 다면적 평가방법론 -얼굴인식, 음성분석, 자연어처리 영역의 융합

  • Hyunwook Ji (Seoul Software Academy, Keumcheon 3th AI Convergence Service Developemnt Program) ;
  • Sangjin Lee (Seoul Software Academy, Keumcheon 3th AI Convergence Service Developemnt Program) ;
  • Seongmin Mun (Seoul Software Academy, Keumcheon 3th AI Convergence Service Developemnt Program) ;
  • Jaeyeol Lee (Seoul Software Academy, Keumcheon 3th AI Convergence Service Developemnt Program) ;
  • Dongeun Lee (Seoul Software Academy, Keumcheon 3th AI Convergence Service Developemnt Program) ;
  • kyusang Lim (Seoul Software Academy, Keumcheon 3th AI Convergence Service Developemnt Program)
  • 지현욱 (청년취업사관학교 새싹 금천3기 AI융합서비스 개발자양성과정) ;
  • 이상진 (청년취업사관학교 새싹 금천3기 AI융합서비스 개발자양성과정) ;
  • 문성민 (청년취업사관학교 새싹 금천3기 AI융합서비스 개발자양성과정) ;
  • 이재열 (청년취업사관학교 새싹 금천3기 AI융합서비스 개발자양성과정) ;
  • 이동은 (청년취업사관학교 새싹 금천3기 AI융합서비스 개발자양성과정) ;
  • 임규상 (청년취업사관학교 새싹 금천3기 AI융합서비스 개발자양성과정)
  • Published : 2024.01.17

Abstract

최근 각 기업의 AI 면접시스템 도입이 증가하고 있으며, AI 면접에 대한 실효성 논란 또한 많은 상황이다. 본 논문에서는 AI 면접 과정에서 지원자를 평가하는 방식을 시각, 음성, 자연어처리 3영역에서 구현함으로써, 면접 지원자를 다방면으로 분석 방법론의 적절성에 대해 평가하고자 한다. 첫째, 시각적 측면에서, 면접 지원자의 감정을 인식하기 위해, 합성곱 신경망(CNN) 기법을 활용해, 지원자 얼굴에서 6가지 감정을 인식했으며, 지원자가 카메라를 응시하고 있는지를 시계열로 도출하였다. 이를 통해 지원자가 면접에 임하는 태도와 특히 얼굴에서 드러나는 감정을 분석하는 데 주력했다. 둘째, 시각적 효과만으로 면접자의 태도를 파악하는 데 한계가 있기 때문에, 지원자 음성을 주파수로 환산해 특성을 추출하고, Bidirectional LSTM을 활용해 훈련해 지원자 음성에 따른 6가지 감정을 추출했다. 셋째, 지원자의 발언 내용과 관련해 맥락적 의미를 파악해 지원자의 상태를 파악하기 위해, 음성을 STT(Speech-to-Text) 기법을 이용하여 텍스트로 변환하고, 사용 단어의 빈도를 분석하여 지원자의 언어 습관을 파악했다. 이와 함께, 지원자의 발언 내용에 대한 감정 분석을 위해 KoBERT 모델을 적용했으며, 지원자의 성격, 태도, 직무에 대한 이해도를 파악하기 위해 객관적인 평가지표를 제작하여 적용했다. 논문의 분석 결과 AI 면접의 다면적 평가시스템의 적절성과 관련해, 시각화 부분에서는 상당 부분 정확도가 객관적으로 입증되었다고 판단된다. 음성에서 감정분석 분야는 면접자가 제한된 시간에 모든 유형의 감정을 드러내지 않고, 또 유사한 톤의 말이 진행되다 보니 특정 감정을 나타내는 주파수가 다소 집중되는 현상이 나타났다. 마지막으로 자연어처리 영역은 면접자의 발언에서 나오는 말투, 특정 단어의 빈도수를 넘어, 전체적인 맥락과 느낌을 이해할 수 있는 자연어처리 분석모델의 필요성이 더욱 커졌음을 판단했다.

Keywords

References

  1. In-kyu Choi, Ha-eun Ahn, Jisang Yoo. (2018). Facial Expression Classification Using Deep Convolutional Neural Network. Journal of Electrical Engineering & Technology, 13(1), 485-492.
  2. Ketan Sarvakar a, R. Senkamalavalli b, S. Raghavendra c, J. Santosh Kumar d, R. Manjunath e, Sushma Jaiswal f, Facial emotion recognition using convolutional neural networks, 2023
  3. Soowon Park, & Tae-Young Choe. Specific sentiment analysis and sentiment trend analysis through natural language processing and machine learning. 2022
  4. Min-A Lee1 ; Yeon-Ji Park2 ; Jun-Yeong Na1 ; Chae-Bong Sohn3, Implementation of Review Sentiment Analysis Application Using KoBERT, KoGPT-2, and KoBART Optimized Hyperparameters, 2023
  5. MJ Lim, P Kim, JH Shin, Sentiment Analysis Model with Semantic Topic Classification of Reviews, 2020
  6. Alec Radford, Robust Speech Recognition via Large-Scale Weak Supervision, 2020
  7. A-Hyeon Jo1, Keun-Chang Kwak2,"A Trend Analysis on Emotional Recognition Technology Using Speech Signals" The 2020 Annual Academic Conference
  8. Choi Eun Bin, Kim Soo-Hyung,"Deep Learning-Based Emotion Recognition using Speech Features"
  9. SangHyeuk Yoon, Dayun Jeon, Neungsoo Park,"Speech emotion recognition based on CNN - LSTM Model",ACK 2021 Academic Conference Proceedings (Volume 28, Issue 2)