Estimation of a Gaze Point in 3D Coordinates using Human Head Pose

휴먼 헤드포즈 정보를 이용한 3차원 공간 내 응시점 추정

  • Published : 2021.10.03

Abstract

This paper proposes a method of estimating location of a target point at which an interactive robot gazes in an indoor space. RGB images are extracted from low-cost web-cams, user head pose is obtained from the face detection (Openface) module, and geometric configurations are applied to estimate the user's gaze direction in the 3D space. The coordinates of the target point at which the user stares are finally measured through the correlation between the estimated gaze direction and the plane on the table plane.

본 논문은 실내 공간에서 상호작용 로봇이 사용자의 시선이 응시하는 목표지점의 위치정보를 추정하는 방법을 제안한다. 저가의 웹캠으로부터 RGB 영상을 추출하고, 얼굴검출(Openface)모듈로부터 사용자의 헤드포즈 정보를 획득한 후 기하학적 연산을 적용하여 3차원 공간 내 사용자의 응시방향을 추정하게 된다. 추정된 응시방향과 테이블 상의 평면과의 상관관계를 통하여 최종적으로 사용자가 응시하는 목표 지점의 좌표를 추정하게 된다.

Keywords

Acknowledgement

본 연구는 2021년도 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임(No. NRF- 2021R1F1A1063669).