DOI QR코드

DOI QR Code

Adaptive Zoom-based Gaze Tracking for Enhanced Accuracy and Precision

정확도 및 정밀도 향상을 위한 적응형 확대 기반의 시선 추적 기법

  • 송현주 (서울대학교 컴퓨터공학부) ;
  • 조재민 (서울대학교 컴퓨터공학부) ;
  • 김보형 (분당서울대학교병원 영상의학과) ;
  • 서진욱 (서울대학교 컴퓨터공학부)
  • Received : 2015.04.06
  • Accepted : 2015.06.16
  • Published : 2015.09.15

Abstract

The accuracy and precision of video-based remote gaze trackers is affected by numerous factors (e.g. the head movement of the participant). However, it is challenging to control all factors that have an influence, and doing so (e.g., using a chin-rest to control geometry) could lead to losing the benefit of using gaze trackers, i.e., the ecological validity of their unobtrusive nature. We propose an adaptive zoom-based gaze tracking technique, ZoomTrack that addresses this problem by improving the resolution of the gaze tracking results. Our approach magnifies a region-of-interest (ROI) and retrieves gaze points at a higher resolution under two different zooming modes: only when the gaze reaches the ROI (temporary) or whenever a participant stares at the stimuli (omnipresent). We compared these against the base case without magnification in a user study. The results are then used to summarize the advantages and limitations of our technique.

카메라 기반의 원격 시선 추적 방식은 기기의 특성상 사용자의 움직임 등의 요인에 의해 시선 추적의 정확성 측면에서 많은 영향을 받는다. 하지만 턱받침을 사용하여 사용자의 움직임을 제약하는 실험 환경은 시선 추적의 정확성을 높이는 대신 비침습적인 시선 추적 방식의 이점을 사라지게 한다. 이 논문에서는 비침습적인 추적 방식에서 나타날 수 있는 정확도의 저하를 극복하기 위하여 높은 정확도가 요구되는 관심 영역을 화면상에서 확대함으로써 해상력을 높이는 방안을 제시한다. 관심 영역의 확대는 두 종류의 조건(상시, 조건부)에 의해 이루어 졌으며, 이를 기존 시선 추적 방식과 비교했다. 또한 이렇게 비교한 결과를 바탕으로 적응형 확대 기법의 장점과 한계를 정리했다.

Keywords

Acknowledgement

Supported by : National Research Foundation of Korea (NRF)

References

  1. N. Adams, M. Witkowski, and R. Spence, "The inspection of very large images by eye-gaze control," Proc. of the working conference on Advanced Visual Interfaces 2008, pp. 111-118, 2008.
  2. M. Nystrom, R. Andersson, K. Holmqvist, and J. van de Wijer, "The influence of calibration method and eye physiology on eyetracking data quality," Behavior Research Methods, Vol. 45, No. 1, pp. 272-288, 2013. https://doi.org/10.3758/s13428-012-0247-4
  3. K. Holmqvist, M. Nystrom, R. Andersson, R. Dewhurst, H. Jarodzka, and J. van de Weijer, Eye tracking: A comprehensive guide to methods and measures, Oxford University Press, Oxford, 2011.
  4. D. Miniotas and O. Spakov, "An algorithm to counteract eye jitter in gaze-controlled interfaces," Information Technology and Control, Vol. 1, No. 30, pp. 65-58, 2004.
  5. M. Ashmore, A. T. Duchowski, and G. Shoemaker, "Efficient eye pointing with a fisheye lens," Proc. of Graphics Interface 2005, pp. 203-210, 2005.
  6. J. B. Pelz, R. Canosa, and J. Babcock, "Extended tasks elicit complex eye movement patterns," Proc. of the 2000 symposium on Eye Tracking Research and Applications, pp. 37-43, 2000.
  7. M. Kumar, A. Paepcke, and T. Winograd, "Eye-Point: Practical pointing and selection using gaze and keyboard," Proc. of the SIGCHI conference on Human Factors in Computing Systems, pp. 421-430, 2007.
  8. I. S. MacKenzie, and R. W. Soukoreff, "Phrase sets for evaluating text entry techniques," Proc. of CHI '03 Extended Abstracts on Human Factors in Computing Systems, pp. 754-755, 2003.