• Title/Summary/Keyword: 실시간 시선추적

Search Result 48, Processing Time 0.027 seconds

A Design of Gaze Tracker based on Smart Mobile Device (스마트 이동단말 기반 시선 추적기 설계)

  • Ko, Ginam;Moon, Nammee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1455-1456
    • /
    • 2013
  • 최근 스마트 이동단말에 장착된 영상 센서를 통해 획득한 영상에서 실시간으로 사용자의 눈을 인식하거나 시선을 추적하여 콘텐츠 제어, 행태 분석 등을 수행하는 기술에 대한 필요성이 증가하고 있다. 기존의 영상 분석 기반 시선 추적 기술은 고가의 시선 추적기를 기반으로 하며, 추적한 시선 좌표를 통해 실제 응시객체를 분석하는 사후 작업이 필요하다. 이에, 본 논문에서는 OpenCV를 기반으로 스마트 이동단말의 전면에 장착된 영상 센서에서 사용자의 눈을 인식하고, 시선을 추적한 후, 이를 실시간으로 시선 좌표와 화면의 콘텐츠 내 객체 영역을 매칭함으로써, 응시객체를 분석하는 스마트 이동단말 기반 시선 추적기를 설계하였다. 본 논문의 시선 추적기는 시선 추적을 수행하기 위해, 사용자에게 5개의 화면 교정점을 제공하고 응시하도록 하여 시선 추적 범위를 측정한다. 또한, 스마트 이동단말에 내장된 자이로스코프 센서를 통해 기울기가 변경될 시, 이를 반영하여 시선 교정을 수행하도록 설계하였다.

Real Time Eye and Gaze Tracking (실시간 눈과 시선 위치 추적)

  • Cho, Hyun-Seob;Ryu, In-Ho;Kim, Hee-Sook
    • Proceedings of the KIEE Conference
    • /
    • 2005.07d
    • /
    • pp.2839-2842
    • /
    • 2005
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다. 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다. 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참여하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90% 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.

  • PDF

Real Time Eye and Gaze Tracking (실시간 눈과 시선 위치 추적)

  • Hwang, suen ki;Kim, Moon-Hwan;Cha, Sam;Cho, Eun-Seuk;Bae, Cheol-Soo
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.2 no.3
    • /
    • pp.61-69
    • /
    • 2009
  • In this paper, to propose a new approach to real-time eye tracking. Existing methods of tracking the user's attention to the little I move my head was not going to get bad results for each of the users needed to perform the calibration process. Infrared eye tracking methods proposed lighting and Generalized Regression Neural Networks (GRNN) By using the calibration process, the movement of the head is large, even without the reliable and accurate eye tracking, mapping function was to enable each of the calibration process by the generalization can be omitted, did not participate in the study eye other users tracking was possible. Experimental results of facial movements that an average 90% of cases, other users on average 85% of the eye tracking results were shown.

  • PDF

Real Time Eye and Gaze Tracking (실시간 눈과 시선 위치 추적)

  • Cho, Hyeon-Seob;Kim, Hee-Sook
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.6 no.2
    • /
    • pp.195-201
    • /
    • 2005
  • This paper describes preliminary results we have obtained in developing a computer vision system based on active IR illumination for real time gaze tracking for interactive graphic display. Unlike most of the existing gaze tracking techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze tracker can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using the Generalized Regression Neural Networks (GRNN). With GRNN, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Furthermore, the mapping function can generalize to other individuals not used in the training. The effectiveness of our gaze tracker is demonstrated by preliminary experiments that involve gaze-contingent interactive graphic display.

  • PDF

Real Time Eye and Gaze Tracking (실시간 눈과 시선 위치 추적)

  • 이영식;배철수
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.8 no.2
    • /
    • pp.477-483
    • /
    • 2004
  • This paper describes preliminary results we have obtained in developing a computer vision system based on active IR illumination for real time gaze tracking for interactive graphic display. Unlike most of the existing gaze tracking techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person our gaze tracker can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using the Generalized Regression Neural Networks(GRNN). With GRNN, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Futhermore, the mapping function can generalize to other individuals not used in the training. The effectiveness of our gaze tracker is demonstrated by preliminary experiments that involve gaze-contingent interactive graphic display.

Gaze Detection System using Real-time Active Vision Camera (실시간 능동 비전 카메라를 이용한 시선 위치 추적 시스템)

  • 박강령
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.12
    • /
    • pp.1228-1238
    • /
    • 2003
  • This paper presents a new and practical method based on computer vision for detecting the monitor position where the user is looking. In general, the user tends to move both his face and eyes in order to gaze at certain monitor position. Previous researches use only one wide view camera, which can capture a whole user's face. In such a case, the image resolution is too low and the fine movements of user's eye cannot be exactly detected. So, we implement the gaze detection system with dual camera systems(a wide and a narrow view camera). In order to locate the user's eye position accurately, the narrow view camera has the functionalities of auto focusing and auto panning/tilting based on the detected 3D facial feature positions from the wide view camera. In addition, we use dual R-LED illuminators in order to detect facial features and especially eye features. As experimental results, we can implement the real-time gaze detection system and the gaze position accuracy between the computed positions and the real ones is about 3.44 cm of RMS error.

Design for User Centered Service System using Eye Tracking (시선 추적을 통한 맞춤형 서비스 제공 시스템 설계)

  • Kim, Ji-eun;Song, Hye-jin;Moon, Nammee;Hong, Sangjin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.1518-1519
    • /
    • 2015
  • 오늘날 우리는 소비자 중심시대에 살고 있다. 이로 인해 소비자에게 맞춤형 서비스를 제공하는 연구 사례가 증가하고 있다. 본 논문에서는 멀티미디어 콘텐츠를 시청하는 사용자의 시선 추적을 통해 사용자마다 알맞은 서비스를 제공해주는 시스템을 제안하고자 한다. 이와 같은 시스템을 위해서는 멀티미디어 콘텐츠를 객체로 나누고 실시간 모니터링을 통해 사용자의 시선을 추적해야 한다. 시선 추적을 통해 사용자의 관심영역을 파악하고 사용자마다 맞춤형 서비스를 제공하는 시스템을 목표로 하며 향후에 이 시스템은 더욱 효과적으로 사용자의 욕구를 충족시켜 줄 수 있을 것이라고 기대한다.

A Study on Test method for Web-Cam based Eye Tracking Algorithm (웹캠 기반 시선 추적 알고리즘 테스트 방안에 대한 연구)

  • Kim, Hoe-Min;Chun, Sungkuk;Kim, Un-Yong;Yun, Jeongrok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.275-276
    • /
    • 2022
  • 본 연구는 웹캠을 기반으로한 시선 추적 알고리즘에 대한 성능을 실시간으로 분석함과 동시에 그 결과를 직관적으로 비교해볼 수 있는 프로그램 개발에 대한 것이다. 시선 추적을 위한 훌륭한 알고리즘들과 학습 모델이 개발되고 있으나 개발 대상 어플리케이션에 적합한 알고리즘을 선별하거나 파라미터를 최적화하기 위해서는 알고리즘의 성능을 빠르고 효과적으로 가늠해볼 수 있는 테스트베드 개발이 동반되어야한다. 따라서 본 연구는 웹캠을 기반으로 시선 추적 알고리즘을 구현한 사례와 함께 개발된 알고리즘의 성능을 테스트해볼 수 있는 프로그램 개발에 대한 내용을 기술하였다.

Real-time pupil center detection for gaze tracking (시선추적을 위한 실시간 동공 중심 검출)

  • Lee, Gyung-Ju;Kim, Gye-Young
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2014.01a
    • /
    • pp.59-61
    • /
    • 2014
  • 본 논문에서는 단일의 카메라로부터 획득한 영상에 있는 동공 중심을 실시간으로 검출하는 알고리즘을 제안한다. 제안하는 방법은 원에서 현의 수직이등분선은 그 원의 중심을 지난다는 사실을 이용하여 동공의 현을 찾고 동공 중심을 계산하는 것이다. 먼저 VPF(Variance Projection Function)을 이용해 일차적으로 동공 중심을 탐지한다. 탐지된 중심점을 기준으로 원을 탐색하여 정확한 동공 중심점을 찾는다. 실험을 통하여 제안한 방법은 높은 검출율과 처리시간 관점에서 우수함을 보인다.

  • PDF

Technology Development for Non-Contact Interface of Multi-Region Classifier based on Context-Aware (상황 인식 기반 다중 영역 분류기 비접촉 인터페이스기술 개발)

  • Jin, Songguo;Rhee, Phill-Kyu
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.20 no.6
    • /
    • pp.175-182
    • /
    • 2020
  • The non-contact eye tracking is a nonintrusive human-computer interface providing hands-free communications for people with severe disabilities. Recently. it is expected to do an important role in non-contact systems due to the recent coronavirus COVID-19, etc. This paper proposes a novel approach for an eye mouse using an eye tracking method based on a context-aware based AdaBoost multi-region classifier and ASSL algorithm. The conventional AdaBoost algorithm, however, cannot provide sufficiently reliable performance in face tracking for eye cursor pointing estimation, because it cannot take advantage of the spatial context relations among facial features. Therefore, we propose the eye-region context based AdaBoost multiple classifier for the efficient non-contact gaze tracking and mouse implementation. The proposed method detects, tracks, and aggregates various eye features to evaluate the gaze and adjusts active and semi-supervised learning based on the on-screen cursor. The proposed system has been successfully employed in eye location, and it can also be used to detect and track eye features. This system controls the computer cursor along the user's gaze and it was postprocessing by applying Gaussian modeling to prevent shaking during the real-time tracking using Kalman filter. In this system, target objects were randomly generated and the eye tracking performance was analyzed according to the Fits law in real time. It is expected that the utilization of non-contact interfaces.