• 제목/요약/키워드: Pupil Tracking

검색결과 70건 처리시간 0.02초

Real-Time Eye Detection and Tracking Under Various Light Conditions

  • Park Ho Sik;Nam Kee Hwan;Seol Jeung Bo;Cho Hyeon Seob;Ra Sang Dong;Bae Cheol Soo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 학술대회지
    • /
    • pp.862-866
    • /
    • 2004
  • Non-intrusive methods based on active remote IR illumination for eye tracking is important for many applications of vision-based man-machine interaction. One problem that has plagued those methods is their sensitivity to lighting condition change. This tends to significantly limit their scope of application. In this paper, we present a new real-time eye detection and tracking methodology that works under variable and realistic lighting conditions. Based on combining the bright-pupil effect resulted from IR light and the conventional appearance-based object recognition technique, our method can robustly track eyes when the pupils are not very bright due to significant external illumination interferences. The appearance model is incorporated in both eyes detection and tracking via the use of support vector machine and the mean shift tracking. Additional improvement is achieved from modifying the image acquisition apparatus including the illuminator and the camera.

  • PDF

영상정보를 이용한 HMD용 실시간 아이트랙커 시스템 (Development of Real-Time Vision-based Eye-tracker System for Head Mounted Display)

  • 노은정;홍진성;방효충
    • 한국항공우주학회지
    • /
    • 제35권6호
    • /
    • pp.539-547
    • /
    • 2007
  • 본 논문은 영상정보를 이용하여 사용자의 눈의 움직임을 통해 응시점을 추적하는 실시간 아이트랙커 시스템 개발에 대한 연구이다. 개발된 시스템은 광학기반의 동공추적 기법을 이용하여 사용자의 눈의 움직임을 추적한다. 광학기반의 방법은 사용자의 눈에 아무런 장애도 일으키지 않고 눈의 위치를 매우 정확하게 측정 할 수 있다는 장점을 가진다. 동공영상을 획득하기 위해 적외선 카메라를 사용하며, 획득한 영상으로부터 정확한 동공영역을 추출하기 위해 적외선 LED를 사용한다. 실시간 영상처리가 가능하게 하기위해 칼만필터를 적용한 동공추적 알고리즘을 개발하고 DSP(Digital Signal Processing) 시스템을 사용하여 동공영상을 획득한다. 실시간 아이트랙커 시스템을 통하여 실시간으로 사용자의 동공움직임을 추적하고 사용자가 바라보는 배경영상에 사용자의 응시점을 나타낸다.

Webcam-Based 2D Eye Gaze Estimation System By Means of Binary Deformable Eyeball Templates

  • Kim, Jin-Woo
    • Journal of information and communication convergence engineering
    • /
    • 제8권5호
    • /
    • pp.575-580
    • /
    • 2010
  • Eye gaze as a form of input was primarily developed for users who are unable to use usual interaction devices such as keyboard and the mouse; however, with the increasing accuracy in eye gaze detection with decreasing cost of development, it tends to be a practical interaction method for able-bodied users in soon future as well. This paper explores a low-cost, robust, rotation and illumination independent eye gaze system for gaze enhanced user interfaces. We introduce two brand-new algorithms for fast and sub-pixel precise pupil center detection and 2D Eye Gaze estimation by means of deformable template matching methodology. In this paper, we propose a new algorithm based on the deformable angular integral search algorithm based on minimum intensity value to localize eyeball (iris outer boundary) in gray scale eye region images. Basically, it finds the center of the pupil in order to use it in our second proposed algorithm which is about 2D eye gaze tracking. First, we detect the eye regions by means of Intel OpenCV AdaBoost Haar cascade classifiers and assign the approximate size of eyeball depending on the eye region size. Secondly, using DAISMI (Deformable Angular Integral Search by Minimum Intensity) algorithm, pupil center is detected. Then, by using the percentage of black pixels over eyeball circle area, we convert the image into binary (Black and white color) for being used in the next part: DTBGE (Deformable Template based 2D Gaze Estimation) algorithm. Finally, using DTBGE algorithm, initial pupil center coordinates are assigned and DTBGE creates new pupil center coordinates and estimates the final gaze directions and eyeball size. We have performed extensive experiments and achieved very encouraging results. Finally, we discuss the effectiveness of the proposed method through several experimental results.

공간의 초기 주시과정에 나타난 동공지표의 크기변화에 관한 연구 (Research on the Change in Index of Pupil in the Initial Observation on Large Space of Library)

  • 김종하
    • 감성과학
    • /
    • 제21권2호
    • /
    • pp.15-28
    • /
    • 2018
  • 본 연구는 대형공간을 대상으로 시선추적 실험을 실시하고, 성별에 나타난 동공의 주시특성을 분석하였다. 시선추적 실험 시간의 흐름에서 생겨나는 동공변화를 분석함으로써 성별 주시행태를 객관적이면서도 과학적으로 분석할 수 있는 틀을 제시했다. 나아가 동공의 크기가 안정적으로 변하는 시간과 성별에 따른 차이를 정리하였는데 성별에 따른 시지각 정보 획득 시간의 특성을 발견할 수 있었으며 여자가 남자보다 1~2초 정도 늦게 관심과 흥미요소를 시각정보로서 받아들이기 시작한 것을 알 수 있었다. 초기 "1초${\rightarrow}$2초"에서 남자는 도약, 여자는 고정에서 동공크기가 확대되었다. 또한 고정 주시에 국한하여 성별 변화율을 보면 9초를 전환점으로 해서 9초 이하 시간에서는 여자가, 9초 이후 시간에서는 남자의 동공크기가 더 커졌다. 즉 1-8초 시간에서는 여자가, 10-15초 범위에서는 남자가 상대적으로 더 큰 동공확대를 통해 시지각 정보를 획득한 것으로 보인다. 하지만 주시시간의 시간의 변화에 따라 여자의 동공크기가 더 크게 확대된 것에서부터 여자의 경우가 일정 시간이 경과한 후에는 관심이나 흥미가 있는 요소를 더 많이 주시하려는 움직임이 활발했다.

실시간 영상감시 시스템 개발 (A Development of Video Monitoring System on Real Time)

  • 조현섭
    • 한국산학기술학회논문지
    • /
    • 제8권2호
    • /
    • pp.240-244
    • /
    • 2007
  • 본 논문에서는 실시간으로 눈을 검출하고 추적하는 새로운 방법을 제안하고자 한다. 기존의 능동적 적외선을 이용한 눈 검출 및 추적 방법은 외부의 조명에 매우 민감하게 반응하는 문제점을 가지고 있으므로, 본 논문에서는 적외선 조명을 이용한 밝은 동공 효과와 전형적인 외형을 기반으로 한 사물 인식 기술을 결합하여 외부 조명의 간섭으로 밝은 동공 효과가 나타나지 않는 경우에도 견실하게 눈을 검출하고 추적 할 수 있는 방법을 제안한다. 눈 검출과 추적을 위해 SVM과 평균 이동 추적방법을 사용하였고, 적외선 조명과 카메라를 포함한 영상 획득 장치를 구성하여 제안된 방법이 효율적으로 다양한 조명하에서 눈 검출과 추적을 할 수 있음을 보여 주었다.

  • PDF

Real Time Eye and Gaze Tracking

  • Park Ho Sik;Nam Kee Hwan;Cho Hyeon Seob;Ra Sang Dong;Bae Cheol Soo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 학술대회지
    • /
    • pp.857-861
    • /
    • 2004
  • This paper describes preliminary results we have obtained in developing a computer vision system based on active IR illumination for real time gaze tracking for interactive graphic display. Unlike most of the existing gaze tracking techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze tracker can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using the Generalized Regression Neural Networks (GRNN). With GRNN, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Furthermore, the mapping function can generalize to other individuals not used in the training. The effectiveness of our gaze tracker is demonstrated by preliminary experiments that involve gaze-contingent interactive graphic display.

  • PDF

A STUDY ON PUPIL DETECTION AND TRACKING METHODS BASED ON IMAGE DATA ANALYSIS

  • CHOI, HANA;GIM, MINJUNG;YOON, SANGWON
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제25권4호
    • /
    • pp.327-336
    • /
    • 2021
  • In this paper, we will introduce the image processing methods for the remote pupillary light reflex measurement using the video taken by a general smartphone camera without a special device such as an infrared camera. We propose an algorithm for estimate the size of the pupil that changes with light using image data analysis without a learning process. In addition, we will introduce the results of visualizing the change in the pupil size by removing noise from the recorded data of the pupil size measured for each frame of the video. We expect that this study will contribute to the construction of an objective indicator for remote pupillary light reflex measurement in the situation where non-face-to-face communication has become common due to COVID-19 and the demand for remote diagnosis is increasing.

모바일 기기에서 눈동자 추적을 통한 원격 제어 (Remote Control through Tracking of Pupil on Mobile Device)

  • 김수선;강석훈;김선운
    • 한국산학기술학회논문지
    • /
    • 제13권4호
    • /
    • pp.1849-1856
    • /
    • 2012
  • 본 논문은 스마트폰을 이용해 눈동자 중심을 추적하여 눈동자의 움직임에 따른 명령으로 치환하고, 이 명령을 통해 인터페이스를 제어하는 방법에 대해 제안한다. 눈을 통해 원격 제어를 하는 이 방법은 신체적 장애가 있는 사람이나 보다 편리한 입력 방법을 원하는 사용자에게 도움을 줄 수 있다. 기존의 방법 중 대표적인 방법으로 웹캠을 이용하여 사용자의 눈동자를 추적하는 방식은 사용자 위치의 거리나 각도에 제약이 존재한다. 하지만, 본 논문에서 제안된 방법은 휴대가 편리한 스마트폰을 이용한다. 제안한 방법은 무선 네트워크를 이용하여 사용자가 위치에 제약받지 않고 눈동자 추적을 통한 원격 제어를 할 수 있다. 이러한 방법은 PC 제어뿐 만 아니라 원격 제어가 반드시 필요한 스마트 TV 제어에 효과적으로 활용될 수 있다.

동공 움직임, 각막 반사광 및 Kalman Filter 기반 시선 추적에 관한 연구 (A Study on Gaze Tracking Based on Pupil Movement, Corneal Specular Reflections and Kalman Filter)

  • 박강령;고유진;이의철
    • 정보처리학회논문지B
    • /
    • 제16B권3호
    • /
    • pp.203-214
    • /
    • 2009
  • 본 연구에서는 모니터, 카메라 및 눈동자 좌표계간의 복잡한 3차원 관계를 고려하지 않고, 동공의 중심 위치와 모니터의 구석에 설치된 적외선 조명에 의한 네 개의 조명 반사광 사이의 관계를 사용하여 2차원적인 변환 방법으로 사용자의 시선 위치를 파악한다. 동공중심과 조명 반사광을 정확하게 추출하고, 이를 통해 계산된 시선 위치 계산의 정확도에 영향을 줄 수 있는 오차 요소들을 보정하는 것이 본 연구의 목적이다. 이를 위하여, 동공 중심을 통해 계산된 시선위치와 실제 시선 축이 이루는 카파에러를 초기 1회의 사용자 캘리브레이션을 통해 보정하였다. 또한, 칼만 필터를 기반으로 눈의 급격한 움직임 변화에도 각막 조명 반사광을 안정적으로 추적하여 시선 위치를 정확하게 추적한다. 실험 결과, 제안한 연구방법의 시선 위치 추출 오차는 눈의 급격한 움직임 변화에 상관없이 약 1.0$^\circ$ 를 나타냈다.

Classification between Intentional and Natural Blinks in Infrared Vision Based Eye Tracking System

  • Kim, Song-Yi;Noh, Sue-Jin;Kim, Jin-Man;Whang, Min-Cheol;Lee, Eui-Chul
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.601-607
    • /
    • 2012
  • Objective: The aim of this study is to classify between intentional and natural blinks in vision based eye tracking system. Through implementing the classification method, we expect that the great eye tracking method will be designed which will perform well both navigation and selection interactions. Background: Currently, eye tracking is widely used in order to increase immersion and interest of user by supporting natural user interface. Even though conventional eye tracking system is well focused on navigation interaction by tracking pupil movement, there is no breakthrough selection interaction method. Method: To determine classification threshold between intentional and natural blinks, we performed experiment by capturing eye images including intentional and natural blinks from 12 subjects. By analyzing successive eye images, two features such as eye closed duration and pupil size variation after eye open were collected. Then, the classification threshold was determined by performing SVM(Support Vector Machine) training. Results: Experimental results showed that the average detection accuracy of intentional blinks was 97.4% in wearable eye tracking system environments. Also, the detecting accuracy in non-wearable camera environment was 92.9% on the basis of the above used SVM classifier. Conclusion: By combining two features using SVM, we could implement the accurate selection interaction method in vision based eye tracking system. Application: The results of this research might help to improve efficiency and usability of vision based eye tracking method by supporting reliable selection interaction scheme.