• 제목/요약/키워드: Pupil-tracking algorithm

검색결과 15건 처리시간 0.026초

수정 Starburst 알고리즘과 Homography Normalization을 이용한 시선추적 (Gaze Tracking Using a Modified Starburst Algorithm and Homography Normalization)

  • 조태훈;강현민
    • 한국정보통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.1162-1170
    • /
    • 2014
  • 본 논문에서는 두 개의 카메라를 이용하여 보다 정확한 동공 인식을 통한 원격방식의 시선 추적을 제안한다. 헤드 장착형 시선추적용으로 개발된 Starburst 알고리즘은 원격방식의 시선추적에서는 카메라가 보다 넓은 영역을 보기 때문에 눈썹, 눈꼬리 등 외란이 많아 스타버스트 알고리즘을 바로 적용하면 동공 중심 추출에 실패하는 경우가 많았다. 이에 템플렛매칭을 이용하여 대략적인 동공영역을 찾고, 찾은 영역 내에서만 스타버스트 알고리즘으로 동공의 경계 후보점들을 찾은 후 보완된 RANSAC 알고리즘으로 타원근사하여 동공의 중심을 추출하였다. 추출된 동공중심을 머리의 움직임에 거의 영향을 받지 않도록 4개의 적외선 LED를 모니터 네 구석에 부착하고 Homography normalization을 적용하였다. 스크린 좌표계로 변환할 때 기존에는 호모그래피를 사용하였으나, 카메라 렌즈의 비선형왜곡을 보상하기 위해 여기서는 고차다항식을 이용한 캘리브레이션 기법을 이용하였다. 끝으로, 두 대의 카메라를 사용하여 정확도와 신회성이 향상됨을 보인다.

Robust pupil detection and gaze tracking under occlusion of eyes

  • Lee, Gyung-Ju;Kim, Jin-Suh;Kim, Gye-Young
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권10호
    • /
    • pp.11-19
    • /
    • 2016
  • The size of a display is large, The form becoming various of that do not apply to previous methods of gaze tracking and if setup gaze-track-camera above display, can solve the problem of size or height of display. However, This method can not use of infrared illumination information of reflected cornea using previous methods. In this paper, Robust pupil detecting method for eye's occlusion, corner point of inner eye and center of pupil, and using the face pose information proposes a method for calculating the simply position of the gaze. In the proposed method, capture the frame for gaze tracking that according to position of person transform camera mode of wide or narrow angle. If detect the face exist in field of view(FOV) in wide mode of camera, transform narrow mode of camera calculating position of face. The frame captured in narrow mode of camera include gaze direction information of person in long distance. The method for calculating the gaze direction consist of face pose estimation and gaze direction calculating step. Face pose estimation is estimated by mapping between feature point of detected face and 3D model. To calculate gaze direction the first, perform ellipse detect using splitting from iris edge information of pupil and if occlusion of pupil, estimate position of pupil with deformable template. Then using center of pupil and corner point of inner eye, face pose information calculate gaze position at display. In the experiment, proposed gaze tracking algorithm in this paper solve the constraints that form of a display, to calculate effectively gaze direction of person in the long distance using single camera, demonstrate in experiments by distance.

Webcam-Based 2D Eye Gaze Estimation System By Means of Binary Deformable Eyeball Templates

  • Kim, Jin-Woo
    • Journal of information and communication convergence engineering
    • /
    • 제8권5호
    • /
    • pp.575-580
    • /
    • 2010
  • Eye gaze as a form of input was primarily developed for users who are unable to use usual interaction devices such as keyboard and the mouse; however, with the increasing accuracy in eye gaze detection with decreasing cost of development, it tends to be a practical interaction method for able-bodied users in soon future as well. This paper explores a low-cost, robust, rotation and illumination independent eye gaze system for gaze enhanced user interfaces. We introduce two brand-new algorithms for fast and sub-pixel precise pupil center detection and 2D Eye Gaze estimation by means of deformable template matching methodology. In this paper, we propose a new algorithm based on the deformable angular integral search algorithm based on minimum intensity value to localize eyeball (iris outer boundary) in gray scale eye region images. Basically, it finds the center of the pupil in order to use it in our second proposed algorithm which is about 2D eye gaze tracking. First, we detect the eye regions by means of Intel OpenCV AdaBoost Haar cascade classifiers and assign the approximate size of eyeball depending on the eye region size. Secondly, using DAISMI (Deformable Angular Integral Search by Minimum Intensity) algorithm, pupil center is detected. Then, by using the percentage of black pixels over eyeball circle area, we convert the image into binary (Black and white color) for being used in the next part: DTBGE (Deformable Template based 2D Gaze Estimation) algorithm. Finally, using DTBGE algorithm, initial pupil center coordinates are assigned and DTBGE creates new pupil center coordinates and estimates the final gaze directions and eyeball size. We have performed extensive experiments and achieved very encouraging results. Finally, we discuss the effectiveness of the proposed method through several experimental results.

영상정보를 이용한 HMD용 실시간 아이트랙커 시스템 (Development of Real-Time Vision-based Eye-tracker System for Head Mounted Display)

  • 노은정;홍진성;방효충
    • 한국항공우주학회지
    • /
    • 제35권6호
    • /
    • pp.539-547
    • /
    • 2007
  • 본 논문은 영상정보를 이용하여 사용자의 눈의 움직임을 통해 응시점을 추적하는 실시간 아이트랙커 시스템 개발에 대한 연구이다. 개발된 시스템은 광학기반의 동공추적 기법을 이용하여 사용자의 눈의 움직임을 추적한다. 광학기반의 방법은 사용자의 눈에 아무런 장애도 일으키지 않고 눈의 위치를 매우 정확하게 측정 할 수 있다는 장점을 가진다. 동공영상을 획득하기 위해 적외선 카메라를 사용하며, 획득한 영상으로부터 정확한 동공영역을 추출하기 위해 적외선 LED를 사용한다. 실시간 영상처리가 가능하게 하기위해 칼만필터를 적용한 동공추적 알고리즘을 개발하고 DSP(Digital Signal Processing) 시스템을 사용하여 동공영상을 획득한다. 실시간 아이트랙커 시스템을 통하여 실시간으로 사용자의 동공움직임을 추적하고 사용자가 바라보는 배경영상에 사용자의 응시점을 나타낸다.

프로젝션 함수와 허프 변환을 이용한 눈동자 중심점 찾기 (Detection of Pupil Center using Projection Function and Hough Transform)

  • 최연석;문원호;김철기;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2010년도 추계학술대회
    • /
    • pp.167-170
    • /
    • 2010
  • 본 논문에서는 프로젝션 함수와 허프 변환을 이용하여 영상에서 눈동자를 찾는 방법을 제안한다. 먼저, 영상으로부터 얼굴영역을 추출한 다음, 눈썹과 눈동자의 밝기변화의 특징을 이용할 수 있는 integral projection function과 variance projection function을 사용하여 눈 영역을 검출한다. 검출된 눈 영역에서 눈동자 중심좌표를 구하기 위해 원형 허프 변환을 이용한다. 원형 허프 변환에 사용된 좌표는 sobel edge mask를 사용하여 구한다. FERET database의 정면 얼굴 영상을 이용하여 제안된 방법으로 실험한 결과 만족할 만한 결과가 나왔다.

  • PDF

A STUDY ON PUPIL DETECTION AND TRACKING METHODS BASED ON IMAGE DATA ANALYSIS

  • CHOI, HANA;GIM, MINJUNG;YOON, SANGWON
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제25권4호
    • /
    • pp.327-336
    • /
    • 2021
  • In this paper, we will introduce the image processing methods for the remote pupillary light reflex measurement using the video taken by a general smartphone camera without a special device such as an infrared camera. We propose an algorithm for estimate the size of the pupil that changes with light using image data analysis without a learning process. In addition, we will introduce the results of visualizing the change in the pupil size by removing noise from the recorded data of the pupil size measured for each frame of the video. We expect that this study will contribute to the construction of an objective indicator for remote pupillary light reflex measurement in the situation where non-face-to-face communication has become common due to COVID-19 and the demand for remote diagnosis is increasing.

참조점을 이용한 응시점 추출에 관한 연구 (A Study for Detecting a Gazing Point Based on Reference Points)

  • 김성일;임재홍;조종만;김수홍;남태우
    • 대한의용생체공학회:의공학회지
    • /
    • 제27권5호
    • /
    • pp.250-259
    • /
    • 2006
  • The information of eye movement is used in various fields such as psychology, ophthalmology, physiology, rehabilitation medicine, web design, HMI(human-machine interface), and so on. Various devices to detect the eye movement have been developed but they are too expensive. The general methods of eye movement tracking are EOG(electro-oculograph), Purkinje image tracker, scleral search coil technique, and video-oculograph(VOG). The purpose of this study is to embody the algorithm which tracks the location of the gazing point at a pupil. Two kinds of location data were compared to track the gazing point. One is the reference points(infrared LEDs) which is effected from the globe. Another is the center point of the pupil which is gained with a CCD camera. The reference point was captured with the CCD camera and infrared lights which were not recognized by human eyes. Both of images which were thrown and were not thrown an infrared light on the globe were captured and saved. The reflected reference points were detected with the brightness difference between the two saved images. In conclusion, the circumcenter theory of a triangle was used to look for the center of the pupil. The location of the gazing point was relatively indicated with the each center of the pupil and the reference point.

눈 윤곽선과 눈동자 영역 추출 기반 시선 추정 알고리즘의 설계 및 구현 (Design and Implementation of Eye-Gaze Estimation Algorithm based on Extraction of Eye Contour and Pupil Region)

  • 염효섭;홍민;최유주
    • 컴퓨터교육학회논문지
    • /
    • 제17권2호
    • /
    • pp.107-113
    • /
    • 2014
  • 본 연구에서는 입력 얼굴 영상에서 눈의 윤곽선과 눈동자 영역을 추출하여 시선을 추정하는 시스템을 설계 및 구현한다. 눈 윤곽선과 눈동자 영역을 효율적으로 추출하기 위하여 먼저 입력 영상으로부터 얼굴 영역을 추출한다. 얼굴 영역 추출을 위하여 아시아인 얼굴 영상 셋을 확보하여 아시아인 피부색에 대한 YCbCr 범위를 사전에 정의하였고, 정의된 피부색 범위값에 따라 피부영역을 검출한다. 최대크기 피부 영역을 얼굴후보 영역으로 지정하고 검출된 얼굴 후보영역에 대한 상위 50%의 관심 영역 내에서 눈윤곽선과 색상 특성 분석을 이용한 눈 영역 검출 알고리즘을 수행하여 기존의 Haar-like feature 특성기반 눈 영역 검출방법에 비해 타이트한 눈 영역을 검출한다. 눈의 윤곽선을 포함하는 관심영역 전체를 기준으로 눈 영역을 3등분하고, 추출된 눈동자의 위치가 3등분된 영역에서 어느 영역에 중점적으로 위치하고 있는지를 분석하여 좌, 우, 정면 시선 방향을 추정한다. 본 연구에서는 20명의 실험자에 대한 5,616 장의 테스트 영상을 이용한 시선방향 추정 실험에서 약 91%의 정확도를 획득한다.

  • PDF

HCI를 위한 시선추적 시스템에서 분해능의 추정기법 (Resolution Estimation Technique in Gaze Tracking System for HCI)

  • 김기봉;최현호
    • 융합정보논문지
    • /
    • 제11권1호
    • /
    • pp.20-27
    • /
    • 2021
  • 시선추적은 NUI 기술 중의 하나로 사용자가 응시하는 곳을 추적을 통해 알아낸다. 이 기술은 텍스트를 입력하거나 GUI를 제어할 수 있도록 하고 더 나아가 사용자의 시선 분석도 가능하게 하여 상업 광고 등에 응용될 수 있도록 한다. 시선추적 시스템은 영상의 품질과 사용자 움직임의 자유도에 따라 허용범위가 달라진다. 따라서 시선추적의 정밀도를 미리 추정하는 방법이 필요하다. 시선추적의 정확도는 하드웨어적인 변수 외에도 시선추적 알고리즘을 어떻게 구현하느냐에 따라 많은 영향을 받는다. 이에 따라 본 논문에서는 영상에서 동공 중심의 가능한 최대 이동 거리의 추정으로 동공 중심이 한 픽셀 움직일 때 시선은 몇 도가 바뀌는지 즉, 이론적 최대 분해능이 얼마인지를 추정하는 방법을 제시한다.

환경변화에 강인한 눈 영역 분리 및 안구 추적에 관한 연구 (Robust Eye Region Discrimination and Eye Tracking to the Environmental Changes)

  • 김병균;이왕헌
    • 한국정보통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.1171-1176
    • /
    • 2014
  • 안구 추적은 눈동자의 움직임을 감지하여 안구의 운동 상태나 시선의 위치를 추적하는 인간과 컴퓨터의 상호작용(HCI)분야이다. 안구 추적은 사용자의 시선 추적을 이용한 마케팅 분석이나 의도 인식 등에 적용되고 있으며 다양한 적용을 위한 많은 연구가 진행되고 있다. 안구 추적을 수행하는 방법 중에 영상처리를 이용한 안구 추적 방법이 사용자에게는 편리하지만 조명의 변화와 스케일 변화 그리고 회전이나 가려짐에는 추적의 어려움이 있다. 본 논문에서는 이미지 기반의 안구 추적시 발생되는 조명, 회전, 스케일 변화 등 환경변화에도 강인하게 안구 추적을 수행하기 위하여 두 단계의 추적 방법을 제안한다. 우선 Haar분류기를 이용하여 얼굴과 안구 영역을 추출하고, 추출된 안구 영역으로부터 CAMShift과 템플릿 매칭을 이용하여 강인하게 안구를 추적하는 두 단계의 안구 추적 방법을 제안하였다. 제안한 알고리즘은 조명 변화, 회전, 스케일 등 변화하는 환경 조건하에서 실험을 통하여 강인성을 증명하였다.