• 제목/요약/키워드: Gaze estimation

검색결과 53건 처리시간 0.029초

실시간 눈과 시선 위치 추적 (Real Time Eye and Gaze Tracking)

  • 조현섭;김희숙
    • 한국산학기술학회논문지
    • /
    • 제6권2호
    • /
    • pp.195-201
    • /
    • 2005
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다. 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다. 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참여하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90%, 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.

  • PDF

스마트 폰 기반 차량 환경에서의 랜덤 포레스트를 이용한 시선 인식 시스템 (Gaze Recognition System using Random Forests in Vehicular Environment based on Smart-Phone)

  • 오병훈;정광우;홍광석
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권1호
    • /
    • pp.191-197
    • /
    • 2015
  • 본 논문에서는 스마트 폰 기반 차량 환경에서의 랜덤 포레스트를 이용한 시선 인식 시스템을 제안한다. 제안한 시스템은 Adaboost 알고리즘을 이용한 얼굴 검출, 히스토그램 정보를 이용한 얼굴 구성 요소 추출, 그리고 랜덤 포레스트 알고리즘 기반의 시선 인식으로 구성되어 있다. 카메라로부터 획득한 영상정보를 바탕으로 운전자의 얼굴을 검출하고, 이를 기반으로 운전자의 얼굴 구성 요소를 추정한다. 그리고 추정된 구성 요소로부터 시선 인식에 필요한 특징 벡터를 추출하고, 랜덤 포레스트 인식 알고리즘을 이용하여 9개 방향에 대한 시선을 인식한다. 실험을 위해 실제 환경에서 다양한 시선 방향을 포함하여 DB를 수집하였으며, 실험 결과 얼굴 검출률은 약 82.02%, 시선 인식률은 약 84.77% 성능을 확인하였다.

얼굴 및 눈동자 움직임에 의한 시선 위치 추적 (Gaze Detection by Computing Facial and Eye Movement)

  • 박강령
    • 대한전자공학회논문지SP
    • /
    • 제41권2호
    • /
    • pp.79-88
    • /
    • 2004
  • 시선 위치 추적이란 현재 사용자가 응시하고 있는 위치를 컴퓨터 시각 인식 방법에 의해 파악하는 연구이다. 이러한 시선 위치 추적 기술은 많은 응용 분야를 가지고 있는데, 그 대표적인 예로는 양 손을 사용하지 못하는 심신 장애자를 위한 컴퓨터 인터페이스 및 3차원 시뮬레이터 프로그램에서 사용자의 시선 위치에 따른 화면 제어 등이 있다. 이 논문에서는 적외선 조명이 부착된 단일 카메라를 이용한 컴퓨터 비전 시스템으로 시선 위치 추적 연구를 수행하였다. 사용자의 시선 위치를 파악하기 위해서는 얼굴 특징점의 위치를 추적해야하는데, 이를 위하여 이 논문에서는 적외선 기반 카메라와 SVM(Support Vector Machine) 알고리즘을 사용하였다. 사용자가 모니터상의 임의의 지점을 쳐다볼 때 얼굴 특징점의 3차원 위치는 3차원 움식임량 추정(3D motion estimation) 및 아핀 변환(affine transformation)에 의해 계산되어 질 수 있다. 얼굴 특징점의 변화된 3차원 위치가 계산되면, 이로부터 3개 이상의 얼굴 특징점으로부터 생성되는 얼굴 평면 및 얼굴 평면의 법선 벡터가 구해지게 되며, 이러한 법선 벡터가 모니터 스크린과 만나는 위치가 사용자의 시선위치가 된다. 또한, 이 논문에서는 보다 정확한 시선 위치를 파악하기 위하여 사용자의 눈동자 움직임을 추적하였으면 이를 위하여 신경망(다층 퍼셉트론)을 사용하였다. 실험 결과, 얼굴 및 눈동자 움직임에 의한 모니터상의 시선 위치 정확도는 약 4.8㎝의 최소 자승 에러성능을 나타냈다.

Kalman 필터를 이용한 비접촉식 응시점 추정 시스템에서의 빠른 머리 이동의 보정 (Compensation for Fast Mead Movements on Non-intrusive Eye Gaze Tracking System Using Kalman Filter)

  • 김수찬;유재하;남기창;김덕원
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.33-35
    • /
    • 2005
  • We propose an eye gaze tracking system under natural head movements. The system consists of one CCD camera and two front-surface mirrors. The mirrors rotate to follow head movements in order to keep the eye within the view of the camera. However, the mirror controller cannot guarantee the fast head movements, because the frame rate is generally 30Hz. To overcome this problem, we applied Kalman predictor to estimate next eye position from the current eye image. In the results, our system allows the subjects head to move 50cm horizontally and 40cm vertically, with the speed about 10cm/sec and 6cm/sec, respectively. And spatial gaze resolutions are about 4.5 degree and 4.5 degree, respectively, and the gaze estimation accuracy is 92% under natural head movements.

  • PDF

휴먼 헤드포즈 정보를 이용한 3차원 공간 내 응시점 추정 (Estimation of a Gaze Point in 3D Coordinates using Human Head Pose)

  • 신채림;윤상석
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.177-179
    • /
    • 2021
  • 본 논문은 실내 공간에서 상호작용 로봇이 사용자의 시선이 응시하는 목표지점의 위치정보를 추정하는 방법을 제안한다. 저가의 웹캠으로부터 RGB 영상을 추출하고, 얼굴검출(Openface)모듈로부터 사용자의 헤드포즈 정보를 획득한 후 기하학적 연산을 적용하여 3차원 공간 내 사용자의 응시방향을 추정하게 된다. 추정된 응시방향과 테이블 상의 평면과의 상관관계를 통하여 최종적으로 사용자가 응시하는 목표 지점의 좌표를 추정하게 된다.

  • PDF

눈 윤곽선과 눈동자 영역 추출 기반 시선 추정 알고리즘의 설계 및 구현 (Design and Implementation of Eye-Gaze Estimation Algorithm based on Extraction of Eye Contour and Pupil Region)

  • 염효섭;홍민;최유주
    • 컴퓨터교육학회논문지
    • /
    • 제17권2호
    • /
    • pp.107-113
    • /
    • 2014
  • 본 연구에서는 입력 얼굴 영상에서 눈의 윤곽선과 눈동자 영역을 추출하여 시선을 추정하는 시스템을 설계 및 구현한다. 눈 윤곽선과 눈동자 영역을 효율적으로 추출하기 위하여 먼저 입력 영상으로부터 얼굴 영역을 추출한다. 얼굴 영역 추출을 위하여 아시아인 얼굴 영상 셋을 확보하여 아시아인 피부색에 대한 YCbCr 범위를 사전에 정의하였고, 정의된 피부색 범위값에 따라 피부영역을 검출한다. 최대크기 피부 영역을 얼굴후보 영역으로 지정하고 검출된 얼굴 후보영역에 대한 상위 50%의 관심 영역 내에서 눈윤곽선과 색상 특성 분석을 이용한 눈 영역 검출 알고리즘을 수행하여 기존의 Haar-like feature 특성기반 눈 영역 검출방법에 비해 타이트한 눈 영역을 검출한다. 눈의 윤곽선을 포함하는 관심영역 전체를 기준으로 눈 영역을 3등분하고, 추출된 눈동자의 위치가 3등분된 영역에서 어느 영역에 중점적으로 위치하고 있는지를 분석하여 좌, 우, 정면 시선 방향을 추정한다. 본 연구에서는 20명의 실험자에 대한 5,616 장의 테스트 영상을 이용한 시선방향 추정 실험에서 약 91%의 정확도를 획득한다.

  • PDF

시선 깊이 추정 기법을 이용한 OST-HMD 자동 스위칭 방법 (Method for Automatic Switching Screen of OST-HMD using Gaze Depth Estimation)

  • 이영호;신춘성
    • 스마트미디어저널
    • /
    • 제7권1호
    • /
    • pp.31-36
    • /
    • 2018
  • 본 논문에서는 시선 깊이 추정 기술을 이용한 OST-HMD의 자동화면 on/off 기능을 제안한다. 제안하는 방법은 MLP(Multi-layer Perceptron)을 이용하여 사용자의 시선 정보와 보는 물체의 거리를 학습 한 후, 시선 정보만 입력하여 거리를 추정한다. 학습 단계에서는 착용 할 수 있는 양안 추적기를 사용하여 시선 관련 특징을 얻는다. 그런 다음 이 특징을 다층 퍼셉트론 (MLP: Multi-layer Perceptron)에 입력하여 학습하고 모델을 생성한다. 추론 단계에서는 안구 추적기로부터 실시간으로 시선 관련 특징을 얻고 이를 MLP에 입력하여 추정 깊이 값을 얻는다. 마지막으로 HMD의 화면을 켜거나 끌 것인지 여부를 결정하기 위해 이 계산결과를 활용한다. 제안된 방법의 가능성을 평가하기 위해 프로토타입을 구현하고 실험을 수행하였다.

능동적인 비전 시스템에서 카메라의 시선 조정: 컴퓨터 비전과 제어의 융합 테마 (Steering Gaze of a Camera in an Active Vision System: Fusion Theme of Computer Vision and Control)

  • 한영모
    • 전자공학회논문지SC
    • /
    • 제41권4호
    • /
    • pp.39-43
    • /
    • 2004
  • 능동적인 비전 시스템의 전형적인 한 테마는 카메라의 시선 고정 문제이다. 여기서 카메라의 시선 고정이란 동적인 물체 상의 지정된 한 점이 항시 이미지의 중앙부에 놓이도록 카메라의 자세를 조정하는 것으로서, 이를 위해서는 카메라에 비친 영상정보를 분석하는 기능과 카메라의 자세를 제어하는 두 가지 기능이 결합되어야 한다. 본 논문에서는 영상분석과 자세제어가 한 개의 프레임 하에서 설계되는 카메라의 시선 고정을 위한 알고리즘을 제안한다. 이 때 제작시의 어려움을 피하고 실시간 응용을 위해서 본 알고리즘은 카메라의 calibration이나 3차원 거리 정보의 복원을 필요로 하지 않도록, 그리고 닫힌 형태(closed-form)가 되도록 설계된다.

시선 방향 추정 알고리즘을 이용한 다중 사물 제어 시스템의 구현 (Implementation of Multi-device Remote Control System using Gaze Estimation Algorithm)

  • 유혜미;이주영;전수림;나정은
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.812-814
    • /
    • 2022
  • 제어할 사물을 선택하기 위해 여러 단계를 거쳐야 하는 기존 '스마트 홈'의 단점을 보완하고자 본 논문에서는 사용자의 시선 방향을 추정하여 사용자가 바라보는 방향에 있는 사물을 제어할 수 있는 시스템을 제안한다. 일반 RGB 카메라를 통해 Pose Estimation으로 추출한 Landmark들의 좌표 값을 이용하여 시선 방향을 추정하는 알고리즘을 구현하였으며, 이는 근적외선 카메라와 Gaze Tracking 모델링을 통해 이루어지던 기존의 시선 추적 기술에 비해 가벼운 데이터를 산출하고 사용자와 센서간의 위치 제약이 적으며 별도의 장비를 필요로 하지 않는다. 해당 알고리즘으로 산출한 시선 추적의 정확도가 실제 주거환경에서 사용하기에 실효성이 있음을 실험을 통해 입증하였으며, 최종적으로 이 알고리즘을 적용하여 적외선 기기와 Google Home 제품에 사용할 수 있는 시선 방향 사물 제어 시스템을 구현하였다.

A New Eye Tracking Method as a Smartphone Interface

  • Lee, Eui Chul;Park, Min Woo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권4호
    • /
    • pp.834-848
    • /
    • 2013
  • To effectively use these functions many kinds of human-phone interface are used such as touch, voice, and gesture. However, the most important touch interface cannot be used in case of hand disabled person or busy both hands. Although eye tracking is a superb human-computer interface method, it has not been applied to smartphones because of the small screen size, the frequently changing geometric position between the user's face and phone screen, and the low resolution of the frontal cameras. In this paper, a new eye tracking method is proposed to act as a smartphone user interface. To maximize eye image resolution, a zoom lens and three infrared LEDs are adopted. Our proposed method has following novelties. Firstly, appropriate camera specification and image resolution are analyzed in order to smartphone based gaze tracking method. Secondly, facial movement is allowable in case of one eye region is included in image. Thirdly, the proposed method can be operated in case of both landscape and portrait screen modes. Fourthly, only two LED reflective positions are used in order to calculate gaze position on the basis of 2D geometric relation between reflective rectangle and screen. Fifthly, a prototype mock-up design module is made in order to confirm feasibility for applying to actual smart-phone. Experimental results showed that the gaze estimation error was about 31 pixels at a screen resolution of $480{\times}800$ and the average hit ratio of a $5{\times}4$ icon grid was 94.6%.