• 제목/요약/키워드: Gaze-Tracking

검색결과 166건 처리시간 0.028초

스마트 폰 기반 차량 환경에서의 랜덤 포레스트를 이용한 시선 인식 시스템 (Gaze Recognition System using Random Forests in Vehicular Environment based on Smart-Phone)

  • 오병훈;정광우;홍광석
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권1호
    • /
    • pp.191-197
    • /
    • 2015
  • 본 논문에서는 스마트 폰 기반 차량 환경에서의 랜덤 포레스트를 이용한 시선 인식 시스템을 제안한다. 제안한 시스템은 Adaboost 알고리즘을 이용한 얼굴 검출, 히스토그램 정보를 이용한 얼굴 구성 요소 추출, 그리고 랜덤 포레스트 알고리즘 기반의 시선 인식으로 구성되어 있다. 카메라로부터 획득한 영상정보를 바탕으로 운전자의 얼굴을 검출하고, 이를 기반으로 운전자의 얼굴 구성 요소를 추정한다. 그리고 추정된 구성 요소로부터 시선 인식에 필요한 특징 벡터를 추출하고, 랜덤 포레스트 인식 알고리즘을 이용하여 9개 방향에 대한 시선을 인식한다. 실험을 위해 실제 환경에서 다양한 시선 방향을 포함하여 DB를 수집하였으며, 실험 결과 얼굴 검출률은 약 82.02%, 시선 인식률은 약 84.77% 성능을 확인하였다.

입 벌림 인식과 팝업 메뉴를 이용한 시선추적 마우스 시스템 성능 개선 (Improving Eye-gaze Mouse System Using Mouth Open Detection and Pop Up Menu)

  • 변주영;정기철
    • 한국멀티미디어학회논문지
    • /
    • 제23권12호
    • /
    • pp.1454-1463
    • /
    • 2020
  • An important factor in eye-tracking PC interface for general paralyzed patients is the implementation of the mouse interface, for manipulating the GUI. With a successfully implemented mouse interface, users can generate mouse events exactly at the point of their choosing. However, it is difficult to define this interaction in the eye-tracking interface. This problem has been defined as the Midas touch problem and has been a major focus of eye-tracking research. There have been many attempts to solve this problem using blink, voice input, etc. However, it was not suitable for general paralyzed patients because some of them cannot wink or speak. In this paper, we propose a mouth-pop-up, eye-tracking mouse interface that solves the Midas touch problem as well as becoming a suitable interface for general paralyzed patients using a common RGB camera. The interface presented in this paper implements a mouse interface that detects the opening and closing of the mouth to activate a pop-up menu that the user can select the mouse event. After implementation, a performance experiment was conducted. As a result, we found that the number of malfunctions and the time to perform tasks were reduced compared to the existing method.

Performance Comparison of Manual and Touch Interface using Video-based Behavior Analysis

  • Lee, Chai-Woo;Bahn, Sang-Woo;Kim, Ga-Won;Yun, Myung-Hwan
    • 대한인간공학회지
    • /
    • 제29권4호
    • /
    • pp.655-659
    • /
    • 2010
  • The objective of this study is to quantitatively incorporate user observation into usability evaluation of mobile interfaces using monitoring techniques in first- and third-person points of view. In this study, an experiment was conducted to monitor and record users' behavior using Ergoneers Dikablis, a gaze tracking device. The experiment was done with 2 mobile phones each with a button keypad interface and a touchscreen interface for comparative analysis. The subjects included 20 people who have similar experiences and proficiency in using mobile devices. Data from video recordings were coded with Noldus Observer XT to find usage patterns and to gather quantitative data for analysis in terms of effectiveness, efficiency and satisfaction. Results showed that the button keypad interface was generally better than the touchcreen interface. The movements of the fingers and gaze were much simpler when performing given tasks on the button keypad interface. While previous studies have mostly evaluated usability with performance measures by only looking at task results, this study can be expected to contribute by suggesting a method in which the behavioral patterns of interaction is evaluated.

눈의 응시 방향을 이용한 인간-컴퓨터간의 인터페이스에 관한 연구 (Human-Computer Interface using the Eye-Gaze Direction)

  • 김도형;김재헌;정명진
    • 전자공학회논문지CI
    • /
    • 제38권6호
    • /
    • pp.46-56
    • /
    • 2001
  • 본 논문에서는 연속적인 영상 정보와 자기 센서의 정보로부터 실시간으로 눈의 응시 방향을 추적하기 위한 효과적인 접근 방법에 대해 제안한다. 이러한 눈 응시 추적 시스템의 입력으로는 한 대의 카메라를 통해 얻어지는 영상들과 자기 센서의 데이터들이다. 눈의 영상을 받아들이는 카메라와 자기 센서의 수신부가 머리에 고정되어 있어서 측정된 데이터들은 눈과 머리의 움직임을 표현하는데 충분하다. 실험 결과에서는 제안한 시스템이 실시간으로 동작하는 측면에 대해 그 유용성을 보여줄 것이고 또 그러한 시스템을 이용하여 마우스 대신 새로운 컴퓨터 인터페이스로 사용할 수 있다는 가능성을 보여줄 것이다.

  • PDF

눈동자 시선 추적에 의한 3차원 1인칭 슈팅 게임 (3D First Person Shooting Game by Using Eye Gaze Tracking)

  • 이의철;박강령
    • 정보처리학회논문지B
    • /
    • 제12B권4호
    • /
    • pp.465-472
    • /
    • 2005
  • 본 논문에서는 HMD(Head Mounted Display) 하단에 눈동자의 움직임 영상을 취득할 수 있는 USB 카메라를 부착한 후, 3차원 1인칭 슈팅(First Person Shooting) 게임에서 게임 캐릭터의 시선방향을 눈동자 움직임에 의해 조작하는 방법을 제안한다. 본 논문에서 제안하는 방법은 다음과 같은 3부분으로 이루어져 있다. 첫 번째는 입력 영상으로부터 눈동자의 중심 위치를 실시간 영상 처리 방법으로 추출하는 부분, 두번째는 HMD 모니터상의 임의 지점을 쳐다볼 때 추출된 눈동자의 위치 정보와 모니터상의 응시 지점사이의 기하학적인 연관관계를 결정하는 캘리브레이션 부분, 그리고 마지막은 캘리브레이션 정보를 기반으로 모니터 상의 최종적인 응시 위치를 결정하고 이 정보에 의해 게임상의 3차원 뷰 방향을 조정하는 부분으로 구성되어 있다. 실험 결과 본 논문의 방법에 의해 손이 불편한 사용자에게 게임을 즐길 수 있는 기회를 제공하고, 게임 캐릭터와 게임 사용자의 시선 방향을 일치시킴으로서 게임의 흥미와 몰입감을 증가시킬 수 있는 결과를 얻음을 알 수 있었다.

모바일 기기에서의 얼굴 특징점 및 선형 보간법 기반 시선 추적 (Gaze Detection Based on Facial Features and Linear Interpolation on Mobile Devices)

  • 고유진;박강령
    • 한국멀티미디어학회논문지
    • /
    • 제12권8호
    • /
    • pp.1089-1098
    • /
    • 2009
  • 최근에 인간컴퓨터 상호작용 분야에서 사용자의 시선 위치를 파악하여 더욱 편리한 입력 장치를 개발하고자 하는 연구가 많이 진행되고 있다. 기존의 대부분 연구들은 큰 모니터를 사용하는 컴퓨터 환경에서 시선 추적 시스템을 개발하였다. 최근 이동단말기의 사용 증대로 이동 중에 시선 추적에 의한 단말기 제어의 필요성이 증대되고 있다. 이에 본 연구에서는 이동형 컴퓨터 (Ultra-Mobile PC) 및 컴퓨터 내장 카메라를 이용하여 사용자의 얼굴을 추적하고, 얼굴내의 특징점의 위치를 능동외관모델 (Active Appearance Model)을 기반으로 추적하는 연구를 수행하였다. 본 논문의 독창성은 기존 연구와는 달리 소형 화면을 가지는 이동 단말기에서 사용자의 시선 위치를 추적할 수 있는 방법을 제안한 점과 정밀한 얼굴 특징점 검출을 위하여 능동외관모델을 사용한 점이다. 또한 사용자의 초기 캘리브레이션시 얻어진 특징값을 기반으로, 입력 특징값들을 정규화 함으로써, Z거리에 따라 시선 위치 정확도가 영향을 받지 않는다는 점이다. 실험결과, 약 1.77도의 시선 오차를 발생하였으나, 추가적인 얼굴 움직임에 의한 마우스 움직임 기능으로 이러한 시선 오차는 더욱 줄일 수 있음을 알 수 있었다.

  • PDF

시선 추적기법을 활용한 시선 유도와 사이버 멀미 관계 연구 (A study on the relationship between gaze guidance and cybersickness using Eyetracking)

  • 이태구;안찬제
    • 문화기술의 융합
    • /
    • 제8권3호
    • /
    • pp.167-173
    • /
    • 2022
  • 가상현실 시장의 규모는 해마다 성장하고 있으나 가상현실에서 일어나는 사이버 멀미는 아직까지 해결되지 않고 있다. 본 논문에서는 가상현실 콘텐츠에서 일어나는 사이버 멀미와 시선 유도와의 관계에 대해 실험을 통해 결과를 도출하였다. 시선추적기법을 활용하여 시선의 움직임이 사이버 멀미와의 관계를 파악하였다. 시선 유도가 사이버 멀미에 영향을 미치는지 알아보기 위해 두 그룹으로 나누어 실험하였다. 또한 사이버 멀미가 성별에 따라 다른 결과를 보이는지 확인하기 위해 두 그룹을 나누어서 결과를 분석하였다. 사이버 멀미를 측정하기 위해 SSQ설문을 사용하여 분석하였다. 두 가지 방법을 통해 시선 유도와 사이버 멀미와의 관계를 파악하고자 하였다. 실험의 결과 명확한 시선의 유도가 시선의 집중이 일어나게 하였으며 카메라의 회전을 통한 사이버 멀미에 효과가 있는 것으로 나타났다. 사이버 멀미를 완화하기 위해서는 시선 유도연출을 통해 시선의 집중을 하게 하는 것이 사이버 멀미에 효과가 있는 것으로 확인되었다. 이 결과가 가상현실을 이용해서 제작하려는 제작자들에게 사이버 멀미를 완화할 수 있는 하나의 방법으로 사용되어 콘텐츠 제작에 도움이 되기를 기대한다.

이동물체 추적을 위한 능동시각 시스템 구축 (Active eye system for tracking a moving object)

  • 백문홍
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1996년도 한국자동제어학술회의논문집(국내학술편); 포항공과대학교, 포항; 24-26 Oct. 1996
    • /
    • pp.257-259
    • /
    • 1996
  • This paper presents the active eye system for tracking a moving object in 3D space. A prototype system able to track a moving object is designed and implemented. The mechanical system ables the control of platform that consists of binocular camera and also the control of the vergence angle of each camera by step motor. Each camera has two degrees of freedom. The image features of the object are extracted from complicated environment by using zero disparity filtering(ZDF). From the cnetroid of the image features the gaze point on object is calculated and the vergence angle of each camera is controlled by step motor. The Proposed method is implemented on the prototype with robust and fast calculation time.

  • PDF

시선추적을 위한 실시간 동공 중심 검출 (Real-time pupil center detection for gaze tracking)

  • 이경주;김계영
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2014년도 제49차 동계학술대회논문집 22권1호
    • /
    • pp.59-61
    • /
    • 2014
  • 본 논문에서는 단일의 카메라로부터 획득한 영상에 있는 동공 중심을 실시간으로 검출하는 알고리즘을 제안한다. 제안하는 방법은 원에서 현의 수직이등분선은 그 원의 중심을 지난다는 사실을 이용하여 동공의 현을 찾고 동공 중심을 계산하는 것이다. 먼저 VPF(Variance Projection Function)을 이용해 일차적으로 동공 중심을 탐지한다. 탐지된 중심점을 기준으로 원을 탐색하여 정확한 동공 중심점을 찾는다. 실험을 통하여 제안한 방법은 높은 검출율과 처리시간 관점에서 우수함을 보인다.

  • PDF

Fast Ray Reordering and Approximate Sibson Interpolation for Foveated Rendering on GPU

  • Kwon, Oh-Seok;park, Keon-kuk;Yoon, Joseph;Kim, Young-Bong
    • 한국멀티미디어학회논문지
    • /
    • 제22권2호
    • /
    • pp.311-321
    • /
    • 2019
  • Virtual reality applications in Head-Mounted Displays require high frame rates and low latency rendering techniques. Ray tracing offers many benefits, such as high-quality image generation, but has not been utilized due to lower performance than rasterization. But that can obtain good result combined with gaze-tracking technology and human visual system's operation principle. In this paper, we propose a method to optimize the foveated sampling map and to maintain the visual quality through the fast voronoi nearest interpolation. The proposed method further reduces the computational cost that has been improved by the previous foveated sampling. It also smoothes the voronoi boundary using adaptive sibson interpolation, which was not possible in real-time. As a result, the proposed method can render real-time high-quality images with low visual difference.