• 제목/요약/키워드: Gaze-Tracking

검색결과 166건 처리시간 0.022초

VR HMD 시뮬레이터를 활용한 조종사 시선 추적 및 착륙 절차 결과 분석 (Pilot Gaze Tracking and ILS Landing Result Analysis using VR HMD based Flight Simulators)

  • 정구문;이영재;곽태호;이재우
    • 한국항공운항학회지
    • /
    • 제30권1호
    • /
    • pp.44-49
    • /
    • 2022
  • This study performed precision instrument landing procedures for pilots with a commercial pilot license using VR HMD flight simulators, and assuming that the center of the pilot's gaze is in the front, 3-D.O.F. head tracking data and 2-D eye tracking of VR HMD worn by pilots gaze tracking was performed through. After that, AOI (Area of Interesting) was set for the instrument panel and external field of view of the cockpit to analyze how the pilot's gaze was distributed before and after the decision altitude. At the same time, the landing results were analyzed using the Localizer and G/S data as the pilot's precision instrument landing flight data. As a result, the pilot was quantitatively evaluated by reflecting the gaze tracking and the resulting landing result using a VR HMD simulator.

Gaze-Tracking 기술을 통한 학습 집중력 향상 및 강화 서비스 (Development and Reinforcement for Learning with Gaze-Tracking Technology)

  • 정시열;문태준;이용택;김상엽;김영종
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.587-589
    • /
    • 2022
  • 본 서비스는 코로나 19 로 인한 비대면 수업에 따른 학생들의 학업성취도를 증진시키기 위한 것이다. 이를 위해서 비대면 수업동안의 사용자의 시선을 추적하여 몰입도를 분석한다. 사용 기술로는 사용자의 시선을 추적하는데 Gaze-Tracking 기술과 영상에서 수업에 있어 유의미한 영역을 분석하는 deeplabv3 기술을 사용한다. Gaze-Tracking 기술은 웹캠 등을 통하여 사용자가 화면의 어느 부분을 쳐다보고 있는지를 고개, 눈, 눈동자의 각도를 통하여 알아낸다. 해당 기술들을 활용하여 실시간 몰입도를 분석하여 알림을 제공한다. 수업이 종료되고 나서는 마지막에 몰입도 통계를 제공한다. 추가적으로 몰입도 향상을 도와주는 미니게임도 제공한다.

머리 움직임이 자유로운 안구 응시 추정 시스템 (Eye Gaze Tracking System Under Natural Head Movements)

  • 김수찬
    • 전자공학회논문지SC
    • /
    • 제41권5호
    • /
    • pp.57-64
    • /
    • 2004
  • 한 대의 카메라와 반사각의 조절이 가능한 2개의 거울, 그리고 별도의 적외선 광원을 이용하여 자유로운 머리 움직임이 가능한 안구 응시점 추정 시스템을 제안하였다. 거울의 회전 각도는 카메라의 광축(opticai axis) 상에 안구가 올 수 있도록 공간 좌표계와 선형 방정식을 이용하여 계산하였다 제안한 시스템은 수평 방향으로 90cm 수직 방향으로 60cm 범위 내에서의 머리 움직임이 가능하였고, 응시점의 공간 해상도 각각 6°, 7°이며, 시간 해상도는 10~15 frames/sec이었다. Generalized regression neural networks(GRNN)을 기반으로 하여 2단계의 GRNN을 거치는 소위 hierarchical generalized regression neural networks(H-GRNN)을 이용하여 얻어진 인자를 모니터 좌표로 변환하였다. GRNN을 한번 사용하였을 경우 정확도가 85%이었으나 H-GRNN을 이용할 경우 약 9% 높은 94%의 정확도를 얻을 수 있었다. 그리고 입력 파라미터의 정규화를 통하여 재보정의 불편함을 제거했을 뿐만 아니라 약간의 얼굴 회전이 발생하였을 경우에도 동일한 성능을 보였다. 본 시스템은 공간 해상도는 크게 높지 않으나 자유로운 머리 움직임을 허용되므로 안정성과 피검자의 활동에 제약을 줄였다는 점에서 의의를 찾을 수 있다.

정확도 및 정밀도 향상을 위한 적응형 확대 기반의 시선 추적 기법 (Adaptive Zoom-based Gaze Tracking for Enhanced Accuracy and Precision)

  • 송현주;조재민;김보형;서진욱
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권9호
    • /
    • pp.610-615
    • /
    • 2015
  • 카메라 기반의 원격 시선 추적 방식은 기기의 특성상 사용자의 움직임 등의 요인에 의해 시선 추적의 정확성 측면에서 많은 영향을 받는다. 하지만 턱받침을 사용하여 사용자의 움직임을 제약하는 실험 환경은 시선 추적의 정확성을 높이는 대신 비침습적인 시선 추적 방식의 이점을 사라지게 한다. 이 논문에서는 비침습적인 추적 방식에서 나타날 수 있는 정확도의 저하를 극복하기 위하여 높은 정확도가 요구되는 관심 영역을 화면상에서 확대함으로써 해상력을 높이는 방안을 제시한다. 관심 영역의 확대는 두 종류의 조건(상시, 조건부)에 의해 이루어 졌으며, 이를 기존 시선 추적 방식과 비교했다. 또한 이렇게 비교한 결과를 바탕으로 적응형 확대 기법의 장점과 한계를 정리했다.

A New Eye Tracking Method as a Smartphone Interface

  • Lee, Eui Chul;Park, Min Woo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권4호
    • /
    • pp.834-848
    • /
    • 2013
  • To effectively use these functions many kinds of human-phone interface are used such as touch, voice, and gesture. However, the most important touch interface cannot be used in case of hand disabled person or busy both hands. Although eye tracking is a superb human-computer interface method, it has not been applied to smartphones because of the small screen size, the frequently changing geometric position between the user's face and phone screen, and the low resolution of the frontal cameras. In this paper, a new eye tracking method is proposed to act as a smartphone user interface. To maximize eye image resolution, a zoom lens and three infrared LEDs are adopted. Our proposed method has following novelties. Firstly, appropriate camera specification and image resolution are analyzed in order to smartphone based gaze tracking method. Secondly, facial movement is allowable in case of one eye region is included in image. Thirdly, the proposed method can be operated in case of both landscape and portrait screen modes. Fourthly, only two LED reflective positions are used in order to calculate gaze position on the basis of 2D geometric relation between reflective rectangle and screen. Fifthly, a prototype mock-up design module is made in order to confirm feasibility for applying to actual smart-phone. Experimental results showed that the gaze estimation error was about 31 pixels at a screen resolution of $480{\times}800$ and the average hit ratio of a $5{\times}4$ icon grid was 94.6%.

사용자 캘리브레이션이 필요 없는 시선 추적 모델 연구 (User-Calibration Free Gaze Tracking System Model)

  • 고은지;김명준
    • 한국정보통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.1096-1102
    • /
    • 2014
  • 적외선 조명을 이용한 간접시선추적 시스템에서는 촬영된 이미지에서 동공에 반사된 조명의 위치에 대한 캘리브레이션이 필수적이다. 하지만 안구의 크기나 머리의 위치에 따라 달라질 수도 있는 변수가 캘리브레이션 과정에서 정의된 상수로 계산에 포함되어 있어 오차를 감소시키는데 한계가 있다. 본 논문은 적외선 조명을 사용하면서도, 사용자 캘리브레이션 과정을 생략할 수 있는 방법을 연구한다. 반사각에 의한 글린트(glint)위치 차이에 영향을 받지 않게 하면서, 시스템의 모델과 시선 계산은 단순하게 하여 실시간 연산이 가능하도록 하는 것이 목표이다.

Kalman 필터를 이용한 비접촉식 응시점 추정 시스템에서의 빠른 머리 이동의 보정 (Compensation for Fast Mead Movements on Non-intrusive Eye Gaze Tracking System Using Kalman Filter)

  • 김수찬;유재하;남기창;김덕원
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.33-35
    • /
    • 2005
  • We propose an eye gaze tracking system under natural head movements. The system consists of one CCD camera and two front-surface mirrors. The mirrors rotate to follow head movements in order to keep the eye within the view of the camera. However, the mirror controller cannot guarantee the fast head movements, because the frame rate is generally 30Hz. To overcome this problem, we applied Kalman predictor to estimate next eye position from the current eye image. In the results, our system allows the subjects head to move 50cm horizontally and 40cm vertically, with the speed about 10cm/sec and 6cm/sec, respectively. And spatial gaze resolutions are about 4.5 degree and 4.5 degree, respectively, and the gaze estimation accuracy is 92% under natural head movements.

  • PDF

얼굴 방향에 기반을 둔 컴퓨터 화면 응시점 추적 (A Gaze Tracking based on the Head Pose in Computer Monitor)

  • 오승환;이희영
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(3)
    • /
    • pp.227-230
    • /
    • 2002
  • In this paper we concentrate on overall direction of the gaze based on a head pose for human computer interaction. To decide a gaze direction of user in a image, it is important to pick up facial feature exactly. For this, we binarize the input image and search two eyes and the mouth through the similarity of each block ( aspect ratio, size, and average gray value ) and geometric information of face at the binarized image. We create a imaginary plane on the line made by features of the real face and the pin hole of the camera to decide the head orientation. We call it the virtual facial plane. The position of a virtual facial plane is estimated through projected facial feature on the image plane. We find a gaze direction using the surface normal vector of the virtual facial plane. This study using popular PC camera will contribute practical usage of gaze tracking technology.

  • PDF

An Experimental Multimodal Command Control Interface toy Car Navigation Systems

  • Kim, Kyungnam;Ko, Jong-Gook;SeungHo choi;Kim, Jin-Young;Kim, Ki-Jung
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -1
    • /
    • pp.249-252
    • /
    • 2000
  • An experimental multimodal system combining natural input modes such as speech, lip movement, and gaze is proposed in this paper. It benefits from novel human-compute. interaction (HCI) modalities and from multimodal integration for tackling the problem of the HCI bottleneck. This system allows the user to select menu items on the screen by employing speech recognition, lip reading, and gaze tracking components in parallel. Face tracking is a supplementary component to gaze tracking and lip movement analysis. These key components are reviewed and preliminary results are shown with multimodal integration and user testing on the prototype system. It is noteworthy that the system equipped with gaze tracking and lip reading is very effective in noisy environment, where the speech recognition rate is low, moreover, not stable. Our long term interest is to build a user interface embedded in a commercial car navigation system (CNS).

  • PDF

Designing Real-time Observation System to Evaluate Driving Pattern through Eye Tracker

  • Oberlin, Kwekam Tchomdji Luther.;Jung, Euitay
    • 한국멀티미디어학회논문지
    • /
    • 제25권2호
    • /
    • pp.421-431
    • /
    • 2022
  • The purpose of this research is to determine the point of fixation of the driver during the process of driving. Based on the results of this research, the driving instructor can make a judgement on what the trainee stare on the most. Traffic accidents have become a serious concern in modern society. Especially, the traffic accidents among unskilled and elderly drivers are at issue. A driver should put attention on the vehicles around, traffic signs, passersby, passengers, road situation and its dashboard. An eye-tracking-based application was developed to analyze the driver's gaze behavior. It is a prototype for real-time eye tracking for monitoring the point of interest of drivers in driving practice. In this study, the driver's attention was measured by capturing the movement of the eyes in real road driving conditions using these tools. As a result, dwelling duration time, entry time and the average of fixation of the eye gaze are leading parameters that could help us prove the idea of this study.