• 제목/요약/키워드: eye-gaze tracking

검색결과 131건 처리시간 0.025초

주시현상을 적용한 시선의 관심도 연구 - 파사드를 매개로 한 아이트래킹 실험 중심으로 - (A Study on the Interest of the Eyes Applying Gazing Phenomena - Based on an Eye-tracking Experiment Carried with a Facade as a Medium -)

  • 여미;이창노
    • 한국실내디자인학회논문집
    • /
    • 제23권1호
    • /
    • pp.122-131
    • /
    • 2014
  • This study aimed to conduct an eye-tracking experiment carried with facade images as a medium and to do research on 'the interest of the eyes' resulted from people's gazing phenomena. This study secured gazing data which appeared according to visual response and analyzed gazing phenomena to find the basic theory of 'the interest of the eyes' as a methodological role, which consumer interest and attention could be grafted when a plan and a design for space design was made. Data terms used in eye-tracking backgrounds and the movement of the eyes were investigated in literature review. Twenty (20) facade images were selected through a case study to get experimental stimuli for the related experiment. Thirty (30) subjects (men and women) suitable for the experiment were recruited to conduct an eye-tracking experiment. After the experiment, five (5) areas were set up in the facade image to identify the focus level of interest and attention. The level of interest and focus was connected to the interest of the eyes. The analysis to study the interest of the eyes was based on nine (9) items such as sequence, entry time, dwell time, hit ratio, revisits, revisitors, average fixation, first fixation and fixation count. Through gaze analysis, the following conclusion was drawn about the 'interest level of sight' for gaze frequency. The interest level can be interpreted to be higher for faster sequence, shorter entry time, longer all fixation(ms) for dwell time, faster all saccade(%), higher hit ratio, more revisits, more revisitors, longer average fixation, faster and longer first fixation, and more fixation count, and the person can be said to have felt interest faster and/or more.

Kalman filter를 이용한 비접촉식 응시점 추정 시스템에서의 빠른 머리 이동의 보정 (Compensation for Fast Head Movements on Non-intrusive Eye Gaze Tracking System Using Kalman Filter)

  • 김수찬;유재하;김덕원
    • 전자공학회논문지SC
    • /
    • 제44권6호
    • /
    • pp.35-41
    • /
    • 2007
  • 자연스러운 머리 움직임 하에서 응시점을 추정할 수 있는 시스템을 제안하였다. 이 시스템은 하나의 카메라와 2개의 거울로 구성되어 있으며, 이 거울은 안구에서 눈동자의 영상을 언제나 카메라로 획득할 수 있도록 유지시키는 기능을 한다. 그러나 영상의 획득 속도가 초당 30 프레임이므로 거울의 제어가 빠른 머리 움직임을 보상할 수 없다. 이러한 문제점을 극복하고자 현재 안구 이미지에서 다음 안구 이미지의 위치를 추정하기 위하여 Kalman filter를 적용하였다. 그 결과 수평방향으로 평균 55cm/s, 수직 방향으로 평균 45cm/s정도의 속도의 머리 움직임에 대한 보상이 가능하였다. 그리고, 머리 움직임의 공간도 수평 60cm, 수직 30cm의 넓은 범위까지 가능하였다. 공간 해상도는 수평과 수직 각각 $4.5^{\circ}$$5^{\circ}$ 였고, 자연스러운 머리 움직임 아래에서의 응시점의 정확도는 92% 였다.

동공 움직임, 각막 반사광 및 Kalman Filter 기반 시선 추적에 관한 연구 (A Study on Gaze Tracking Based on Pupil Movement, Corneal Specular Reflections and Kalman Filter)

  • 박강령;고유진;이의철
    • 정보처리학회논문지B
    • /
    • 제16B권3호
    • /
    • pp.203-214
    • /
    • 2009
  • 본 연구에서는 모니터, 카메라 및 눈동자 좌표계간의 복잡한 3차원 관계를 고려하지 않고, 동공의 중심 위치와 모니터의 구석에 설치된 적외선 조명에 의한 네 개의 조명 반사광 사이의 관계를 사용하여 2차원적인 변환 방법으로 사용자의 시선 위치를 파악한다. 동공중심과 조명 반사광을 정확하게 추출하고, 이를 통해 계산된 시선 위치 계산의 정확도에 영향을 줄 수 있는 오차 요소들을 보정하는 것이 본 연구의 목적이다. 이를 위하여, 동공 중심을 통해 계산된 시선위치와 실제 시선 축이 이루는 카파에러를 초기 1회의 사용자 캘리브레이션을 통해 보정하였다. 또한, 칼만 필터를 기반으로 눈의 급격한 움직임 변화에도 각막 조명 반사광을 안정적으로 추적하여 시선 위치를 정확하게 추적한다. 실험 결과, 제안한 연구방법의 시선 위치 추출 오차는 눈의 급격한 움직임 변화에 상관없이 약 1.0$^\circ$ 를 나타냈다.

상황 인식 기반 다중 영역 분류기 비접촉 인터페이스기술 개발 (Technology Development for Non-Contact Interface of Multi-Region Classifier based on Context-Aware)

  • 김송국;이필규
    • 한국인터넷방송통신학회논문지
    • /
    • 제20권6호
    • /
    • pp.175-182
    • /
    • 2020
  • 비접촉식 시선추적 기술은 인간과 컴퓨터간의 인터페이스로서 장애가 있는 사람들에게 핸즈프리 통신을 제공하며, 최근 코로나 바이러스 등으로 인한 비접촉시스템에도 중요한 역할을 할 것으로 기대된다. 따라서 본 논문에서는 인간 중심의 상호 작용을 위한 상황인식 다중영역 분류기 및 ASSL 알고리즘을 기반으로 한 사용자 인터페이스 기술을 개발한다. 이전의 AdaBoost 알고리즘은 안구 특징 사이의 공간적 맥락 관계를 이용할 수 없기 때문에 눈의 커서 포인팅 추정을 위한 안면 추적에서 충분히 신뢰할 수 있는 성능을 제공 할 수 없다. 따라서 본 논문에서는 효율적인 비접촉식 시선 추적 및 마우스 구현을 위한 눈 영역의 상황기반 AdaBoost 다중 영역 분류기를 제시한다. 제안된 방식은 여러 시선 기능을 감지, 추적 및 집계하여 시선을 평가하고 온 스크린 커서 기반의 능동 및 반 감독 학습을 조정한다. 이는 눈 위치에 성공적으로 사용되었으며 눈 특징을 감지하고 추적하는 데에도 사용할 수 있다. 사용자의 시선을 따라 컴퓨터 커서를 제어하며 칼만 필터를 이용하여 실시간으로 추적하며, 가우시안 모델링을 적용함으로써 후처리하였다. Fits law에 의해 실험하였으며, 랜덤하게 대상객체를 생성하여 실시간으로 시선추적성능을 분석하였다. 제안하는 상황인식을 기반 인식기를 통하여 비접촉 인터페이스로서의 활용이 높아질 것이다.

눈의 응시 방향을 이용한 인간-컴퓨터간의 인터페이스에 관한 연구 (Human-Computer Interface using the Eye-Gaze Direction)

  • 김도형;김재헌;정명진
    • 전자공학회논문지CI
    • /
    • 제38권6호
    • /
    • pp.46-56
    • /
    • 2001
  • 본 논문에서는 연속적인 영상 정보와 자기 센서의 정보로부터 실시간으로 눈의 응시 방향을 추적하기 위한 효과적인 접근 방법에 대해 제안한다. 이러한 눈 응시 추적 시스템의 입력으로는 한 대의 카메라를 통해 얻어지는 영상들과 자기 센서의 데이터들이다. 눈의 영상을 받아들이는 카메라와 자기 센서의 수신부가 머리에 고정되어 있어서 측정된 데이터들은 눈과 머리의 움직임을 표현하는데 충분하다. 실험 결과에서는 제안한 시스템이 실시간으로 동작하는 측면에 대해 그 유용성을 보여줄 것이고 또 그러한 시스템을 이용하여 마우스 대신 새로운 컴퓨터 인터페이스로 사용할 수 있다는 가능성을 보여줄 것이다.

  • PDF

VR HMD 시뮬레이터를 활용한 조종사 시선 추적 및 착륙 절차 결과 분석 (Pilot Gaze Tracking and ILS Landing Result Analysis using VR HMD based Flight Simulators)

  • 정구문;이영재;곽태호;이재우
    • 한국항공운항학회지
    • /
    • 제30권1호
    • /
    • pp.44-49
    • /
    • 2022
  • This study performed precision instrument landing procedures for pilots with a commercial pilot license using VR HMD flight simulators, and assuming that the center of the pilot's gaze is in the front, 3-D.O.F. head tracking data and 2-D eye tracking of VR HMD worn by pilots gaze tracking was performed through. After that, AOI (Area of Interesting) was set for the instrument panel and external field of view of the cockpit to analyze how the pilot's gaze was distributed before and after the decision altitude. At the same time, the landing results were analyzed using the Localizer and G/S data as the pilot's precision instrument landing flight data. As a result, the pilot was quantitatively evaluated by reflecting the gaze tracking and the resulting landing result using a VR HMD simulator.

눈 윤곽선과 눈동자 영역 추출 기반 시선 추정 알고리즘의 설계 및 구현 (Design and Implementation of Eye-Gaze Estimation Algorithm based on Extraction of Eye Contour and Pupil Region)

  • 염효섭;홍민;최유주
    • 컴퓨터교육학회논문지
    • /
    • 제17권2호
    • /
    • pp.107-113
    • /
    • 2014
  • 본 연구에서는 입력 얼굴 영상에서 눈의 윤곽선과 눈동자 영역을 추출하여 시선을 추정하는 시스템을 설계 및 구현한다. 눈 윤곽선과 눈동자 영역을 효율적으로 추출하기 위하여 먼저 입력 영상으로부터 얼굴 영역을 추출한다. 얼굴 영역 추출을 위하여 아시아인 얼굴 영상 셋을 확보하여 아시아인 피부색에 대한 YCbCr 범위를 사전에 정의하였고, 정의된 피부색 범위값에 따라 피부영역을 검출한다. 최대크기 피부 영역을 얼굴후보 영역으로 지정하고 검출된 얼굴 후보영역에 대한 상위 50%의 관심 영역 내에서 눈윤곽선과 색상 특성 분석을 이용한 눈 영역 검출 알고리즘을 수행하여 기존의 Haar-like feature 특성기반 눈 영역 검출방법에 비해 타이트한 눈 영역을 검출한다. 눈의 윤곽선을 포함하는 관심영역 전체를 기준으로 눈 영역을 3등분하고, 추출된 눈동자의 위치가 3등분된 영역에서 어느 영역에 중점적으로 위치하고 있는지를 분석하여 좌, 우, 정면 시선 방향을 추정한다. 본 연구에서는 20명의 실험자에 대한 5,616 장의 테스트 영상을 이용한 시선방향 추정 실험에서 약 91%의 정확도를 획득한다.

  • PDF

Measuring Visual Attention Processing of Virtual Environment Using Eye-Fixation Information

  • Kim, Jong Ha;Kim, Ju Yeon
    • Architectural research
    • /
    • 제22권4호
    • /
    • pp.155-162
    • /
    • 2020
  • Numerous scholars have explored the modeling, control, and optimization of energy systems in buildings, offering new insights about technology and environments that can advance industry innovation. Eye trackers deliver objective eye-gaze data about visual and attentional processes. Due to its flexibility, accuracy, and efficiency in research, eye tracking has a control scheme that makes measuring rapid eye movement in three-dimensional space possible (e.g., virtual reality, augmented reality). Because eye movement is an effective modality for digital interaction with a virtual environment, tracking how users scan a visual field and fix on various digital objects can help designers optimize building environments and materials. Although several scholars have conducted Virtual Reality studies in three-dimensional space, scholars have not agreed on a consistent way to analyze eye tracking data. We conducted eye tracking experiments using objects in three-dimensional space to find an objective way to process quantitative visual data. By applying a 12 × 12 grid framework for eye tracking analysis, we investigated how people gazed at objects in a virtual space wearing a headmounted display. The findings provide an empirical base for a standardized protocol for analyzing eye tracking data in the context of virtual environments.

이동물체 추적을 위한 능동시각 시스템 구축 (Active eye system for tracking a moving object)

  • 백문홍
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1996년도 한국자동제어학술회의논문집(국내학술편); 포항공과대학교, 포항; 24-26 Oct. 1996
    • /
    • pp.257-259
    • /
    • 1996
  • This paper presents the active eye system for tracking a moving object in 3D space. A prototype system able to track a moving object is designed and implemented. The mechanical system ables the control of platform that consists of binocular camera and also the control of the vergence angle of each camera by step motor. Each camera has two degrees of freedom. The image features of the object are extracted from complicated environment by using zero disparity filtering(ZDF). From the cnetroid of the image features the gaze point on object is calculated and the vergence angle of each camera is controlled by step motor. The Proposed method is implemented on the prototype with robust and fast calculation time.

  • PDF

장애인을 위한 새로운 감성 인터페이스 연구 (A New Ergonomic Interface System for the Disabled Person)

  • 허환;이지우;이원오;이의철;박강령
    • 대한인간공학회지
    • /
    • 제30권1호
    • /
    • pp.229-235
    • /
    • 2011
  • Objective: Making a new ergonomic interface system based on camera vision system, which helps the handicapped in home environment. Background: Enabling the handicapped to manipulate the consumer electronics by the proposed interface system. Method: A wearable device for capturing the eye image using a near-infrared(NIR) camera and illuminators is proposed for tracking eye gaze position(Heo et al., 2011). A frontal viewing camera is attached to the wearable device, which can recognize the consumer electronics to be controlled(Heo et al., 2011). And the amount of user's eye fatigue can be measured based on eye blink rate, and in case that the user's fatigue exceeds in the predetermined level, the proposed system can automatically change the mode of gaze based interface into that of manual selection. Results: The experimental results showed that the gaze estimation error of the proposed method was 1.98 degrees with the successful recognition of the object by the frontal viewing camera(Heo et al., 2011). Conclusion: We made a new ergonomic interface system based on gaze tracking and object recognition Application: The proposed system can be used for helping the handicapped in home environment.