• 제목/요약/키워드: Gaze

검색결과 534건 처리시간 0.024초

안검열 비대칭에 관한 연구 (Prevalence of Palpebral Fissure Asymmetry in Healthy Koreans)

  • 김상문
    • 한국안광학회지
    • /
    • 제4권2호
    • /
    • pp.119-122
    • /
    • 1999
  • 조사대상 61명의 primary gaze, $45^{\circ}$ right gaze 및 $45^{\circ}$ left gaze때의 안검열폭을 측정하였다. 안검열폭의 비대칭 판정기준을 1mm 이상으로 하였을 때 생리적 안검열폭 비대칭의 prevalence는 primary gaze에 서 13.1%(8/61), right gaze에서 24.6%(15/61) 그리고 left gaze에서 16.4%(10/61) 이었다. Primary gaze에서 안검열폭의 비대칭 값을 보정한 후 two-tailed trivariate analysis를 실시한 결과 horizontal gaze에서 대부분의 경우 보정된 안검열폭 비대칭 값은 1mm 이하였고 내전안의 폭이 더 넓어지는 경향을 보였다. 동시에 이러한 효과는 right gaze와 left gaze때에 동일하게 나타났고 성에 따라 유의성 있는 차이가 없었다. 내전 안에서 안검열폭의 평균 증가는 right gaze 때에 0.29mm이고 left gaze 때에 0.21mm이었다.

  • PDF

트래킹 Gaze와 실시간 Eye (Real Time Eye and Gaze Tracking)

  • 조현섭;민진경
    • 한국산학기술학회:학술대회논문집
    • /
    • 한국산학기술학회 2004년도 추계학술대회
    • /
    • pp.234-239
    • /
    • 2004
  • This paper describes preliminary results we have obtained in developing a computer vision system based on active IR illumination for real time gaze tracking for interactive graphic display. Unlike most of the existing gaze tracking techniques, which often require assuming a static head to work well and require a cumbersome calibration process fur each person, our gaze tracker can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using the Generalized Regression Neural Networks (GRNN). With GRNN, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Furthermore, the mapping function can generalize to other individuals not used in the training. The effectiveness of our gaze tracker is demonstrated by preliminary experiments that involve gaze-contingent interactive graphic display.

  • PDF

Gaze Differences between Expert and Novice Teachers in Science Classes

  • Kim, Won-Jung;Byeon, Jung-Ho;Lee, Il-Sun;Kwon, Yong-Ju
    • 한국과학교육학회지
    • /
    • 제32권9호
    • /
    • pp.1443-1451
    • /
    • 2012
  • This study aims to investigate the gaze patterns of two expert and two novice teachers in one hour of lecture type class. Teachers recruited from the same middle school conducted the class each, wearing an eye-tracker. Gaze rate and gaze movement pattern were analyzed. The scene where teachers faced in the classroom was categorized into three zones; student zone, material zone, and non-teaching zone. Student zone was divided into nine areas of interest to see the gaze distribution within the student zone. Expert teachers showed focused gaze on student zone while novice teachers' gaze rate was significantly higher at the non-teaching zone, compared to expert teachers' one. Within student zone, expert teachers' gaze spread to the rear areas, but novice teachers' one was narrowly resided in the middle areas of the student zone. This difference in gaze caused different eye movement pattern: experts' T pattern and novices' I pattern. On the other hand, both teacher groups showed the least gaze rate onto the left and right front areas. Which change is required to teachers' gaze behavior and what must be considered in order to make effective teacher gaze in the classroom setting were discussed.

Robust pupil detection and gaze tracking under occlusion of eyes

  • Lee, Gyung-Ju;Kim, Jin-Suh;Kim, Gye-Young
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권10호
    • /
    • pp.11-19
    • /
    • 2016
  • The size of a display is large, The form becoming various of that do not apply to previous methods of gaze tracking and if setup gaze-track-camera above display, can solve the problem of size or height of display. However, This method can not use of infrared illumination information of reflected cornea using previous methods. In this paper, Robust pupil detecting method for eye's occlusion, corner point of inner eye and center of pupil, and using the face pose information proposes a method for calculating the simply position of the gaze. In the proposed method, capture the frame for gaze tracking that according to position of person transform camera mode of wide or narrow angle. If detect the face exist in field of view(FOV) in wide mode of camera, transform narrow mode of camera calculating position of face. The frame captured in narrow mode of camera include gaze direction information of person in long distance. The method for calculating the gaze direction consist of face pose estimation and gaze direction calculating step. Face pose estimation is estimated by mapping between feature point of detected face and 3D model. To calculate gaze direction the first, perform ellipse detect using splitting from iris edge information of pupil and if occlusion of pupil, estimate position of pupil with deformable template. Then using center of pupil and corner point of inner eye, face pose information calculate gaze position at display. In the experiment, proposed gaze tracking algorithm in this paper solve the constraints that form of a display, to calculate effectively gaze direction of person in the long distance using single camera, demonstrate in experiments by distance.

Real Time Eye and Gaze Tracking

  • Park Ho Sik;Nam Kee Hwan;Cho Hyeon Seob;Ra Sang Dong;Bae Cheol Soo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 학술대회지
    • /
    • pp.857-861
    • /
    • 2004
  • This paper describes preliminary results we have obtained in developing a computer vision system based on active IR illumination for real time gaze tracking for interactive graphic display. Unlike most of the existing gaze tracking techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze tracker can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using the Generalized Regression Neural Networks (GRNN). With GRNN, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Furthermore, the mapping function can generalize to other individuals not used in the training. The effectiveness of our gaze tracker is demonstrated by preliminary experiments that involve gaze-contingent interactive graphic display.

  • PDF

Development of a Non-contact Input System Based on User's Gaze-Tracking and Analysis of Input Factors

  • Jiyoung LIM;Seonjae LEE;Junbeom KIM;Yunseo KIM;Hae-Duck Joshua JEONG
    • 한국인공지능학회지
    • /
    • 제11권1호
    • /
    • pp.9-15
    • /
    • 2023
  • As mobile devices such as smartphones, tablets, and kiosks become increasingly prevalent, there is growing interest in developing alternative input systems in addition to traditional tools such as keyboards and mouses. Many people use their own bodies as a pointer to enter simple information on a mobile device. However, methods using the body have limitations due to psychological factors that make the contact method unstable, especially during a pandemic, and the risk of shoulder surfing attacks. To overcome these limitations, we propose a simple information input system that utilizes gaze-tracking technology to input passwords and control web surfing using only non-contact gaze. Our proposed system is designed to recognize information input when the user stares at a specific location on the screen in real-time, using intelligent gaze-tracking technology. We present an analysis of the relationship between the gaze input box, gaze time, and average input time, and report experimental results on the effects of varying the size of the gaze input box and gaze time required to achieve 100% accuracy in inputting information. Through this paper, we demonstrate the effectiveness of our system in mitigating the challenges of contact-based input methods, and providing a non-contact alternative that is both secure and convenient.

얼굴과 배경의 방향에 따른 시선 단서 효과 (The gaze cueing effect depending on the orientations of the face and its background)

  • 홍리정;김민식
    • 인지과학
    • /
    • 제34권2호
    • /
    • pp.85-110
    • /
    • 2023
  • 타인의 시선 방향과 시각적 표적이 나타나는 위치가 일치할 때 표적에 대한 탐지가 빠르고, 정확해지는 것을 시선 단서 효과(gaze cueing effect)라 한다. 시선 단서는 얼굴의 방향(orientation)에 의해 영향 받을 수 있는데, 얼굴이 똑바로(upright) 제시될 때는 강력한 시선 단서 효과가 나타나지만 얼굴이 180° 회전되어 거꾸로(inverted) 제시될 때는 일부 연구에서만 유의한 시선 단서 효과가 보고되었다(예, Tipples, 2005). 본 연구는 얼굴의 위아래가 거꾸로 제시될 때 시선이 주의를 유도하는 단서로 작동할 수 있는지 재확인하고, 얼굴의 방향 뿐 아니라 배경의 방향, 시선 단서와 표적 간의 시간 간격(SOA) 등 시선 단서에 영향을 미칠 수 있는 변인들을 체계적으로 조작하여 시선 단서의 효과를 살펴보고자 하였다. 실험 결과, 선행 연구와 달리 거꾸로 된 얼굴에서도 유의한 시선 단서 효과가 관찰되었으며, 이러한 결과는 배경이 없거나(실험 1), 배경이 있을 때(실험 2와 3) 모두 일관되게 관찰되었으며, 얼굴과 배경의 방향 간 상호작용은 유의하지 않았다. 또한 SOA가 짧을 때(150 ms) 모든 얼굴과 배경 방향 조건에서 유의한 시선 단서 효과가 관찰되었으나, SOA가 길 때는(1000 ms) 시선 단서 효과가 유의하지 않았다. 본 연구는 거꾸로 된 얼굴에서도 비교적 짧은 SOA 조건의 경우(150 ms) 유의한 시선 단서 효과가 일관적으로 관찰됨을 보여줌으로써 과거 거꾸로 된 얼굴에서 유의한 시선 단서 효과를 얻지 못했던 일부 연구 결과의 신뢰도와 반복 관찰 가능성에 의문을 제기함은 물론, 얼굴과 배경의 다양한 방향에서도 시선이 향하는 방향으로 주의가 유도될 수 있음을 보여주는 추가적 증거를 제공했다는 점에서 의미가 있다.

주시빈도를 적용한 패션숍 파사드 이미지 분석 (Analysis of the Fashion Shops' Images Applying Gaze Frequency)

  • 여미;오선애
    • 한국실내디자인학회논문집
    • /
    • 제22권6호
    • /
    • pp.212-219
    • /
    • 2013
  • This study uses a fashion shop facade design to track human gaze, find gaze frequency for gaze time for the gaze points along the path of sight, and expose the importance of facade design and figure out the value through theoretical systematization. Thus, this study employed the measurement method in physiological psychology which is sight-tracking device with eye-tracking to perform effective data evaluation. To find gaze frequency and study the contents to reflect on the facade, precedent study review, and case study of facade design to collect stimulants to be used in eye-tracking experiment were executed. And the eye-tracking experiment which traces the movement of eye[pupil] was performed. As the result of analyzing gaze frequency, The characteristics of such gaze path formation made the characteristics for gaze frequency even clearer. What was characteristic in the analysis result according to 'average value for gaze time' was that only 8 out of 2000 areas showed over 1 second of frequency and, and all other shoed less than 1 second of gaze time. This indicates that human sight endlessly jumps around, and that it 'Stay' where it has interest. This study found the average of the frequency of this 'Stay' in facade design. This study well presents the major points to add value to the design of the space of facade based on scientific measurement/analysis data obtained through visual understanding. Through such, this study is thought to be able to have a positive interaction with marketing by forming a theoretical background bringing utility to purchase environment and assisting in sales increase.

휴먼 컴퓨터 인터페이스를 위한 실시간 시선 식별 (Real Time Gaze Discrimination for Human Computer Interaction)

  • 박호식;배철수
    • 한국통신학회논문지
    • /
    • 제30권3C호
    • /
    • pp.125-132
    • /
    • 2005
  • 본 논문에서는 실시간 시선 식별을 위한 능동적 적외선 조명을 기반으로 한 컴퓨터 비전 시스템을 제안하고자 한다. 현존하는 대다수의 시선 식별 방법은 고정된 얼굴에서만 원활하게 동작하고 개개인에 대한 교정 절차를 필요로 한다. 그러므로 본 논문에서는 교정 작업 없이 얼굴 움직임이 있는 경우에도 견실하고 정확하게 동작하는 시선 식별 시스템을 제안하고 있다. 제안된 시스템은 추출된 변수로부터 시선을 스크린 좌표로 매핑하기 위해 GRNN을 이용하였다. 동공을 추적하여 GRNN을 사용함으로서, 시선 매핑에 분석적 기능이나 얼굴 움직임에 대한 계산이 필요 없을 뿐 아니라 다른 개개인에 대하여 학습과정에서 매핑 기능을 일반화 할 수 있었다. 시선 예측 정확도를 개선하고자 계층적 식별을 제안함으로써 오분류를 줄일 수 있었고, 공간 시선 해상도는 스크린에서 1m 정도 떨어진 거리에서 수평으로 10cm, 수직으로 약 13cm, 즉 수평으로 8도 수직으로 5도 이었다. 실험 결과, 재식별 하였을 경우 1차 시선 식별시 84%보다 약 9% 정도 정확성이 향상되어 93%를 나타냄으로써 제안된 시스템의 유효성을 증명하였다.

컴퓨터 인터페이스를 위한 실시간 시선 식별 (Real Time Gaze Discrimination for Computer Interface)

  • 황선기;김문환
    • 한국정보전자통신기술학회논문지
    • /
    • 제3권1호
    • /
    • pp.38-46
    • /
    • 2010
  • 본 논문에서는 실시간 시선 식별을 위한 능동적 적외선 조명을 기반으로 한 컴퓨터 비전 시스템을 제안 하고자 한다. 현존하는 대다수의 시선 식별 방법은 고정된 얼굴에서만 원활하게 동작하고 개개인에 대한 교정 절차를 필요로 한다. 그러므로 본 논문에서는 교정 작업 없이 얼굴 움직임이 있는 경우에도 견실하고 정확하게 동작하는 시선 식별 시스템을 제안하고 있다. 제안된 시스템은 추출된 변수로부터 시선을 스크린 좌표로 매핑하기 위해 GRNN을 이용하였다. 동공을 추적하여 GRNN을 사용함으로서, 시선 매핑에 분석적 기능이나 얼굴 움직임에 대한 계산이 필요 없을 뿐 아니라 다른 개개인에 대하여 학습과정에서 매핑 기능을 일반화 할 수 있었다. 시선 예측 정확도를 개선하고자 계층적 식별을 제안함으로써 오분류를 줄일 수 있었고, 공간 시선 해상도는 스크린에서 1m 정도 떨어진 거리에서 수평으로 10cm, 수직으로 약 13cm, 즉 수평으로 8도 수직으로 5도 이었다. 실험 결과, 재식별 하였을 경우 1차 시선 식별시 84%보다 약 9% 정도 정확성이 향상되어 93%를 나타냄으로써 제안된 시스템의 유효성을 증명하였다.

  • PDF