• 제목/요약/키워드: Eye gaze information

검색결과 104건 처리시간 0.03초

A Simple Eye Gaze Correction Scheme Using 3D Affine Transformation and Image In-painting Technique

  • Ko, Eunsang;Ho, Yo-Sung
    • Journal of Multimedia Information System
    • /
    • 제5권2호
    • /
    • pp.83-86
    • /
    • 2018
  • Owing to high speed internet technologies, video conferencing systems are exploited in our home as well as work places using a laptop or a webcam. Although eye contact in the video conferencing system is significant, most systems do not support good eye contact due to improper locations of cameras. Several ideas have been proposed to solve the eye contact problem; however, some of them require complicated hardware configurations and expensive customized hardwares. In this paper, we propose a simple eye gaze correction method using the three-dimensional (3D) affine transformation. We also apply an image in-painting method to fill empty holes that are caused by round-off errors from the coordinate transformation. From experiments, we obtained visually improved results.

상업시설 공간구성의 실시간 시선추적에 나타난 소비자 시지각 정보획득 특성 연구 (A Study on the Characteristics of Consumer Visual-Perceptional Information Acquisition in Commercial Facilities in Regard to its Construction of Space from Real-Time Eye Gaze Tracking)

  • 박선명
    • 감성과학
    • /
    • 제21권2호
    • /
    • pp.3-14
    • /
    • 2018
  • 소비자들의 구매 욕구를 충족시키기 위하여 상업시설에서는 판매와 관련된 다양한 공간표현이 요구되고, 소비자의 시선을 끄는 상품의 배치나 공간구성은 곧 마케팅 전략으로 이어질 수 있다. 사람의 눈은 가장 많은 정보를 획득하는 감각기관으로 시각정보에 대한 분석은 <공간과 사용자>의 상호간의 시각적 관련성을 파악할 수 있는데, 그간 연구에서는 실험이미지를 통해 정지된 화상에 대한 분석이 대다수 이며, 상업공간의 이동영상을 바탕으로 공간에 대한 시선정보를 분석한 연구는 미비하다. 이에 본 연구에서는 상업시설의 이동경로를 촬영한 동영상을 실험에 사용함으로써 공간분석에 있어 사실감이 부여된 공간 사용자 시선정보를 통한 감성반응을 분석하였다. 이동동선의 직선구간을 분석구간으로 설정하고, 획득된 데이터를 바탕으로 5개의 주시강도 범위에 대한 구간특성을 살펴본 결과, 이동동선의 시작점인 A구간(직선구간-1)에서는 주시강도가 낮게 나타났으며, B구간(직선구간-2)에서 가장 높은 주시강도가 나타난 것을 알 수 있다. 이는 피험자들의 B구간부터 안정적인 공간 탐색을 한 것으로 볼 수 있으며, 실험영상에 대한 적응시간이 필요한 것을 알 수 있다. 주시집중구역에 대한 공간특성을 살펴보면, 6개 구간 중 4개 구간에서 우측매장의 진열방식에 대한 시선의 집중이 더 높게 나타난 것을 알 수 있다. 소비자의 시선이 높게 머무른 요소는 소품위주로 시선이 유도되었으며, 매장 내 쇼케이스 같은 진열형식에 시선정보가 높게 나타난 것을 알 수 있다. 이러한 분석방법을 통해 소비자의 시선이 선호하는 상품진열방법, 상품요소 배치 등 직접적인 디자인 자료로 활용 가치가 높게 제공될 수 있을 것으로 사료된다.

Real Time Eye and Gaze Tracking

  • Park Ho Sik;Nam Kee Hwan;Cho Hyeon Seob;Ra Sang Dong;Bae Cheol Soo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 학술대회지
    • /
    • pp.857-861
    • /
    • 2004
  • This paper describes preliminary results we have obtained in developing a computer vision system based on active IR illumination for real time gaze tracking for interactive graphic display. Unlike most of the existing gaze tracking techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze tracker can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using the Generalized Regression Neural Networks (GRNN). With GRNN, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Furthermore, the mapping function can generalize to other individuals not used in the training. The effectiveness of our gaze tracker is demonstrated by preliminary experiments that involve gaze-contingent interactive graphic display.

  • PDF

시선 깊이 추정 기법을 이용한 OST-HMD 자동 스위칭 방법 (Method for Automatic Switching Screen of OST-HMD using Gaze Depth Estimation)

  • 이영호;신춘성
    • 스마트미디어저널
    • /
    • 제7권1호
    • /
    • pp.31-36
    • /
    • 2018
  • 본 논문에서는 시선 깊이 추정 기술을 이용한 OST-HMD의 자동화면 on/off 기능을 제안한다. 제안하는 방법은 MLP(Multi-layer Perceptron)을 이용하여 사용자의 시선 정보와 보는 물체의 거리를 학습 한 후, 시선 정보만 입력하여 거리를 추정한다. 학습 단계에서는 착용 할 수 있는 양안 추적기를 사용하여 시선 관련 특징을 얻는다. 그런 다음 이 특징을 다층 퍼셉트론 (MLP: Multi-layer Perceptron)에 입력하여 학습하고 모델을 생성한다. 추론 단계에서는 안구 추적기로부터 실시간으로 시선 관련 특징을 얻고 이를 MLP에 입력하여 추정 깊이 값을 얻는다. 마지막으로 HMD의 화면을 켜거나 끌 것인지 여부를 결정하기 위해 이 계산결과를 활용한다. 제안된 방법의 가능성을 평가하기 위해 프로토타입을 구현하고 실험을 수행하였다.

1 인칭 슈팅 게임에서 눈동자 시선 추적에 의한 3차원 화면 조정 (3D View Controlling by Using Eye Gaze Tracking in First Person Shooting Game)

  • 이의철;조용주;박강령
    • 한국멀티미디어학회논문지
    • /
    • 제8권10호
    • /
    • pp.1293-1305
    • /
    • 2005
  • 본 논문에서는 HMD(head mounted display) 하단에 눈동자의 움직임 영상을 취득할 수 있는 USB 카메라를 부착한 후, 3차원 1인칭 슈팅(first Person shooting) 게임에서 게임 캐릭터의 시선방향을 눈동자 움직임에 의해 조작하는 방법을 제안한다. 본 논문에서 제안하는 방법은 다음과 같이 세 부분으로 구성된다. 첫 번째는 입력 영상으로부터 눈동자의 중심 위치를 실시간 영상 처리 방법으로 추출하는 부분, 두 번째는 HMD 모니터상의 임의 지점을 쳐다볼 때 추출된 눈동자의 위치 정보와 모니터상의 응시 위치 사이의 기하학적인 연관관계를 결정하는 캘리브레이션 부분, 그리고 마지막은 캘리브레이션 정보를 기반으로 모니터 상의 최종적인 응시 위치를 결정하고, 이 정보에 의해 게임상의 3차원 뷰(view) 방향을 조정하는 부분으로 구성된다. 실험 결과, 본 논문의 방법에 의해 손이 불편한 사용자에게 게임을 즐길 수 있는 기회를 제공하고, 게임 캐릭터와 게임 사용자의 시선 방향을 일치시킴으로서 게임의 흥미와 몰입감을 증가시키는 결과를 얻을 수 있었다.

  • PDF

눈의 응시 방향을 이용한 인간-컴퓨터간의 인터페이스에 관한 연구 (Human-Computer Interface using the Eye-Gaze Direction)

  • 김도형;김재헌;정명진
    • 전자공학회논문지CI
    • /
    • 제38권6호
    • /
    • pp.46-56
    • /
    • 2001
  • 본 논문에서는 연속적인 영상 정보와 자기 센서의 정보로부터 실시간으로 눈의 응시 방향을 추적하기 위한 효과적인 접근 방법에 대해 제안한다. 이러한 눈 응시 추적 시스템의 입력으로는 한 대의 카메라를 통해 얻어지는 영상들과 자기 센서의 데이터들이다. 눈의 영상을 받아들이는 카메라와 자기 센서의 수신부가 머리에 고정되어 있어서 측정된 데이터들은 눈과 머리의 움직임을 표현하는데 충분하다. 실험 결과에서는 제안한 시스템이 실시간으로 동작하는 측면에 대해 그 유용성을 보여줄 것이고 또 그러한 시스템을 이용하여 마우스 대신 새로운 컴퓨터 인터페이스로 사용할 수 있다는 가능성을 보여줄 것이다.

  • PDF

머리 움직임이 자유로운 안구 응시 추정 시스템 (Eye Gaze Tracking System Under Natural Head Movements)

  • 김수찬
    • 전자공학회논문지SC
    • /
    • 제41권5호
    • /
    • pp.57-64
    • /
    • 2004
  • 한 대의 카메라와 반사각의 조절이 가능한 2개의 거울, 그리고 별도의 적외선 광원을 이용하여 자유로운 머리 움직임이 가능한 안구 응시점 추정 시스템을 제안하였다. 거울의 회전 각도는 카메라의 광축(opticai axis) 상에 안구가 올 수 있도록 공간 좌표계와 선형 방정식을 이용하여 계산하였다 제안한 시스템은 수평 방향으로 90cm 수직 방향으로 60cm 범위 내에서의 머리 움직임이 가능하였고, 응시점의 공간 해상도 각각 6°, 7°이며, 시간 해상도는 10~15 frames/sec이었다. Generalized regression neural networks(GRNN)을 기반으로 하여 2단계의 GRNN을 거치는 소위 hierarchical generalized regression neural networks(H-GRNN)을 이용하여 얻어진 인자를 모니터 좌표로 변환하였다. GRNN을 한번 사용하였을 경우 정확도가 85%이었으나 H-GRNN을 이용할 경우 약 9% 높은 94%의 정확도를 얻을 수 있었다. 그리고 입력 파라미터의 정규화를 통하여 재보정의 불편함을 제거했을 뿐만 아니라 약간의 얼굴 회전이 발생하였을 경우에도 동일한 성능을 보였다. 본 시스템은 공간 해상도는 크게 높지 않으나 자유로운 머리 움직임을 허용되므로 안정성과 피검자의 활동에 제약을 줄였다는 점에서 의의를 찾을 수 있다.

동공 움직임, 각막 반사광 및 Kalman Filter 기반 시선 추적에 관한 연구 (A Study on Gaze Tracking Based on Pupil Movement, Corneal Specular Reflections and Kalman Filter)

  • 박강령;고유진;이의철
    • 정보처리학회논문지B
    • /
    • 제16B권3호
    • /
    • pp.203-214
    • /
    • 2009
  • 본 연구에서는 모니터, 카메라 및 눈동자 좌표계간의 복잡한 3차원 관계를 고려하지 않고, 동공의 중심 위치와 모니터의 구석에 설치된 적외선 조명에 의한 네 개의 조명 반사광 사이의 관계를 사용하여 2차원적인 변환 방법으로 사용자의 시선 위치를 파악한다. 동공중심과 조명 반사광을 정확하게 추출하고, 이를 통해 계산된 시선 위치 계산의 정확도에 영향을 줄 수 있는 오차 요소들을 보정하는 것이 본 연구의 목적이다. 이를 위하여, 동공 중심을 통해 계산된 시선위치와 실제 시선 축이 이루는 카파에러를 초기 1회의 사용자 캘리브레이션을 통해 보정하였다. 또한, 칼만 필터를 기반으로 눈의 급격한 움직임 변화에도 각막 조명 반사광을 안정적으로 추적하여 시선 위치를 정확하게 추적한다. 실험 결과, 제안한 연구방법의 시선 위치 추출 오차는 눈의 급격한 움직임 변화에 상관없이 약 1.0$^\circ$ 를 나타냈다.

실시간 눈과 시선 위치 추적 (Real Time Eye and Gaze Tracking)

  • 이영식;배철수
    • 한국정보통신학회논문지
    • /
    • 제8권2호
    • /
    • pp.477-483
    • /
    • 2004
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참석하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90%, 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.

Development of a Non-contact Input System Based on User's Gaze-Tracking and Analysis of Input Factors

  • Jiyoung LIM;Seonjae LEE;Junbeom KIM;Yunseo KIM;Hae-Duck Joshua JEONG
    • 한국인공지능학회지
    • /
    • 제11권1호
    • /
    • pp.9-15
    • /
    • 2023
  • As mobile devices such as smartphones, tablets, and kiosks become increasingly prevalent, there is growing interest in developing alternative input systems in addition to traditional tools such as keyboards and mouses. Many people use their own bodies as a pointer to enter simple information on a mobile device. However, methods using the body have limitations due to psychological factors that make the contact method unstable, especially during a pandemic, and the risk of shoulder surfing attacks. To overcome these limitations, we propose a simple information input system that utilizes gaze-tracking technology to input passwords and control web surfing using only non-contact gaze. Our proposed system is designed to recognize information input when the user stares at a specific location on the screen in real-time, using intelligent gaze-tracking technology. We present an analysis of the relationship between the gaze input box, gaze time, and average input time, and report experimental results on the effects of varying the size of the gaze input box and gaze time required to achieve 100% accuracy in inputting information. Through this paper, we demonstrate the effectiveness of our system in mitigating the challenges of contact-based input methods, and providing a non-contact alternative that is both secure and convenient.