• 제목/요약/키워드: Gaze tracking

검색결과 166건 처리시간 0.03초

Visual Modeling and Content-based Processing for Video Data Storage and Delivery

  • Hwang Jae-Jeong;Cho Sang-Gyu
    • Journal of information and communication convergence engineering
    • /
    • 제3권1호
    • /
    • pp.56-61
    • /
    • 2005
  • In this paper, we present a video rate control scheme for storage and delivery in which the time-varying viewing interests are controlled by human gaze. To track the gaze, the pupil's movement is detected using the three-step process : detecting face region, eye region, and pupil point. To control bit rates, the quantization parameter (QP) is changed by considering the static parameters, the video object priority derived from the pupil tracking, the target PSNR, and the weighted distortion value of the coder. As results, we achieved human interfaced visual model and corresponding region-of-interest rate control system.

응시 위치 추적 기술을 이용한 인터페이스 시스템 개발 (Computer Interface Using Head-Gaze Tracking)

  • 이정준;박강령;김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 하계종합학술대회 논문집
    • /
    • pp.516-519
    • /
    • 1999
  • Gaze detection is to find out the position on a monitor screen where a user is looking at, using the image processing and computer vision technology, We developed a computer interface system using the gaze detection technology, This system enables a user to control the computer system without using their hands. So this system will help the handicapped to use a computer and is also useful for the man whose hands are busy doing another job, especially in tasks in factory. For the practical use, command signal like mouse clicking is necessary and we used eye winking to give this command signal to the system.

  • PDF

로봇 캐릭터와의 상호작용에서 사용자의 시선 배분 분석 (Analysis of User's Eye Gaze Distribution while Interacting with a Robotic Character)

  • 장세윤;조혜경
    • 로봇학회논문지
    • /
    • 제14권1호
    • /
    • pp.74-79
    • /
    • 2019
  • In this paper, we develop a virtual experimental environment to investigate users' eye gaze in human-robot social interaction, and verify it's potential for further studies. The system consists of a 3D robot character capable of hosting simple interactions with a user, and a gaze processing module recording which body part of the robot character, such as eyes, mouth or arms, the user is looking at, regardless of whether the robot is stationary or moving. To verify that the results acquired on this virtual environment are aligned with those of physically existing robots, we performed robot-guided quiz sessions with 120 participants and compared the participants' gaze patterns with those in previous works. The results included the followings. First, when interacting with the robot character, the user's gaze pattern showed similar statistics as the conversations between humans. Second, an animated mouth of the robot character received longer attention compared to the stationary one. Third, nonverbal interactions such as leakage cues were also effective in the interaction with the robot character, and the correct answer ratios of the cued groups were higher. Finally, gender differences in the users' gaze were observed, especially in the frequency of the mutual gaze.

POSTIT정보 이용한 실시간 눈동자 시선 추적 (Using POSTIT Eye Gaze Tracking in Real-time)

  • 김미경;최연석;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2012년도 춘계학술대회
    • /
    • pp.750-753
    • /
    • 2012
  • 본 논문은 얼굴에서 왼쪽 눈, 오른쪽 눈, 입, 코의 위치를 검출하고 POSIT(Pose from Orthography and Scaling with ITterations) 알고리즘을 이용하여 3차원 객체의 위치와 방향을 알아내는 방법을 제안한다. 왼쪽, 오른쪽 눈을 검출하는 단계에서는 사람의 얼굴에서 눈이 가지는 위상학적 특징과 형태학적 특징을 이용한다. 위상학적 특징을 기반으로 눈의 대략적인 위치를 구하고 형태학적인 특징을 이용하여 눈동자를 검출한다. 4개의 특징점 검출 후 POSTIT를 이용하여 얼굴의 회전 정도를 찾아 눈의 시선 방향을 찾았다.

  • PDF

퓨필랩 모바일 동공 추적 장치를 위한 3차원 캘리브레이션 및 성능 평가 방법 (3-Dimensional Calibration and Performance Evaluation Method for Pupil-labs Mobile Pupil Tracking Device)

  • 문지훈;신동원;호요성
    • 스마트미디어저널
    • /
    • 제7권2호
    • /
    • pp.15-22
    • /
    • 2018
  • 동공 추적 기술은 스마트 장치와 연계하여 사용자에게 편의를 제공할 수 있는 효율적인 정보 제공 수단으로 사용될 수 있다. 본 논문에서는 Pupil-labs에서 제작한 모바일 동공 추적 장치를 사용하여 사용자의 응시점 거리를 측정하고, 정확도와 정밀도를 분석하는 실험 수행결과를 보인다. 이를 기반으로 동공 추적 장치가 측정하는 동공의 응시점 위치와 대상 타겟과의 오차를 비교한다. 모바일 동공 추적 장치도 한 종류의 카메라이기 때문에 사용하기 전에는 반드시 캘리브레이션 작업을 수행해야 한다. 일반적으로 사용하는 2차원 캘리브레이션 방법뿐만 아니라, 3차원 캘리브레이션 수행 방법에 대해 설명한다. 3차원 캘리브레이션은 2차원 캘리브레이션 결과보다 높은 정확도를 갖기 위해임의의 평면을 설정하여 다양한 3차원 공간상에서 캘리브레이션을 수행하는 과정을 의미한다. 3차원 캘리브레이션의 효율성을 보이기 위해 실험결과에 대한 분석 결과를 설명한다. 또한 전반적인 장치의 사용 방법과 장치를 통해 얻을 수 있는 다양한 정보를 소개한다.

HCI를 위한 시선추적 시스템에서 분해능의 추정기법 (Resolution Estimation Technique in Gaze Tracking System for HCI)

  • 김기봉;최현호
    • 융합정보논문지
    • /
    • 제11권1호
    • /
    • pp.20-27
    • /
    • 2021
  • 시선추적은 NUI 기술 중의 하나로 사용자가 응시하는 곳을 추적을 통해 알아낸다. 이 기술은 텍스트를 입력하거나 GUI를 제어할 수 있도록 하고 더 나아가 사용자의 시선 분석도 가능하게 하여 상업 광고 등에 응용될 수 있도록 한다. 시선추적 시스템은 영상의 품질과 사용자 움직임의 자유도에 따라 허용범위가 달라진다. 따라서 시선추적의 정밀도를 미리 추정하는 방법이 필요하다. 시선추적의 정확도는 하드웨어적인 변수 외에도 시선추적 알고리즘을 어떻게 구현하느냐에 따라 많은 영향을 받는다. 이에 따라 본 논문에서는 영상에서 동공 중심의 가능한 최대 이동 거리의 추정으로 동공 중심이 한 픽셀 움직일 때 시선은 몇 도가 바뀌는지 즉, 이론적 최대 분해능이 얼마인지를 추정하는 방법을 제시한다.

Use of gaze entropy to evaluate situation awareness in emergency accident situations of nuclear power plant

  • Lee, Yejin;Jung, Kwang-Tae;Lee, Hyun-Chul
    • Nuclear Engineering and Technology
    • /
    • 제54권4호
    • /
    • pp.1261-1270
    • /
    • 2022
  • This study was conducted to investigate the possibility of using gaze entropy to evaluate an operator's situation awareness in an emergency accident situation of a nuclear power plant. Gaze entropy can be an effective measure for evaluating an operator's situation awareness at a nuclear power plant because it can express gaze movement as a single comprehensive number. In order to determine the relationship between situation awareness and gaze entropy for an emergency accident situation of a nuclear power plant, an experiment was conducted to measure situation awareness and gaze entropy using simulators created for emergency accident situations LOCA, SGTR, SLB, and LOV. The experiment was to judge the accident situation of nuclear power plants presented in the simulator. The results showed that situation awareness and Shannon, dwell time, and Markov entropy had a significant negative correlation, while visual attention entropy (VAE) did not show any significant correlation with situation awareness. The results determined that Shannon entropy, dwell time entropy, and Markov entropy could be used as measures to evaluate situation awareness.

휴먼 컴퓨터 인터페이스를 위한 실시간 시선 식별 (Real Time Gaze Discrimination for Human Computer Interaction)

  • 박호식;배철수
    • 한국통신학회논문지
    • /
    • 제30권3C호
    • /
    • pp.125-132
    • /
    • 2005
  • 본 논문에서는 실시간 시선 식별을 위한 능동적 적외선 조명을 기반으로 한 컴퓨터 비전 시스템을 제안하고자 한다. 현존하는 대다수의 시선 식별 방법은 고정된 얼굴에서만 원활하게 동작하고 개개인에 대한 교정 절차를 필요로 한다. 그러므로 본 논문에서는 교정 작업 없이 얼굴 움직임이 있는 경우에도 견실하고 정확하게 동작하는 시선 식별 시스템을 제안하고 있다. 제안된 시스템은 추출된 변수로부터 시선을 스크린 좌표로 매핑하기 위해 GRNN을 이용하였다. 동공을 추적하여 GRNN을 사용함으로서, 시선 매핑에 분석적 기능이나 얼굴 움직임에 대한 계산이 필요 없을 뿐 아니라 다른 개개인에 대하여 학습과정에서 매핑 기능을 일반화 할 수 있었다. 시선 예측 정확도를 개선하고자 계층적 식별을 제안함으로써 오분류를 줄일 수 있었고, 공간 시선 해상도는 스크린에서 1m 정도 떨어진 거리에서 수평으로 10cm, 수직으로 약 13cm, 즉 수평으로 8도 수직으로 5도 이었다. 실험 결과, 재식별 하였을 경우 1차 시선 식별시 84%보다 약 9% 정도 정확성이 향상되어 93%를 나타냄으로써 제안된 시스템의 유효성을 증명하였다.

컴퓨터 인터페이스를 위한 실시간 시선 식별 (Real Time Gaze Discrimination for Computer Interface)

  • 황선기;김문환
    • 한국정보전자통신기술학회논문지
    • /
    • 제3권1호
    • /
    • pp.38-46
    • /
    • 2010
  • 본 논문에서는 실시간 시선 식별을 위한 능동적 적외선 조명을 기반으로 한 컴퓨터 비전 시스템을 제안 하고자 한다. 현존하는 대다수의 시선 식별 방법은 고정된 얼굴에서만 원활하게 동작하고 개개인에 대한 교정 절차를 필요로 한다. 그러므로 본 논문에서는 교정 작업 없이 얼굴 움직임이 있는 경우에도 견실하고 정확하게 동작하는 시선 식별 시스템을 제안하고 있다. 제안된 시스템은 추출된 변수로부터 시선을 스크린 좌표로 매핑하기 위해 GRNN을 이용하였다. 동공을 추적하여 GRNN을 사용함으로서, 시선 매핑에 분석적 기능이나 얼굴 움직임에 대한 계산이 필요 없을 뿐 아니라 다른 개개인에 대하여 학습과정에서 매핑 기능을 일반화 할 수 있었다. 시선 예측 정확도를 개선하고자 계층적 식별을 제안함으로써 오분류를 줄일 수 있었고, 공간 시선 해상도는 스크린에서 1m 정도 떨어진 거리에서 수평으로 10cm, 수직으로 약 13cm, 즉 수평으로 8도 수직으로 5도 이었다. 실험 결과, 재식별 하였을 경우 1차 시선 식별시 84%보다 약 9% 정도 정확성이 향상되어 93%를 나타냄으로써 제안된 시스템의 유효성을 증명하였다.

  • PDF

GRNN을 이용한 실시간 시선 식별 시스템에 관한 연구 (A Study on Real Time Gaze Discrimination System using GRNN)

  • 이영식;배철수
    • 한국정보통신학회논문지
    • /
    • 제9권2호
    • /
    • pp.322-329
    • /
    • 2005
  • 본 논문에서는 실시간 시선 식별을 위한 능동적 적외선 조명을 기반으로 한 컴퓨터 비전 시스템을 제안하고자 한다. 현존하는 대다수의 시선 식별 방법은 고정된 얼굴에서만 원활하게 동작하고 개개인에 대한 교정 절차를 필요로 한다. 그러므로 본 논문에서는 교정 작업 없이 얼굴 움직임이 있는 경우에도 견실하고 정화하게 동작하는 시선 식별 시스템을 제안하고 있다. 제안된 시스템은 추출된 변수로부터 시선을 스크린 좌표로 매핑하기 위해 GRNN을 이용하였다. GRNN을 사용함으로서, 시선 매핑에 분석적 기능이나 얼굴 움직임에 대한 계산이 필요 없을 뿐 아니라 다른 개개인에 대하여 학습과정에서 매핑 기능을 일반화 할 수 있었다. 시선 예측 정확도를 개선하고자 계층적 식별을 제안함으로써 오분류를 줄일 수 있었고, 공간 시선 해상도는 스크린에서 Im 정도 떨어진 거리에서 수평으로 10cm, 수직으로 약 13cm, 즉 수평으로 8도 수직으로 5도 이었다 실험 결과, 재식별 하였을 경우 1차 시선 식별시 84$\%$보다 약 9$\%$ 정도 정확성이 향상되어 93%를 나타냄으로써 제안된 시스템의 유효성을 증명하였다.