• Title/Summary/Keyword: 응시하기

Search Result 307, Processing Time 0.023 seconds

Extraction of gaze-points by circular error correction template (에러 보정 템플레이트를 이용한 모니터 응시점 추출)

  • 박기범;최형일
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.529-531
    • /
    • 1998
  • 모니터의 한 좌표를 응시하고 있을 때의 눈 영상을 카메라로 획득하고, 눈 영역 영상에 대한 눈동자의 좌표를 계산하여 사용자가 모니터의 어느 부분을 응시한 것인지를 알아내는 것이 본 논문의 주요 목적이다. 카메라로 획득하여 계산된 눈동자의 좌표는 2차원 평면상에서 계산된 것이므로, 응시 각도나 응시 거리등의 3차원 정보가 손실되어 응시점에 대한 보다 정확한 매핑을 하기 위해 눈동자 좌표의 보정이 필요하게 된다. 획득된 눈 영상의눈동자 좌표 이외에 흰자위 비율 및 원형 템플레이트를 사용한 가중치 벡터를 더하여 개략적으로 얻어진 눈동자 좌표에 대한 응시 초점의 오차를 보정한다. 눈 영상에서의 보정된 눈동자 응시 초점 좌표를 모니터 평면 좌표로 매핑하여 모니터에 대한 사용자의 응시점을 찾아낸다. 이때, 계산된 모니터의 응시점이 명령 영역에 해당하면, 해당 명령을 실행시킴으로써 사용자는 모니터 화면을 응시하는 단순 동작만으로 컴퓨터에게 원하는 명령 실행을 요구할 수 있으므로 키보드나 마우스의 입력 장치를 본 시스템으로 대체할 수 있다.

  • PDF

A comparison of the effects of disparity between focal vs. peripheral object on visual fatigue (응시대상과 비응시대상의 시차가 시각피로에 미치는 영향 비교)

  • Lee, Sanggeun;Park, JongJin;Kim, ShinWoo;Li, Hyung-Chul O.
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2013.06a
    • /
    • pp.157-159
    • /
    • 2013
  • 3D 산업은 그 실용적인 활용가치로 인해 주목받고 있다. 안정적인 3D 시청환경을 구축하기 위해서는 구현기술의 발전이 중요한 과제이지만, 현재의 기술 수준이 제한적이기 때문에 사용자가 시청환경에 대해 주관적으로 느끼는 부분을 다루는'휴먼팩터 (Human-factor)'를 연구하는 것 또한 중요하다. 그 중 시각피로는 안정적인 3D시청환경 구축과 직결되는 중요한 문제이며, 이러한 시각피로의 주요원인은 수렴-조절 불일치 현상이다. 본 연구는 수렴-조절 불일치에 직접적인 영향을 미치는 것이 화면시차 자체가 아니라 수렴각에 영향을 미치는 응시대상의 화면시차라고 가정하였다. 따라서 응시대상의 화면시차가 3D상황에서 수렴조절 불일치를 유발하는지를 규명하기 위하여 시청자들을 대상으로 응시대상의 화면시차를 조작하면서 그것이 시각피로에 영향을 주는지를 측정하였다. 결과는 예상대로 다른 대상들보다 응시대상의 시차가 시각피로에 주요한 영향력을 준다는 것을 함축하고 있으며, 그 외에 비-응시대상과 관련된 이슈들이 논의되었다. 결론적으로, 응시대상의 시차를 적절하게 통제함으로써 사용자의 시각피로를 최소화 할 수 있으며, 이는 시각 3D 환경을 구축하는 데에 도움이 될 것이다.

  • PDF

Gaze Detection Using Facial Movement in Multimodal Interface (얼굴의 움직임을 이용한 다중 모드 인터페이스에서의 응시 위치 추출)

  • 박강령;남시욱;한승철;김재희
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1997.11a
    • /
    • pp.168-173
    • /
    • 1997
  • 시선의 추출을 통해 사용자의 관심 방향을 알고자하는 연구는 여러 분야에 응용될 수 있는데, 대표적인 것이 장애인의 컴퓨터 이용이나, 다중 윈도우에서 마우스의 기능 대용 및, VR에서의 위치 추적 장비의 대용 그리고 원격 회의 시스템에서의 view controlling등이다. 기존의 대부분의 연구들에서는 얼굴의 입력된 동영상으로부터 얼굴의 3차원 움직임량(rotation, translation)을 구하는데 중점을 두고 있으나 [1][2], 모니터, 카메라, 얼굴 좌표계간의 복잡한 변환 과정때문에 이를 바탕으로 사용자의 응시 위치를 파악하고자하는 연구는 거으 이루어지지 않고 있다. 본 논문에서는 일반 사무실 환경에서 입력된 얼굴 동영상으로부터 얼굴 영역 및 얼굴내의 눈, 코, 입 영역 등을 추출함으로써 모니터의 일정 영역을 응시하는 순간 변화된 특징점들의 위치 및 특징점들이 형성하는 기하학적 모양의 변화를 바탕으로 응시 위치를 계산하였다. 이때 앞의 세 좌표계간의 복잡한 변환 관계를 해결하기 위하여, 신경망 구조(다층 퍼셉트론)을 이용하였다. 신경망의 학습 과정을 위해서는 모니터 화면을 15영역(가로 5등분, 세로 3등분)으로 분할하여 각 영역의 중심점을 응시할 때 추출된 특징점들을 사용하였다. 이때 학습된 15개의 응시 위치이외에 또 다른 응시 영역에 대한 출력값을 얻기 위해, 출력 함수로 연속적이고 미분가능한 함수(linear output function)를 사용하였다. 실험 결과 신경망을 이용한 응시위치 파악 결과가 선형 보간법[3]을 사용한 결과보다 정확한 성능을 나타냈다.

  • PDF

Correcting the gaze depth by using DNN (DNN을 이용한 응시 깊이 보정)

  • Seok-Ho Han;Hoon-Seok Jang
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.16 no.3
    • /
    • pp.123-129
    • /
    • 2023
  • if we know what we're looking at, we can get a lot of information. Due to the development of eye tracking, Information on gaze point can be obtained through software provided by various eye tracking equipments. However, it is difficult to estimate accurate information such as the actual gaze depth. If it is possible to calibrate the eye tracker with the actual gaze depth, it will enable the derivation of realistic and accurate results with reliable validity in various fields such as simulation, digital twin, VR, and more. Therefore, in this paper, we experiment with acquiring and calibrating raw gaze depth using an eye tracker and software. The experiment involves designing a Deep Neural Network (DNN) model and then acquiring gaze depth values provided by the software for specified distances from 300mm to 10,000mm. The acquired data is trained through the designed DNN model and calibrated to correspond to the actual gaze depth. In our experiments with the calibrated model, we were able to achieve actual gaze depth values of 297mm, 904mm, 1,485mm, 2,005mm, 3,011mm, 4,021mm, 4,972mm, 6,027mm, 7,026mm, 8,043mm, 9,021mm, and 10,076mm for the specified distances from 300mm to 10,000mm.

Effects of ad endorser's gaze directions on social perceptions and advertising effectiveness (광고 모델의 시선 효과: 모델의 사회적 특성 지각과 광고 효과성)

  • Kang, Jungsuk
    • Science of Emotion and Sensibility
    • /
    • v.18 no.1
    • /
    • pp.3-14
    • /
    • 2015
  • An ad endorser's gaze direction is a salient nonverbal cue that consumers use in responding to advertisements. The gaze direction influences consumers' social perceptions (e.g., attractiveness, credibility) of the endorser and advertising effectiveness (e.g., advertising attitudes, brand attitudes). Especially, the cerebral emotional asymmetry hypothesis suggests that an ad endorser's left-averted gaze can produce more positive social perceptions and advertising effectiveness than the right-averted gaze for right-handed consumers. This study examined the effects of three gaze directions (direct, left-averted and right-averted gaze directions) of unknown female ad endorser on Korean males' advertising responses (attractiveness-, credibility- and ad-effectiveness-related responses), using online experimental method. The results indicated that the ad endorser's direct gaze was more likely to increase both positive (correspondence bias) and negative (suspicion, deceptiveness) social perceptions of her than the right-averted gaze. The direct gaze also created more positive advertising effectiveness (advertising attitudes) than the right-averted gaze. However, the study failed to find consistent differences in responses between left-averted gaze and either direct or right-averted gaze.

Difference in Rotation Pattern of Toric Soft Contact Lenses with Different Axis Stabilization Design (축 안정화 디자인이 상이한 토릭소프트콘택트렌즈의 회전 양상 차이)

  • Park, So Hyun;Kim, Dong Yeon;Choi, Joo Hee;Byun, Hyun Young;Kim, So Ra;Park, Mijung
    • Journal of Korean Ophthalmic Optics Society
    • /
    • v.20 no.2
    • /
    • pp.133-140
    • /
    • 2015
  • Purpose: It was investigated whether two different stabilization designs of toric contact lenses changed the rotational axis and degree of toric lenses according to body posture and gaze direction in the present study. Methods: Toric soft contact lenses with Lo-Torque$^{TM}$ design and ASD design (accelerated stabilized design) were fitted on 52 eyes aged in 20s-30s. Then, rotational degree was measured at the five gaze directions including front gaze and the lying position. Results: When gazing the front and vertical directions in the upright posture, lens was much rotated to nasal side for the Lo-Torque$^{TM}$ design and temporal side for the ASD design. When gazing horizontal direction, both design lenses were rotated against to the gaze direction. Rotation degree was the smallest at superior direction gaze and the largest at nasal gaze. In case of the rotation degree less than $5^{\circ}$, Lo-Torque$^{TM}$ design was more frequent when gazing front and vertical directions, and ASD design was more frequent when gazing horizontal direction. In addition, the lens with Lo-Torque$^{TM}$ design was lesser rotation degree than with ASD design immediately after lying. On the other hand, the lens with ASD design was lesser rotation degree than with Lo-Torque$^{TM}$ design 1 minute later after lying. Conclusions: This study confirmed that axis rotation of the lens induced by gaze direction and posture was different according to axis stabilization design during wearing toric soft contact lens.

Development of the eye-gaze tracking system for HCI (HCI를 위한 눈 응시방향 추적 시스템 개발)

  • Kim, Do-Hyoung;Yoo, Dong-Hyun;Chung, Myung-Jin
    • Proceedings of the KIEE Conference
    • /
    • 1999.07g
    • /
    • pp.3007-3009
    • /
    • 1999
  • 정보와 시대인 요즘 컴퓨터의 사용이 갈수록 증가하면서 사용의 편이를 높이기 위하여 사람과 컴퓨터간의 인터페이스에 대한 연구가 많아지고 있다. 새로운 형태의 인터페이스는 자연적인 사람의 행동 양식을 분석하여 그 정보로부터 사용자의 의도를 추출해내는 의도 파악(Intention reading)에 기반한 형태이다. 우리가 관심을 두고 있는 시스템은 사용자가 바라보고 있는 방향을 추적하여 그 방향을 이용하여 컴퓨터를 조작하는 시스템이다. 응시방향을 알아내기 위해 카메라를 이용하여 눈의 움직임을 관찰한다. 그리고 얼굴의 움직임이 있는 일반적인 경우 정확한 눈의 응시 방향을 결정하기 위해서 눈에 대한 정보만을 이용하지 않고 얼굴이 향하고 있는 방향을 추정하여 더 일반적이고 정확한 눈의 응시방향을 결정고자 한다. 본 논문에서는 기존의 눈 응시 방향 추적 방법들에 대하여 소개하고 우리가 개발하려고 하는 시스템에 대해 언급하고자 한다.

  • PDF

Rehabilitation program for hemiplegic patient by visual displaying of the current gaze position (응시위치의 시각적 표시를 통한 편마비 장애인의 재활치료 프로그램)

  • 이정준;박강령;김민영;김재희
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.202-207
    • /
    • 1999
  • 응시위치 추적이란 현재 모니터 상에 사용자가 응시하고 있는 지점을 카메라로부터 얻은 영상정보로부터 파악해 내는 것을 말한다. 응시위치 추적을 이용하여 현재 사용자가 모니터 상에 바라보고 있는 응시위치점을 시각적으로 표시해 줌으로써 한쪽 면을 잘 인지하지 못하는 장애인들에 대한 진단 및 재활치료를 도울 수 있는 시스템을 개발하였다. 이와 같은 이와같은 시스템은 사용자가 관심있어할 만한 상황을 컴퓨터 시뮬레이션을 통해 가상적으로 만들고 그 안에 있는 물체들을 사용자가 고개움직임을 이용하여 움직일 수 있게 함으로써 사용자로 하여금 강한 동기력을 유발할 수 있으며 또한 편측 시각 무시에 대한 보다 정량적 인 진단을 가능하게 하며 기존의 작업치료사의 도움을 받아야 했던 것에서 탈피할 수 있으므로 인력 소모를 줄일 수 있는 등의 잇점이 있다.

  • PDF

Word Simulated Test for Integrated Wire and Wireless Network (유·무선 통합 워드 모의고사)

  • Kwon, Yong-Seok;Im, Kwan-chul;Yoo, Woo-Jong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.11a
    • /
    • pp.1568-1571
    • /
    • 2011
  • 본 논문에서는 구현한 것은 워드프로세서 자격검정 모의고사를 유선 인터넷을 통하여 테스트 해볼 수 있는 프로그램이다. 워드프로세서 시험 등급은 1급으로 구성되어 있으며, 유선으로 이용 가능한 서비스를 좀 더 확대하여 모바일 기기로도 접속하여 응시내역을 확인할 수 있도록 제작되었다. 또한 모의고사 응시 후 과목별 오답노트를 제공하여, 틀린 문제를 모의고사 후에 재복습도 가능하도록 설계 및 구현하였고, 다른 응시생과 시험 결과를 비교할 수 있도록 하여 자신의 현재 성적 중에서 부족한 부분을 확인한 후 추가 학습을 통해 채울 수 있도록 하였다. 모바일 기기를 통해 유선 인터넷에서 응시한 모의고사의 응시내역을 확인할 수 있도록 구현한 것은 시간 및 공간의 제약없이 확인하는 방법을 제공하기 위함이다.

Estimation of a Gaze Point in 3D Coordinates using Human Head Pose (휴먼 헤드포즈 정보를 이용한 3차원 공간 내 응시점 추정)

  • Shin, Chae-Rim;Yun, Sang-Seok
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2021.10a
    • /
    • pp.177-179
    • /
    • 2021
  • This paper proposes a method of estimating location of a target point at which an interactive robot gazes in an indoor space. RGB images are extracted from low-cost web-cams, user head pose is obtained from the face detection (Openface) module, and geometric configurations are applied to estimate the user's gaze direction in the 3D space. The coordinates of the target point at which the user stares are finally measured through the correlation between the estimated gaze direction and the plane on the table plane.

  • PDF