• 제목/요약/키워드: eye gaze

검색결과 245건 처리시간 0.024초

안구운동추적 정보기반 능동적 샘플링을 반영한 시각 하이퍼네트워크 모델 (A Visual Hypernetwork Model Using Eye-Gaze-Information-Based Active Sampling)

  • 김은솔;김지섭;;;장병탁
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(B)
    • /
    • pp.324-326
    • /
    • 2012
  • 기계 학습에서 입력 데이터의 차원을 줄이는 문제(dimension reduction)는 매우 중요한 문제 중의 하나이다. 입력 변수의 차원이 늘어남에 따라 처리해야하는 연산의 수와 계산 복잡도가 급격히 늘어나기 때문이다. 이를 해결하기 위하여 다수의 기계 학습 알고리즘은 명시적으로 차원을 줄이거나(feature selection), 데이터에 약간의 연산을 가하여 차원이 작은 새로운 입력 데이터를 만든다(feature extraction). 반면 사람이 여러 종류의 고차원 센서 데이터를 입력받아 빠른 시간 안에 정확하게 정보를 처리할 수 있는 가장 큰 이유 중 하나는 실시간으로 판단하여 가장 필요한 정보에 집중하기 때문이다. 본 연구는 사람의 정보 처리 과정을 기계 학습 알고리즘에 반영하여, 집중도를 이용하여 효율적으로 데이터를 처리하는 방법을 제시한다. 이 성질을 시각 하이퍼네트워크 모델에 반영하여, 효율적으로 고차원 입력 데이터를 다루는 방법을 제안한다. 실험에서는 시각 하이퍼네트워크를 이용하여 고차원의 이미지 데이터에서 행동을 분류하였다.

3차원 1인칭 슈팅 게임에서의 화면 조정을 위한 시선 위치 추적 연구 (A Study on Eye Gaze Tracking for View Controlling in 3D First Person Shooting Game)

  • 이의철;박강령
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2005년도 춘계학술발표대회
    • /
    • pp.873-876
    • /
    • 2005
  • 본 논문에서는 HMD(Head Mounted Display) 하단에 눈동자의 움직임 영상을 취득할 수 있는 USB 카메라를 부착한 후, 3차원 1인칭 슈팅(First Person Shooting) 게임에서 게임 캐릭터의 시선방향을 눈동자 움직임에 의해 조작하는 방법을 제안한다. 시스템은 입력 영상으로부터 눈동자의 중심 위치를 실시간 영상 처리 방법으로 추출하고, 눈동자의 위치 정보와 모니터상의 응시 지점사이의 기하학적인 연관관계를 결정하는 캘리브레이션을 진행하며, 캘리브레이션 정보를 기반으로 모니터 상의 최종적인 응시 위치를 결정하여 이 정보에 의해 게임상의 3차원 뷰(view) 방향을 조정하는 부분으로 구성되어 있다. 실험 결과 본 논문의 방법에 의해 손이 불편한 사용자에게 게임을 즐길 수 있는 기회를 제공하고, 게임 캐릭터와 게임 사용자의 시선 방향을 일치시킴으로서 게임의 흥미와 몰입감을 증가시킬 수 있는 결과를 얻음을 수 있었다.

  • PDF

A New Ocular Torsion Measurement Method Using Iterative Optical Flow

  • Lee InBum;Choi ByungHun;Kim SangSik;Park Kwang Suk
    • 대한의용생체공학회:의공학회지
    • /
    • 제26권3호
    • /
    • pp.133-138
    • /
    • 2005
  • This paper presents a new method for measuring ocular torsion using the optical flow. Images of the iris were cropped and transformed into rectangular images that were orientation invariant. Feature points of the iris region were selected from a reference and a target image, and the shift of each feature was calculated using the iterative Lucas-Kanade method. The feature points were selected according to the strength of the corners on the iris image. The accuracy of the algorithm was tested using printed eye images. In these images, torsion was measured with $0.15^{\circ}$ precision. The proposed method shows robustness even with the gaze directional changes and pupillary reflex environment of real-time processing.

OLED-Microdisplay with embedded camera for HMD applications

  • Vogel, Uwe;Herold, Rigo;Kreye, Daniel;Richter, Bernd;Bunk, Gerd;Reckziegel, Sven;Scholles, Michael;Grillberger, Christiane;Toerker, Michael;Amelung, Jorg
    • 한국정보디스플레이학회:학술대회논문집
    • /
    • 한국정보디스플레이학회 2009년도 9th International Meeting on Information Display
    • /
    • pp.408-410
    • /
    • 2009
  • First demonstrators of bi-directional OLED microdisplay devices have been developed and integrated into see-through HMD optics. The device combines 'display' and 'imaging' by nested OLED pixels and photodetectors in a single CMOS chip. Major aim of this integration is to provide capabilities for eyetracking to achieve gaze-based human-displayinteraction.

  • PDF

자연스러운 눈맞춤 영상을 위한 홀 채움 방법 (Hole Filling Method for Natural Eye Gaze Correction)

  • 고은상;호요성
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2015년도 추계학술대회
    • /
    • pp.169-172
    • /
    • 2015
  • 영상회의 장치에서 눈맞춤 영상을 생성하기 위해 어파인 변환(affine transformation)을 이용하면 반올림 오차(round-off error) 때문에 홀이 발생한다. 이러한 홀을 채우려면 홀 영역을 가리키는 홀 채움 마스크가 필요하다. 홀 채움은 보통 홀 채움 마스크를 참조하여 홀이 아닌 이웃 화소값들을 기반으로 손상된 영상을 복원하는 작업이다. 따라서 홀 영역을 정확히 검출하고 적당한 개수의 이웃 화소값을 참조해야 자연스러운 홀 채움 영상을 생성할 수 있다. 한편, 눈맞춤 영상을 생성할 때 얼굴 특징점을 이용해 얼굴 변환 마스크를 만들고, 얼굴 변환 마스크에만 어파인 변환을 수행한다. 이 논문에서는 얼굴 특징점에도 어파인 변환을 수행하고 수정된 얼굴 변환 마스크를 획득하여 정확한 홀 채움 마스크를 구한다. 또한, 홀 채움 마스크에서 레이블링을 수행하여 큰 홀 영역을 제거한다. 마지막으로, 어파인 변환을 수행할 때 기존 영상의 좌표값을 이용하여 자연스러운 홀 채움 영상을 생성한다. 제안하는 방법으로 홀 채움을 수행한 결과, 연속적인 눈맞춤 동영상에서 이웃값들을 참조하여 홀 채움을 수행한 영상보다 자연스러움을 확인했다.

  • PDF

HCI를 위한 눈 응시방향 추적 시스템 개발 (Development of the eye-gaze tracking system for HCI)

  • 김도형;유동현;정명진
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1999년도 하계학술대회 논문집 G
    • /
    • pp.3007-3009
    • /
    • 1999
  • 정보와 시대인 요즘 컴퓨터의 사용이 갈수록 증가하면서 사용의 편이를 높이기 위하여 사람과 컴퓨터간의 인터페이스에 대한 연구가 많아지고 있다. 새로운 형태의 인터페이스는 자연적인 사람의 행동 양식을 분석하여 그 정보로부터 사용자의 의도를 추출해내는 의도 파악(Intention reading)에 기반한 형태이다. 우리가 관심을 두고 있는 시스템은 사용자가 바라보고 있는 방향을 추적하여 그 방향을 이용하여 컴퓨터를 조작하는 시스템이다. 응시방향을 알아내기 위해 카메라를 이용하여 눈의 움직임을 관찰한다. 그리고 얼굴의 움직임이 있는 일반적인 경우 정확한 눈의 응시 방향을 결정하기 위해서 눈에 대한 정보만을 이용하지 않고 얼굴이 향하고 있는 방향을 추정하여 더 일반적이고 정확한 눈의 응시방향을 결정고자 한다. 본 논문에서는 기존의 눈 응시 방향 추적 방법들에 대하여 소개하고 우리가 개발하려고 하는 시스템에 대해 언급하고자 한다.

  • PDF

각막 반사의 매핑을 이용한 비접촉식 눈의 응시점 추정 시스템 (Non-contact Eye Gaze Point Estimation System by Mapping of Corneal Reflections)

  • 유동현;정명진
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2001년도 하계학술대회 논문집 D
    • /
    • pp.2352-2354
    • /
    • 2001
  • 본 논문에서는 컴퓨터의 사용자가 모니터의 스크린 상의 어느 곳을 바라보고 있는지 추정하는 새로운 알고리즘을 제시한다. 적외선 LED와 CCD카메라를 이용하는 이 방법은 기존의 방법과 다르게 5개의 적외선 LED를 사용하는데 적외선의 반사에 의해 눈의 각막에는 네 개의 밝은 점들이 나타나고 이 점을 꼭지점으로 하는 사각형 안에서 동공의 중심이 움직인다는 사실을 이용한다. 이 방법은 눈의 3차원 위치, 카메라의 위치, 모니터의 위치에 따른 관계식을 구할 필요 없이 간단한 계산으로 눈의 응시점을 찾아낼 수 있다는 장점을 가지고 있다. 여기서는 이 방법을 소개하고 실험결과를 보여준다.

  • PDF

딥러닝 기반의 눈 랜드마크 위치 검출이 통합된 시선 방향 벡터 추정 네트워크 (Deep Learning-based Gaze Direction Vector Estimation Network Integrated with Eye Landmark Localization)

  • 주희영;고민수;송혁
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 하계학술대회
    • /
    • pp.180-182
    • /
    • 2021
  • 본 논문은 눈 랜드마크 위치 검출과 시선 방향 벡터 추정이 하나의 딥러닝 네트워크로 통합된 시선 추정 네트워크를 제안한다. 제안하는 네트워크는 Stacked Hourglass Network[1]를 백본(Backbone) 구조로 이용하며, 크게 랜드마크 검출기, 특징 맵 추출기, 시선 방향 추정기라는 세 개의 부분으로 구성되어 있다. 랜드마크 검출기에서는 눈 랜드마크 50개 포인트의 좌표를 추정하며, 특징 맵 추출기에서는 시선 방향 추정을 위한 눈 이미지의 특징 맵을 생성한다. 그리고 시선 방향 추정기에서는 각 출력 결과를 조합하고 이를 통해 최종 시선 방향 벡터를 추정한다. 제안하는 네트워크는 UnityEyes[2] 데이터셋을 통해 생성된 가상의 합성 눈 이미지와 랜드마크 좌표 데이터를 이용하여 학습하였으며, 성능 평가는 실제 사람의 눈 이미지로 구성된 MPIIGaze[3] 데이터 셋을 이용하였다. 실험을 통해 시선 추정 오차는 0.0396 MSE(Mean Square Error)의 성능을 보였으며, 네트워크의 추정 속도는 42 FPS(Frame Per Second)를 나타내었다.

  • PDF

아이트래킹 평가 방법과 경관 형용사 평가 비교 연구 - 대학 캠퍼스 야간경관을 대상으로 - (Comparative Study on Eye-Tracking Evaluation and Landscape Adjectives Evaluation - Focusing on the Nightscape of a University Campus -)

  • 강영은;김송이;백재봉
    • 한국조경학회지
    • /
    • 제46권1호
    • /
    • pp.38-48
    • /
    • 2018
  • 본 연구는 다양한 야간경관의 특성을 파악하기 위하여 아이트래킹 평가 방법과 경관 형용사 평가 방법의 비교를 통하여 시지각적 경관 지각에 대한 이해를 높이고, 경관 평가 영역을 확장하기 위한 연구논문이다. 연구 결과, 캠퍼스 야간경관을 대상으로 한 아이트래킹 평가 결과에서는 '눈 깜빡임 수(Blink count)', '눈 응시 시간(Fixation duration) 평균', '시선의 급격한 이동시간(Saccade duration) 평균'과 경관 형용사 중 '아름다운', '흥미로운', '접근성이 높은', '만족하는', '안전한' 형용사와 유의미한 상관관계가 있음이 검증되었다. 또한, 캠퍼스 야간경관의 관심지역 분석 및 비교에서는 경관 특성별 관심영역이 달라지는 경향성을 파악하였으며, 특히 '문', '표지판' 등 특수 경관 요소에 집중하여 시선이 고정되는 것으로 도출되었다. 이상의 결과들을 통하여 아이트래킹 분석 방법이 '경관 요소'에 대한 평가를 구체화시킬 수 있는 효율적인 도구라고 판단하였으며, 기존 개념으로만 제시되었던 경관 선호 이론들을 뒷받침할 수 있는 근거로 활용될 수 있다는 측면도 의미 있는 결과라고 할 수 있다. 본 연구는 이처럼 객관적인 경관 평가 기법으로서 아이트래킹의 다양한 활용 가능성을 제안하였으며, 지속적인 연구 결과의 축적으로 경관계획에 구체적인 시사점을 제시할 수 있을 것이다.

캐빈형 콤바인의 시계성 평가에 관한 연구 (A Study on Visibility Evaluation for Cabin Type Combine)

  • 최창현;김종덕;김태형;문정환;김용주
    • Journal of Biosystems Engineering
    • /
    • 제34권2호
    • /
    • pp.120-126
    • /
    • 2009
  • The purpose of this study was to develop a visibility evaluation system for cabin type combine. Human's field of view was classified into five levels (perceptive, effective, stable gaze, induced, and auxiliary) depending on rotation of human's head and eye. Divider, reaper lever, gearshift, dashboard, and conveying part were considered as major viewpoints of combine. Visibilities of combine was evaluated quantitatively using the viewpoints and the human's field of view levels. The visibility evaluation system for cabin type combine was consisted of a laser pointer, stepping motors to control the direction of view, gyro sensors to measure horizontal and vertical angle, and I/O interface to acquire the signals. Tests were conducted with different postures ('sitting straight', 'sitting with $15^{\circ}$ tilt', 'standing straight', and 'standing with $15^{\circ}$ tilt'). The LSD (least significant difference) multiple comparison tests showed that the visibilities of viewpoints were different significantly as the operator's postures were changed. The results showed that the posture at standing with $15^{\circ}$ tilt provided the best visibility for operators. The divider of the combine was invisible due to blocking with the cabin frame at many postures. The reaper lever showed good visibilities at the postures of sitting or standing with $15^{\circ}$ tilt. The gearshift, the dashboard, and the conveying part had reasonable visibilities at the posture of sitting with $15^{\circ}$ tilt. However, most viewpoints of the combine were out of the stable gaze field of view level. Modifications of the combine design will be required to enhance the visibility during harvesting operation for farmers' safety and convenience.