• 제목/요약/키워드: Intelligent gaze-tracking

검색결과 6건 처리시간 0.017초

Development of a Non-contact Input System Based on User's Gaze-Tracking and Analysis of Input Factors

  • Jiyoung LIM;Seonjae LEE;Junbeom KIM;Yunseo KIM;Hae-Duck Joshua JEONG
    • 한국인공지능학회지
    • /
    • 제11권1호
    • /
    • pp.9-15
    • /
    • 2023
  • As mobile devices such as smartphones, tablets, and kiosks become increasingly prevalent, there is growing interest in developing alternative input systems in addition to traditional tools such as keyboards and mouses. Many people use their own bodies as a pointer to enter simple information on a mobile device. However, methods using the body have limitations due to psychological factors that make the contact method unstable, especially during a pandemic, and the risk of shoulder surfing attacks. To overcome these limitations, we propose a simple information input system that utilizes gaze-tracking technology to input passwords and control web surfing using only non-contact gaze. Our proposed system is designed to recognize information input when the user stares at a specific location on the screen in real-time, using intelligent gaze-tracking technology. We present an analysis of the relationship between the gaze input box, gaze time, and average input time, and report experimental results on the effects of varying the size of the gaze input box and gaze time required to achieve 100% accuracy in inputting information. Through this paper, we demonstrate the effectiveness of our system in mitigating the challenges of contact-based input methods, and providing a non-contact alternative that is both secure and convenient.

Real-Time Eye Tracking Using IR Stereo Camera for Indoor and Outdoor Environments

  • Lim, Sungsoo;Lee, Daeho
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권8호
    • /
    • pp.3965-3983
    • /
    • 2017
  • We propose a novel eye tracking method that can estimate 3D world coordinates using an infrared (IR) stereo camera for indoor and outdoor environments. This method first detects dark evidences such as eyes, eyebrows and mouths by fast multi-level thresholding. Among these evidences, eye pair evidences are detected by evidential reasoning and geometrical rules. For robust accuracy, two classifiers based on multiple layer perceptron (MLP) using gradient local binary patterns (GLBPs) verify whether the detected evidences are real eye pairs or not. Finally, the 3D world coordinates of detected eyes are calculated by region-based stereo matching. Compared with other eye detection methods, the proposed method can detect the eyes of people wearing sunglasses due to the use of the IR spectrum. Especially, when people are in dark environments such as driving at nighttime, driving in an indoor carpark, or passing through a tunnel, human eyes can be robustly detected because we use active IR illuminators. In the experimental results, it is shown that the proposed method can detect eye pairs with high performance in real-time under variable illumination conditions. Therefore, the proposed method can contribute to human-computer interactions (HCIs) and intelligent transportation systems (ITSs) applications such as gaze tracking, windshield head-up display and drowsiness detection.

소비자 시선 분석을 통한 소셜로봇 태도 형성 메커니즘 연구: 로봇의 얼굴을 중심으로 (A Study on the Mechanism of Social Robot Attitude Formation through Consumer Gaze Analysis: Focusing on the Robot's Face)

  • 하상집;이은주;유인진;박도형
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.243-262
    • /
    • 2022
  • 본 연구는 소셜로봇 디자인 연구의 흐름 중 하나인 로봇의 외형에 관하여 시선 추적(Eye Tracking)을 활용하여 로봇에 대한 사용자의 태도를 형성하는 메커니즘을 발견하고, 로봇 디자인 시 참고할 수 있는 구체적인 인사이트를 발굴하고자 하였다. 소셜로봇의 몸 전체, 얼굴, 눈, 입술 등을 관심 영역(Area of Interest: AOI)으로 설정하여 측정된 사용자의 시선 추적 지표와 디자인평가 설문을 통하여 파악된 사용자의 태도를 연결하여 소셜로봇 디자인의 연구 모형을 구성하였다. 구체적으로 본 연구에서 사용된 시선 추적 지표는 고정된 시간(Fixation), 첫 응시 시간(First Visit), 전체 머문 시간(Total Viewed), 그리고 재방문 횟수(Revisits)이며, 관심 영역인 AOI(Areas of Interests)는 소셜로봇의 얼굴, 눈, 입술, 그리고 몸체로 설계하였다. 그리고 디자인평가 설문을 통하여 소셜로봇의 감정 표현(Expressive), 인간다움(Human-like), 얼굴 두각성(Face-highlighted) 등의 소비자 신념을 수집하였고, 종속변수로 로봇에 대한 태도를 설정하였다. 시선 반응에 따른 소셜로봇에 대한 태도를 형성하는 과정에서 두가지 경로를 통해 영향을 미치는 것을 확인되었다. 첫번째는 시선이 태도에 직접적으로 미치는 영향으로 소셜로봇의 얼굴과 눈의 응시에 따라 긍정적인 태도 인 것으로 나타났다. 구체적으로, 로봇의 첫 응시 시점이 이를수록 눈에서는 머문 시간이 길고 재방문 빈도가 낮을수록 로봇에 대한 태도를 긍정적으로 평가하였다. 즉 소셜로봇을 얼굴보다 눈에 집중해서 보게 될 때 피험자들이 로봇에 대한 판단에 있어 직접적으로 영향을 주는 것으로 나타났다. 두번째로는 로봇에 대한 인지적 지각된 측면을 고려하여 얼굴 두각성(Face-highlighted), 의인화(Human-like), 감정 표현(Expressive)이 태도에 미치는 영향의 결과로 모두 긍정적인 영향을 미치는 것으로 나타났다. 또한 소셜로봇에 대한 지각이 구체적으로 로봇의 어떤 외형적 요소가 연관성을 가지는지 살펴본 결과 소셜로봇의 얼굴과 입술에 머문 시간이 길수록 입술을 다시 주시하지 않을수록 Face-highlighted에 긍정적인 영향을 주는 것으로 나타났다. 그리고 전신은 첫 응시가 늦을수록, 입술은 첫 응시가 빠르고 시선이 고정된 시간이 짧을수록 Human-like에 긍정적인 영향이 미치는 것으로 나타났다. 마지막으로 소셜로봇의 얼굴에 머문 시간은 길수록 Expressive에 긍정적인 영향이 미치는 것으로 나타났다.

가상주행실험 기반 운전자 시각행태에 따른 옐로카펫 설치 효과 분석 (Analysis of the Effect of Yellow Carpet Installation according to Driving Behavior with Eye Tracking Data)

  • 주성갑;김도훈;문혜민;최호민
    • 한국ITS학회 논문지
    • /
    • 제22권5호
    • /
    • pp.43-52
    • /
    • 2023
  • 옐로카펫 보급된 이후 어린이 교통사고는 감소세이나 아직 옐로카펫 설치와 교통사고간의 인과관계에 대한 설명력은 부족한 상황이다. 기존의 실차조사연구에서 상황 구현의 어려움이나 위험성 등의 이유로 수행하지 못한 다양한 상황을 VR시뮬레이션 실험을 활용하여 옐로카펫 효과를 더욱 심도있게 분석하였다. 실제 옐로카펫이 설치되어있는 대상지를 선정하고, 가상환경으로 구현한 후 시선측정장비를 착용하고 시뮬레이터에 탑승하도록 하였다. 옐로카펫 설치 전·후의 시각/주행행태를 비교하였고, 통계적 검증을 위해 t-test 분석을 수행, 모두 통계적으로 유의한 수준인 것으로 나타났다.

시선인식을 이용한 지능형 휠체어 시스템

  • 김태의;이상윤;권경수;박세현
    • 한국산업정보학회:학술대회논문집
    • /
    • 한국산업정보학회 2009년도 춘계학술대회 미래 IT융합기술 및 전략
    • /
    • pp.88-92
    • /
    • 2009
  • 본 논문에서는 시선인식을 이용한 지능형 휠체어 시스템에 대해 설명한다. 지능형 휠체어는 초음파센서를 이용하여 전동휠체어가 장애물을 감지하여 회피할 수 있게 하고, 조이스틱을 움직이기 힘든 중증 장애인을 위해 시선인식 및 추적을 이용하여 전동휠체어를 움직일 수 있게 하는 인터페이스를 제안한다. 지능형 휠체어는 시선인식 및 추적 모듈, 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 시선인식 및 추적 모듈은 적외선 카메라와 두개의 광원으로 사용자 눈의 각막 표면에 두 개의 반사점을 생성하고, 중심점을 구한 뒤, 동공의 중심점과 두 반사점의 중심을 이용하여 시선 추적을 한다. 시선이 응시하는 곳의 명령어를 사용자 인터페이스를 통해서 하달 받고, 모터 제어 모듈은 하달된 명령과 센서들에 의해 반환된 장애물과의 거리 정보로 모터제어보드에 연결되어 있는 두 개의 좌우 모터들을 조종한다. 센서 모듈은 전등휠체어가 움직이는 동안에 주기적으로 센서들로부터 거리 값을 반환 받아 벽 또는 장애물을 감지하여 장애물 회피 모듈에 의해 장애물을 우회 하도록 움직인다. 제안된 방법의 인터페이스는 실험을 통해 시선을 이용하여 지능형 휠체어에 명령을 하달하고 지능형 휠체어가 임의로 설치된 장애물을 효과적으로 감지하고 보다 정확하게 장애물을 회피 할 수 있음을 보였다.

  • PDF

3D영상 객체인식을 통한 얼굴검출 파라미터 측정기술에 대한 연구 (Object Recognition Face Detection With 3D Imaging Parameters A Research on Measurement Technology)

  • 최병관;문남미
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권10호
    • /
    • pp.53-62
    • /
    • 2011
  • 본 논문에서는 첨단 IT융,복합기술의 발달로 특수 기술로만 여겨졌던 영상객체인식 기술분야가 스마트-폰 기술의 발전과 더불어 개인 휴대용 단말기기로 발전하고 있다. 3D기반의 얼굴인식 검출기술은 객체인식 기술을 통하여 지능형 영상검출 인식기술기술로 진화되고 있음에 따라 영상인식을 통한 얼굴검출기술과 더불어 개발속도가 급속히 발전하고 있다. 본 논문에서는 휴먼인식기술을 기반으로 한 얼굴객체인식 영상검출을 통한 얼굴인식처리 기술의 인지 적용기술을 IP카메라에 적용하여 인가자의 입,출입등의 식별능력을 적용한 휴먼인식을 적용한 얼굴측정 기술에 대한 연구방안을 제안한다. 연구방안은 1)얼굴모델 기반의 얼굴 추적기술을 개발 적용하였고 2)개발된 알고리즘을 통하여 PC기반의 휴먼인식 측정 연구를 통한 기본적인 파라미터 값을 CPU부하에도 얼굴 추적이 가능하며 3)양안의 거리 및 응시각도를 실시간으로 추적할 수 있는 효과를 입증하였다.