• 제목/요약/키워드: eye-tracking system

검색결과 172건 처리시간 0.029초

시간 압박이 시각 탐색 전략에 미치는 영향 모델링 (Modeling Time Pressure Effect on Visual Search Strategy)

  • 최윤형;명노해
    • 대한산업공학회지
    • /
    • 제42권6호
    • /
    • pp.377-385
    • /
    • 2016
  • The previous Adaptive Control of Thought-Rational (ACT-R) cognitive architecture model has a limitation in that it cannot accurately predict human visual search strategy, because time effect, one of important human cognitive features, is not considered. Thus, the present study proposes ACT-R cognitive modeling that contains the impact of time using a revised utility system in the ACT-R model. Then, the validation of the model is performed by comparing results of the model with eye-tracking experimental data and SEEV-T (SEEV-Time; SEEV model which considers time effect) model in "Where's Wally" game. The results demonstrate that the model data fit fairly well with the eye-tracking data ($R^2=0.91$) and SEEV-T model ($R^2=0.93$). Therefore, the modeling method which considers time effect using a revised utility system should be used in predicting the human visual search paradigm when the available time is limited.

응시 위치 추적 기술을 이용한 인터페이스 시스템 개발 (Computer Interface Using Head-Gaze Tracking)

  • 이정준;박강령;김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 하계종합학술대회 논문집
    • /
    • pp.516-519
    • /
    • 1999
  • Gaze detection is to find out the position on a monitor screen where a user is looking at, using the image processing and computer vision technology, We developed a computer interface system using the gaze detection technology, This system enables a user to control the computer system without using their hands. So this system will help the handicapped to use a computer and is also useful for the man whose hands are busy doing another job, especially in tasks in factory. For the practical use, command signal like mouse clicking is necessary and we used eye winking to give this command signal to the system.

  • PDF

실시간 눈과 시선 위치 추적 (Real Time Eye and Gaze Tracking)

  • 조현섭;김희숙
    • 한국산학기술학회논문지
    • /
    • 제6권2호
    • /
    • pp.195-201
    • /
    • 2005
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다. 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다. 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참여하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90%, 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.

  • PDF

User's Gaze Analysis for Improving Map Label Readability in Way-finding Situation

  • Moon, Seonggook;Hwang, Chul Sue
    • 한국측량학회지
    • /
    • 제37권5호
    • /
    • pp.343-350
    • /
    • 2019
  • Map labels are the most recognizable map elements using the human visual system because they are essentially a natural language. In this study, an experiment was conducted using an eye-tracker to objectively record and analyze the response of subjects regarding visual attention to map labels. A primary building object was identified by analyzing visit counts, average visit duration, fixation counts, and the average fixation duration of a subject's gaze for an area of interest acquired using the eye-tracker. The unmarked rate of map labels in Google map, Naver map, and Daum map was calculated. As a result, this rate exceeded fifty-one percent, with the lowest rate recorded for Google map. It is expected that the results of this study will contribute to an increase in the diversity of research in terms of the spatial cognition approach for map labels, which is more helpful to users than the existing body of work on methods of expression for labels.

눈 윤곽선과 눈동자 영역 추출 기반 시선 추정 알고리즘의 설계 및 구현 (Design and Implementation of Eye-Gaze Estimation Algorithm based on Extraction of Eye Contour and Pupil Region)

  • 염효섭;홍민;최유주
    • 컴퓨터교육학회논문지
    • /
    • 제17권2호
    • /
    • pp.107-113
    • /
    • 2014
  • 본 연구에서는 입력 얼굴 영상에서 눈의 윤곽선과 눈동자 영역을 추출하여 시선을 추정하는 시스템을 설계 및 구현한다. 눈 윤곽선과 눈동자 영역을 효율적으로 추출하기 위하여 먼저 입력 영상으로부터 얼굴 영역을 추출한다. 얼굴 영역 추출을 위하여 아시아인 얼굴 영상 셋을 확보하여 아시아인 피부색에 대한 YCbCr 범위를 사전에 정의하였고, 정의된 피부색 범위값에 따라 피부영역을 검출한다. 최대크기 피부 영역을 얼굴후보 영역으로 지정하고 검출된 얼굴 후보영역에 대한 상위 50%의 관심 영역 내에서 눈윤곽선과 색상 특성 분석을 이용한 눈 영역 검출 알고리즘을 수행하여 기존의 Haar-like feature 특성기반 눈 영역 검출방법에 비해 타이트한 눈 영역을 검출한다. 눈의 윤곽선을 포함하는 관심영역 전체를 기준으로 눈 영역을 3등분하고, 추출된 눈동자의 위치가 3등분된 영역에서 어느 영역에 중점적으로 위치하고 있는지를 분석하여 좌, 우, 정면 시선 방향을 추정한다. 본 연구에서는 20명의 실험자에 대한 5,616 장의 테스트 영상을 이용한 시선방향 추정 실험에서 약 91%의 정확도를 획득한다.

  • PDF

소비자 시선 분석을 통한 소셜로봇 태도 형성 메커니즘 연구: 로봇의 얼굴을 중심으로 (A Study on the Mechanism of Social Robot Attitude Formation through Consumer Gaze Analysis: Focusing on the Robot's Face)

  • 하상집;이은주;유인진;박도형
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.243-262
    • /
    • 2022
  • 본 연구는 소셜로봇 디자인 연구의 흐름 중 하나인 로봇의 외형에 관하여 시선 추적(Eye Tracking)을 활용하여 로봇에 대한 사용자의 태도를 형성하는 메커니즘을 발견하고, 로봇 디자인 시 참고할 수 있는 구체적인 인사이트를 발굴하고자 하였다. 소셜로봇의 몸 전체, 얼굴, 눈, 입술 등을 관심 영역(Area of Interest: AOI)으로 설정하여 측정된 사용자의 시선 추적 지표와 디자인평가 설문을 통하여 파악된 사용자의 태도를 연결하여 소셜로봇 디자인의 연구 모형을 구성하였다. 구체적으로 본 연구에서 사용된 시선 추적 지표는 고정된 시간(Fixation), 첫 응시 시간(First Visit), 전체 머문 시간(Total Viewed), 그리고 재방문 횟수(Revisits)이며, 관심 영역인 AOI(Areas of Interests)는 소셜로봇의 얼굴, 눈, 입술, 그리고 몸체로 설계하였다. 그리고 디자인평가 설문을 통하여 소셜로봇의 감정 표현(Expressive), 인간다움(Human-like), 얼굴 두각성(Face-highlighted) 등의 소비자 신념을 수집하였고, 종속변수로 로봇에 대한 태도를 설정하였다. 시선 반응에 따른 소셜로봇에 대한 태도를 형성하는 과정에서 두가지 경로를 통해 영향을 미치는 것을 확인되었다. 첫번째는 시선이 태도에 직접적으로 미치는 영향으로 소셜로봇의 얼굴과 눈의 응시에 따라 긍정적인 태도 인 것으로 나타났다. 구체적으로, 로봇의 첫 응시 시점이 이를수록 눈에서는 머문 시간이 길고 재방문 빈도가 낮을수록 로봇에 대한 태도를 긍정적으로 평가하였다. 즉 소셜로봇을 얼굴보다 눈에 집중해서 보게 될 때 피험자들이 로봇에 대한 판단에 있어 직접적으로 영향을 주는 것으로 나타났다. 두번째로는 로봇에 대한 인지적 지각된 측면을 고려하여 얼굴 두각성(Face-highlighted), 의인화(Human-like), 감정 표현(Expressive)이 태도에 미치는 영향의 결과로 모두 긍정적인 영향을 미치는 것으로 나타났다. 또한 소셜로봇에 대한 지각이 구체적으로 로봇의 어떤 외형적 요소가 연관성을 가지는지 살펴본 결과 소셜로봇의 얼굴과 입술에 머문 시간이 길수록 입술을 다시 주시하지 않을수록 Face-highlighted에 긍정적인 영향을 주는 것으로 나타났다. 그리고 전신은 첫 응시가 늦을수록, 입술은 첫 응시가 빠르고 시선이 고정된 시간이 짧을수록 Human-like에 긍정적인 영향이 미치는 것으로 나타났다. 마지막으로 소셜로봇의 얼굴에 머문 시간은 길수록 Expressive에 긍정적인 영향이 미치는 것으로 나타났다.

주기신호에 대한 안구운동의 예측 특성 (Predictive Characteristics of the Oculomotor System to the Periodic Signal)

  • 이상효
    • 대한의용생체공학회:의공학회지
    • /
    • 제2권2호
    • /
    • pp.145-150
    • /
    • 1981
  • In this paper, we measured the tracking response time of horizontal eye movement to the target moving according to the square waveform to investigate the predictive characteristics of the human oculomotor system. And in the experiment we used the square waves with an amplitude of 5 degree and frequencies o.1, 0.2, 0.4, 0.6, 0.8, 1.0, and 1.2 Hz. Random occurrences of the human eye movement reponse time were analyzed using a finite Markov chain process and we found the results as follows. From both the experimental and theoretical results, we found the trend showing that Predictive characteristics moved from the transient state to the steady state.

  • PDF

실시간 눈과 시선 위치 추적 (Real Time Eye and Gaze Tracking)

  • 이영식;배철수
    • 한국정보통신학회논문지
    • /
    • 제8권2호
    • /
    • pp.477-483
    • /
    • 2004
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참석하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90%, 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.

스테레오 영상을 이용한 물체 추적 방법 (An Object Tracking Method using Stereo Images)

  • 이학찬;박장한;남궁련;남궁재찬
    • 대한전자공학회논문지SP
    • /
    • 제39권5호
    • /
    • pp.522-534
    • /
    • 2002
  • 본 논문에서는 자동물체 추적 시스템의 효율성을 높이기 위해 스테레오 영상을 이용한 물체 추적 시스템을 제안하였다. 기존의 물체 추적 시스템에서 사용한 방법들은 최적의 특성을 지니고 있지만, 많은 계산량을 요구하는 단점이 있다. 또한 단안에 의한 영상의 경우 물체의 다양한 변화에 대한 예측과 추적이 어렵다. 따라서 본 논문에서는 양안에 의해 얻어진 스테레오 영상에 변이(translation)와 회전(rotation)에서의 예측이 어려운 단점을 보완한 블록 정합 알고리즘을 적용함으로써 실시간 물체의 변화의 추적 능력을 지니면서도 그 계산량을 줄일 수 있는 추적 방법을 제시하였다. 실험을 통하여 회전(25개)과 전이(28개), 그리고 회전과 전이의 혼합(50개)된 영상에서 각각 88%, 89%, 88%의 인식률을 얻었으며, 평균 88.3%의 인식률을 얻음으로써 본 연구의 유용성을 입증하였다.

로봇 캐릭터와의 상호작용에서 사용자의 시선 배분 분석 (Analysis of User's Eye Gaze Distribution while Interacting with a Robotic Character)

  • 장세윤;조혜경
    • 로봇학회논문지
    • /
    • 제14권1호
    • /
    • pp.74-79
    • /
    • 2019
  • In this paper, we develop a virtual experimental environment to investigate users' eye gaze in human-robot social interaction, and verify it's potential for further studies. The system consists of a 3D robot character capable of hosting simple interactions with a user, and a gaze processing module recording which body part of the robot character, such as eyes, mouth or arms, the user is looking at, regardless of whether the robot is stationary or moving. To verify that the results acquired on this virtual environment are aligned with those of physically existing robots, we performed robot-guided quiz sessions with 120 participants and compared the participants' gaze patterns with those in previous works. The results included the followings. First, when interacting with the robot character, the user's gaze pattern showed similar statistics as the conversations between humans. Second, an animated mouth of the robot character received longer attention compared to the stationary one. Third, nonverbal interactions such as leakage cues were also effective in the interaction with the robot character, and the correct answer ratios of the cued groups were higher. Finally, gender differences in the users' gaze were observed, especially in the frequency of the mutual gaze.