• Title/Summary/Keyword: 눈추적

Search Result 201, Processing Time 0.029 seconds

A wavefront analyzer for precise measurement of the visual acuity (시력 정밀 측정용 파면분석기)

  • 고동섭
    • Proceedings of the Optical Society of Korea Conference
    • /
    • 2003.07a
    • /
    • pp.72-73
    • /
    • 2003
  • 시력 진단장비로는 자각식 측정법인 시력표, 타각식 계측기로는 검영기와 자동굴절력측정기 등이 있으나 눈도 일반 광학계와 같이 공간적으로 불균일한 광학적 특성을 가지기 때문에 눈의 광학적 기능을 정확하게 진단하기 위해서는 광학수차의 공간 분포를 정밀하게 측정할 필요가 있다. 광학수차는 시력의 한계를 규정하고 안광학 기기의 설계에 있어서 중요한 요소이다. 눈의 광학수차를 측정하기 위한 파면분석기에는 공간분해굴절계, Tscherning 파면분석기, 광선추적파면분석기, 주사실틈굴절계, 그리고 Shack-Hartmann 파면분석기(SH 파면분석기) 등이 있으며, SH 파면분석기는 적응광학계에서도 유용하게 사용되고 있다. (중략)

  • PDF

A Realtime Tracking of Eye Region Using Deformable Template and Neural Network (가변템플릿과 신경회로망을 이용한 실시간 눈 영역의 추적)

  • Kim, Do-Hyung;Lee, Seon-Hwa;Lee, Hack-Man;Cha, Eui-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.10a
    • /
    • pp.247-250
    • /
    • 2000
  • 본 논문에서는 다양한 배경을 가지는 연속적인 얼굴 영상에서 실시간으로 눈의 위치를 자동적으로 추출하는 방법에 대하여 제시한다. 얼굴 요소 중에서 눈은 얼굴 인식 분야에 있어서 중요한 특징을 나타내는 주 요소로써 주로 히스토그램 분석과 색상 정보를 이용하여 눈 영역의 윤곽을 추출하는 방법이 제기되고 있다. 본 논문에서는 명암의 변화에도 비교적 적응력이 강한 이진화 기법을 사용하여 원영상을 이진화하고, 가변 템플릿(Deformable Template)방법을 사용하여 후보 영역을 추출한다. 이러한 후보영역들은 ART2 신경회로망을 이용하여 병합되며, 병합된 후보 영역들은 얼굴 요소의 기하학적 사전지식을 기반으로 검증되어, 시간에 따라 모양변화가 급변하는 눈 영역에 대한 실시간 추출을 가능하게 한다. 이상의 연구 결과는 교통사고 방지를 위한 눈의 졸림감지 등의 응용 시스템에 이용될 수 있다.

  • PDF

Face and Eye Detection for Interactive 3D Devices (인터랙티브 3D 방송단말을 위한 얼굴 및 눈인식 알고리즘의 검출 방법)

  • Song, Hyok;Lee, Chul-Dong
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.11a
    • /
    • pp.280-281
    • /
    • 2011
  • 단말기 기술의 향상으로 과거 다시점 영상 디스플레이가 어려웠지만 현재는 다양한 3D 디스플레이 장치가 개발되고 있으며 2장의 영상을 활용한 스테레오 영상 단말 뿐 아니라 다시점 영상 단말도 개발되고 있다. 다시점 방송 및 콘텐츠를 이용하기 위한 장치는 사용자가 콘텐츠를 감상하는 거리, 각도 및 개개인의 취향에 따라 각기 다른 실감정도를 보여주고 있으며 단말 장치 및 사용자는 끊임없이 움직이게 되므로 이에 대한 대처가 필요하다. 본 논문에서는 사용자의 위치를 파악한 후 그 결과에 따라서 단말장치에서 연속적으로 사용자에게 적절한 깊이 정보를 송출하기 위한 알고리즘을 개발하였다. 사용자의 얼굴 및 눈을 검출하였으며 기존 알고리즘의 문제점인 눈이 아닌 눈썹 또는 눈 주변의 어두운 영역으로 인한 오인식의 문제점을 해결하였다. 눈썹의 위치를 인식하여 눈썹 영역과 눈 영역의 분리를 통한 정확한 눈 위치추적 알고리즘 결과 테스트스트림에 따라 최대 52%의 오차율 향상을 보였다.

  • PDF

이것이 신기술이다 - 자동 추적 카메라를 위한 원칩 SoC 및 RDK(Reference Design Kit)

  • Choi, Du-Won
    • The Optical Journal
    • /
    • s.119
    • /
    • pp.52-55
    • /
    • 2009
  • 이제 감시카메라는 우리 주변 곳곳에 설치되지 않은 곳을 찾아보기 힘들 정도로 광범위해 졌다. 아니 우리 눈이 미치는 곳보다 더 많은 곳에 설치되었다고 해도 과언이 아닐 정도로 보편화되었다. 그러나 아직까지 CCTV의 힘을 빌리지 못한 사각지대가 엄연히 존재하며 많은 범죄가 발생하고 있다. 그러기에 이제는 카메라의 대수만을 늘리기 보다는 지능적으로 판단하고 추적할 수 있는, 생각하는 감시카메라의 필요성이 더욱 증대되고 있는 시점이다.

  • PDF

Welfare Interface using Multiple Facial Features Tracking (다중 얼굴 특징 추적을 이용한 복지형 인터페이스)

  • Ju, Jin-Sun;Shin, Yun-Hee;Kim, Eun-Yi
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.45 no.1
    • /
    • pp.75-83
    • /
    • 2008
  • We propose a welfare interface using multiple fecial features tracking, which can efficiently implement various mouse operations. The proposed system consist of five modules: face detection, eye detection, mouth detection, facial feature tracking, and mouse control. The facial region is first obtained using skin-color model and connected-component analysis(CCs). Thereafter the eye regions are localized using neutral network(NN)-based texture classifier that discriminates the facial region into eye class and non-eye class, and then mouth region is localized using edge detector. Once eye and mouth regions are localized they are continuously and correctly tracking by mean-shift algorithm and template matching, respectively. Based on the tracking results, mouse operations such as movement or click are implemented. To assess the validity of the proposed system, it was applied to the interface system for web browser and was tested on a group of 25 users. The results show that our system have the accuracy of 99% and process more than 21 frame/sec on PC for the $320{\times}240$ size input image, as such it can supply a user-friendly and convenient access to a computer in real-time operation.

Real Time System Realization for Binocular Eyeball Tracking Mouse (실시간 쌍안구 추적 마우스 시스템 구현에 관한 연구)

  • Ryu Kwang-Ryol;Choi Duck-Hyun
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.10 no.9
    • /
    • pp.1671-1678
    • /
    • 2006
  • A real time system realization for binocular eyeball tracking mouse on the computer monitor being far from 30-40cm is presented in the paper. The processing for searching eyeball and tracking the cursor are that a facial image is acquired by the small CCD camera, convert it into binary image, search for the eye two using the five region mask method in the eye surroundings and the side four points diagonal positioning method is searched the each iris. The tracking cursor is matched by measuring the iris central moving position. The cursor controlling is achieved by comparing two related distances between the iris maximum moving and the cursor moving to calculate the moving distance from gazing position and screen. The experimental results show that the binocular eyeball mouse system is simple and fast to be real time.

A Study on the Mechanism of Social Robot Attitude Formation through Consumer Gaze Analysis: Focusing on the Robot's Face (소비자 시선 분석을 통한 소셜로봇 태도 형성 메커니즘 연구: 로봇의 얼굴을 중심으로)

  • Ha, Sangjip;Yi, Eun-ju;Yoo, In-jin;Park, Do-Hyung
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.07a
    • /
    • pp.409-414
    • /
    • 2021
  • 본 연구는 소셜로봇 디자인 연구의 흐름 중 하나인 로봇의 외형에 관하여 시선 추적을 활용하고자 한다. 소셜로봇의 몸 전체, 얼굴, 눈, 입술 등의 관심 영역으로부터 측정된 사용자의 시선 추적 지표와 디자인평가 설문을 통하여 파악된 사용자의 태도를 연결하여 소셜로봇의 디자인에 연구 모형을 구성하였다. 구체적으로 로봇에 대한 사용자의 태도를 형성하는 메커니즘을 발견하여 로봇 디자인 시 참고할 수 있는 구체적인 인사이트를 발굴하고자 하였다. 구체적으로 본 연구에서 사용된 시선 추적 지표는 고정된 시간(Fixation), 첫 응시 시간(First Visit), 전체 머문 시간(Total Viewed), 그리고 재방문 횟수(Revisits)이며, 관심 영역인 AOI(Areas of Interests)는 소셜로봇의 얼굴, 눈, 입술, 그리고 몸체로 설계하였다. 그리고 디자인평가 설문을 통하여 소셜로봇의 감정 표현, 인간다움, 얼굴 두각성 등의 소비자 신념을 수집하였고, 종속변수로 로봇에 대한 태도로 설정하였다.

  • PDF

Gaze Detection System using Real-time Active Vision Camera (실시간 능동 비전 카메라를 이용한 시선 위치 추적 시스템)

  • 박강령
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.12
    • /
    • pp.1228-1238
    • /
    • 2003
  • This paper presents a new and practical method based on computer vision for detecting the monitor position where the user is looking. In general, the user tends to move both his face and eyes in order to gaze at certain monitor position. Previous researches use only one wide view camera, which can capture a whole user's face. In such a case, the image resolution is too low and the fine movements of user's eye cannot be exactly detected. So, we implement the gaze detection system with dual camera systems(a wide and a narrow view camera). In order to locate the user's eye position accurately, the narrow view camera has the functionalities of auto focusing and auto panning/tilting based on the detected 3D facial feature positions from the wide view camera. In addition, we use dual R-LED illuminators in order to detect facial features and especially eye features. As experimental results, we can implement the real-time gaze detection system and the gaze position accuracy between the computed positions and the real ones is about 3.44 cm of RMS error.

A Study on Gaze Tracking Based on Pupil Movement, Corneal Specular Reflections and Kalman Filter (동공 움직임, 각막 반사광 및 Kalman Filter 기반 시선 추적에 관한 연구)

  • Park, Kang-Ryoung;Ko, You-Jin;Lee, Eui-Chul
    • The KIPS Transactions:PartB
    • /
    • v.16B no.3
    • /
    • pp.203-214
    • /
    • 2009
  • In this paper, we could simply compute the user's gaze position based on 2D relations between the pupil center and four corneal specular reflections formed by four IR-illuminators attached on each corner of a monitor, without considering the complex 3D relations among the camera, the monitor, and the pupil coordinates. Therefore, the objectives of our paper are to detect the pupil center and four corneal specular reflections exactly and to compensate for error factors which affect the gaze accuracy. In our method, we compensated for the kappa error between the calculated gaze position through the pupil center and actual gaze vector. We performed one time user calibration to compensate when the system started. Also, we robustly detected four corneal specular reflections that were important to calculate gaze position based on Kalman filter irrespective of the abrupt change of eye movement. Experimental results showed that the gaze detection error was about 1.0 degrees though there was the abrupt change of eye movement.

Real Time Eye and Gaze Tracking (실시간 눈과 시선 위치 추적)

  • Cho, Hyun-Seob;Ryu, In-Ho;Kim, Hee-Sook
    • Proceedings of the KIEE Conference
    • /
    • 2005.07d
    • /
    • pp.2839-2842
    • /
    • 2005
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다. 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다. 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참여하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90% 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.

  • PDF