• Title/Summary/Keyword: 눈추적

Search Result 201, Processing Time 0.025 seconds

Head Gesture Recognition Technique based on Mean Acceleration Measure(MAM) (특징 벡터 보정 기반의 헤드 제스처 인식)

  • 전인자;최현일;이필규
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.580-582
    • /
    • 2000
  • 본 논문에서는 MAM을 이용한 특징 벡터의 보정을 기반으로 하는 헤드 제스처 인식에 관해 기술한다. 제안된 시스템은 얼굴 움직임 검출 모듈과 눈 영역 추적 모듈, 미 측정된 벡터 보정 모듈, 측정된 제스처에 대한 인식모듈로 구성된다. 신경망과 모자이크 이미지를 이용하여 얼굴 영역을 검출하고, 이 영역에서 눈 영역을 검출한다. 만약 눈의 쌍이 검출되지 않는다면 시스템은 특징 벡터 보정(MAM)을 수행하여 손실된 정보를 예측한다. 검출된 눈 영역은 정규화된 벡터로 변경된다. 이 벡터의 분산을 이용하여 긍정, 부정, 중립의 제스처를 판단한다. 제스처의 인식은 직접 관측, 이중 HMM, 삼중 HMM을 사용한 다중 인식기를 이용한다.

  • PDF

High Speed Face and Eye Detection Algorithm for Personal 3D Broadcasting Devices with User Interactive Function (사용자 인터페이스 기능의 개인용 3D 방송단말을 위한 얼굴 및 눈인식 알고리즘의 고속 검출 방법)

  • Song, Hyok;Kwak, Soo-Yeong;Bae, Jin-Woo;Choi, Byeong-Ho
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.428-429
    • /
    • 2011
  • 3D 디스플레이 장치는 디스플레이 장치의 시점 수에 따라 다시점 디스플레이 장치 및 스테레오 디스플레이 장치로 구분할 수 있다. 스테레오 디스플레이 장치는 좌우 두 개의 영상을 디스플레이 방식에 따라 영상포맷을 변경하여 디스플레이에 보여지고 다시점 디스플레이는 두 개 이상의 영상 데이터를 포함하는 것으로 구분할 수 있다. 영상의 화질문제로 인하여 최근 3DTV는 스테레오 방식을 사용하고 있으며 대기업에서 양산하고 있는 기술이다. 스테레오 방식에서는 개인용 단말의 경우 사용자의 위치 및 눈의 위치에 따라 깊이감을 달리 보여주는 장치가 개발되고 있어 이에 대한 연구를 진행하였다. 이와같은 기술의 흐름에 맞춰 3D 디스플레이 장치를 위한 눈 추적 알고리즘을 구현하였다. 본 논문에는 카메라에서 입력되는 영상에서 얼굴영역을 Haar training 방법을 통하여 추출하였으며 PCA 방법을 통하여 눈 영역을 추출하였다. 알고리즘의 복잡도로 인하여 연산량을 줄이기 위하여 Downsampling 방법을 활용하여 연산량을 약 26% 감소시켰다. 본 연구 결과를 통하여 얼굴 및 눈 추적 알고리즘 구현시 최적화를 위하여 필요한 프로세스를 예측할 수 있다.

  • PDF

Human-Computer Interface using the Eye-Gaze Direction (눈의 응시 방향을 이용한 인간-컴퓨터간의 인터페이스에 관한 연구)

  • Kim, Do-Hyoung;Kim, Jea-Hean;Chung, Myung-Jin
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.38 no.6
    • /
    • pp.46-56
    • /
    • 2001
  • In this paper we propose an efficient approach for real-time eye-gaze tracking from image sequence and magnetic sensory information. The inputs to the eye-gaze tracking system are images taken by a camera and data from a magnetic sensor. The measuring data are sufficient to describe the eye and head movement, because the camera and the receiver of a magnetic sensor are stationary with respect to the head. Experimental result shows the validity of real time application aspect of the proposed system and also shows the feasibility of the system as using a new computer interface instead of the mouse.

  • PDF

Development of Adaptive Eye Tracking System Using Auto-Focusing Technology of Camera (눈동자 자동 추적 카메라 시스템 설계와 구현)

  • Wei, Zukuan;Liu, Xiaolong;Oh, Young-Hwan;Yook, Ju-Hye
    • Journal of Digital Contents Society
    • /
    • v.13 no.2
    • /
    • pp.159-167
    • /
    • 2012
  • Eye tracking technology tracks human eyes movements to understand user's intention. This technology has been improving slowly and should be used for a variety of occasions now. For example, it enables persons with disabilities to operate a computer with their eyes. This article will show a typical implementation of an eye tracking system for persons with disabilities, after introducing the design principles and specific implementation details of an eye tracking system. The article discussed the realization of self-adapting regulation algorithm in detail. The self-adapting algorithm is based on feedback signal controlling the lens movements to realize automatic focus, and to get a clear eyes image. This CCD camera automatic focusing method has self-adapting capacity for changes of light intensity on the external environment. It also avoids the trouble of manual adjustment and improves the accuracy of the adjustment.

Evaluation of Gaze Depth Estimation using a Wearable Binocular Eye tracker and Machine Learning (착용형 양안 시선추적기와 기계학습을 이용한 시선 초점 거리 추정방법 평가)

  • Shin, Choonsung;Lee, Gun;Kim, Youngmin;Hong, Jisoo;Hong, Sung-Hee;Kang, Hoonjong;Lee, Youngho
    • Journal of the Korea Computer Graphics Society
    • /
    • v.24 no.1
    • /
    • pp.19-26
    • /
    • 2018
  • In this paper, we propose a gaze depth estimation method based on a binocular eye tracker for virtual reality and augmented reality applications. The proposed gaze depth estimation method collects a wide range information of each eye from the eye tracker such as the pupil center, gaze direction, inter pupil distance. It then builds gaze estimation models using Multilayer perceptron which infers gaze depth with respect to the eye tracking information. Finally, we evaluated the gaze depth estimation method with 13 participants in two ways: the performance based on their individual models and the performance based on the generalized model. Through the evaluation, we found that the proposed estimation method recognized gaze depth with 90.1% accuracy for 13 individual participants and with 89.7% accuracy for including all participants.

Implementation of Drowsiness Driving Warning System based on Eyes Detection and Pupi1 Tracking (눈 검출 및 눈동자 추적 기반을 통한 졸음운전 경보 시스템 구현)

  • Min JiHong;Kim Jung-Chul;Hong Kicheon
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2005.11a
    • /
    • pp.249-252
    • /
    • 2005
  • 본 논문에서는 자동차를 운전 시에 운전자의 얼굴과 눈의 영역을 자동으로 검출하고 눈동자를 추적하여 운전자의 졸음 여부를 판단하는 효과적인 시스템 구현방법을 제안한다. 복잡한 배경에서 얼굴과 눈을 검출하는 방법은 Haar-like feature의 원리를 이용하고 졸음운전으로 판단하는 방법은 눈동자 영역의 특성과 눈동자의 검출 유무, 움직임 등의 인식을 통하여 졸음운전 경보시스템의 실용화에 대한 가능성을 확인한다.

  • PDF

신체 장애우를 위한 얼굴 특징 추적을 이용한 실감형 게임 시스템 구현

  • Ju, Jin-Sun;Shin, Yun-Hee;Kim, Eun-Yi
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10a
    • /
    • pp.475-478
    • /
    • 2006
  • 실감형 게임은 사람의 신체 움직임 및 오감을 최대한 반영한 리얼리티를 추구하는 전문적인 게임이다. 현재 개발된 실감형 게임들은 비 장애우를 대상으로 만들어 졌기 때문에 많은 움직임을 필요로 한다. 하지만 신체적 불편함을 가진 장애우들은 이러한 게임들을 이용하는데 어려움이 있다. 따라서 본 논문에서는 PC상에서 최소의 얼굴 움직임을 사용하여 수행할 수 있는 실감형 게임 시스템을 제안한다. 제안된 실감형 게임 시스템은 웹 카메라로부터 얻어진 영상에서 신경망 기반의 텍스쳐 분류기를 이용하여 눈 영역을 추출한다. 추출된 눈 영역은 Mean-shift 알고리즘을 이용하여 실시간으로 추적되어지고, 그 결과로 마우스의 움직임이 제어된다. 구현된 flash게임과 연동하여 게임을 눈의 움직임으로 제어 할 수 있다. 제안된 시스템의 효율성을 검증하기 위하여 장애우와 비 장애우로 분류하여 성능을 평가 하였다. 그 결과 제안된 시스템이 보다 편리하고 친숙하게 신체 장애우 에게 활용 될 수 있으며 복잡한 환경에서도 확실한 얼굴 추적을 통하여 실감형 게임 시스템을 실행 할 수 있음이 증명되었다.

  • PDF

Eye Location Algorithm For Natural Video-Conferencing (화상 회의 인터페이스를 위한 눈 위치 검출)

  • Lee, Jae-Jun;Choi, Jung-Il;Lee, Phill-Kyu
    • The Transactions of the Korea Information Processing Society
    • /
    • v.4 no.12
    • /
    • pp.3211-3218
    • /
    • 1997
  • This paper addresses an eye location algorithm which is essential process of human face tracking system for natural video-conferencing. In current video-conferencing systems, user's facial movements are restricted by fixed camera, therefore it is inconvenient to users. We Propose an eye location algorithm for automatic face tracking. Because, locations of other facial features guessed from locations of eye and scale of face in the image can be calculated using inter-ocular distance. Most previous feature extraction methods for face recognition system are approached under assumption that approximative face region or location of each facial feature is known. The proposed algorithm in this paper uses no prior information on the given image. It is not sensitive to backgrounds and lighting conditions. The proposed algorithm uses the valley representation as major information to locate eyes. The experiments have been performed for 213 frames of 17 people and show very encouraging results.

  • PDF

A study on the eye Location for Video-Conferencing Interface (화상 회의 인터페이스를 위한 눈 위치 검출에 관한 연구)

  • Jung, Jo-Nam;Gang, Jang-Mook;Bang, Kee-Chun
    • Journal of Digital Contents Society
    • /
    • v.7 no.1
    • /
    • pp.67-74
    • /
    • 2006
  • In current video-conferencing systems. user's face movements are restricted by fixed camera, therefore it is inconvenient to users. To solve this problem, tracking of face movements is needed. Tracking using whole face needs much computing time and whole face is difficult to define as an one feature. Thus, using several feature points in face is more desirable to track face movements efficiently. This paper addresses an effective eye location algorithm which is essential process of automatic human face tracking system for natural video-conferencing. The location of eye is very important information for face tracking, as eye has most clear and simplest attribute in face. The proposed algorithm is applied to candidate face regions from the face region extraction. It is not sensitive to lighting conditions and has no restriction on face size and face with glasses. The proposed algorithm shows very encouraging results from experiments on video-conferencing environments.

  • PDF

Technology Development for Non-Contact Interface of Multi-Region Classifier based on Context-Aware (상황 인식 기반 다중 영역 분류기 비접촉 인터페이스기술 개발)

  • Jin, Songguo;Rhee, Phill-Kyu
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.20 no.6
    • /
    • pp.175-182
    • /
    • 2020
  • The non-contact eye tracking is a nonintrusive human-computer interface providing hands-free communications for people with severe disabilities. Recently. it is expected to do an important role in non-contact systems due to the recent coronavirus COVID-19, etc. This paper proposes a novel approach for an eye mouse using an eye tracking method based on a context-aware based AdaBoost multi-region classifier and ASSL algorithm. The conventional AdaBoost algorithm, however, cannot provide sufficiently reliable performance in face tracking for eye cursor pointing estimation, because it cannot take advantage of the spatial context relations among facial features. Therefore, we propose the eye-region context based AdaBoost multiple classifier for the efficient non-contact gaze tracking and mouse implementation. The proposed method detects, tracks, and aggregates various eye features to evaluate the gaze and adjusts active and semi-supervised learning based on the on-screen cursor. The proposed system has been successfully employed in eye location, and it can also be used to detect and track eye features. This system controls the computer cursor along the user's gaze and it was postprocessing by applying Gaussian modeling to prevent shaking during the real-time tracking using Kalman filter. In this system, target objects were randomly generated and the eye tracking performance was analyzed according to the Fits law in real time. It is expected that the utilization of non-contact interfaces.