• 제목/요약/키워드: Eye-gaze Interface

검색결과 36건 처리시간 0.025초

응시 위치 추적 기술을 이용한 인터페이스 시스템 개발 (Computer Interface Using Head-Gaze Tracking)

  • 이정준;박강령;김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 하계종합학술대회 논문집
    • /
    • pp.516-519
    • /
    • 1999
  • Gaze detection is to find out the position on a monitor screen where a user is looking at, using the image processing and computer vision technology, We developed a computer interface system using the gaze detection technology, This system enables a user to control the computer system without using their hands. So this system will help the handicapped to use a computer and is also useful for the man whose hands are busy doing another job, especially in tasks in factory. For the practical use, command signal like mouse clicking is necessary and we used eye winking to give this command signal to the system.

  • PDF

상지장애인을 위한 시선 인터페이스에서 포인터 실행 방법의 오작동 비교 분석을 통한 Eye-Voice 방식의 제안 (A Proposal of Eye-Voice Method based on the Comparative Analysis of Malfunctions on Pointer Click in Gaze Interface for the Upper Limb Disabled)

  • 박주현;박미현;임순범
    • 한국멀티미디어학회논문지
    • /
    • 제23권4호
    • /
    • pp.566-573
    • /
    • 2020
  • Computers are the most common tool when using the Internet and utilizing a mouse to select and execute objects. Eye tracking technology is welcomed as an alternative technology to help control computers for users who cannot use their hands due to their disabilities. However, the pointer execution method of the existing eye tracking technique causes many malfunctions. Therefore, in this paper, we developed a gaze tracking interface that combines voice commands to solve the malfunction problem when the upper limb disabled uses the existing gaze tracking technology to execute computer menus and objects. Usability verification was conducted through comparative experiments regarding the improvements of the malfunction. The upper limb disabled who are hand-impaired use eye tracking technology to move the pointer and utilize the voice commands, such as, "okay" while browsing the computer screen for instant clicks. As a result of the comparative experiments on the reduction of the malfunction of pointer execution with the existing gaze interfaces, we verified that our system, Eye-Voice, reduced the malfunction rate of pointer execution and is effective for the upper limb disabled to use.

눈의 응시 방향을 이용한 인간-컴퓨터간의 인터페이스에 관한 연구 (Human-Computer Interface using the Eye-Gaze Direction)

  • 김도형;김재헌;정명진
    • 전자공학회논문지CI
    • /
    • 제38권6호
    • /
    • pp.46-56
    • /
    • 2001
  • 본 논문에서는 연속적인 영상 정보와 자기 센서의 정보로부터 실시간으로 눈의 응시 방향을 추적하기 위한 효과적인 접근 방법에 대해 제안한다. 이러한 눈 응시 추적 시스템의 입력으로는 한 대의 카메라를 통해 얻어지는 영상들과 자기 센서의 데이터들이다. 눈의 영상을 받아들이는 카메라와 자기 센서의 수신부가 머리에 고정되어 있어서 측정된 데이터들은 눈과 머리의 움직임을 표현하는데 충분하다. 실험 결과에서는 제안한 시스템이 실시간으로 동작하는 측면에 대해 그 유용성을 보여줄 것이고 또 그러한 시스템을 이용하여 마우스 대신 새로운 컴퓨터 인터페이스로 사용할 수 있다는 가능성을 보여줄 것이다.

  • PDF

시선응시 방법과 시각도가 P300 문자입력기의 정확도에 미치는 영향 (The effects of the methods of eye gaze and visual angles on accuracy of P300 speller)

  • 엄진섭;손진훈
    • 감성과학
    • /
    • 제17권2호
    • /
    • pp.91-100
    • /
    • 2014
  • 본 연구에서는 P300 문자입력기의 물리적 특성에 해당하는 문자판의 시각도와 사용자의 개인적 특성에 해당하는 시선응시 방법이 P300 문자입력기의 정확도에 미치는 영향을 검증하였다. 문자판의 시각도는 사용자와 문자판 간의 거리로 조작하였으며, 60 cm 집단과 100 cm 집단, 150 cm 집단으로 구성하였다. 시선응시방법은 세 조건으로 반복측정하였다. 머리 조건은 머리를 움직여서 시선을 두는 조건이었으며, 눈동자 조건은 머리는 고정한 채 눈동자를 움직여서 시선을 두는 조건이었고, 시선고정 조건은 시선을 문자입력기의 중앙에 고정시킨 조건이었다. 이요인설계에 의한 실험결과, 문자입력의 정확도가 시선응시방법에 따라 유의한 차이가 있었다. 머리 조건의 정확도가 눈동자 조건의 정확도 보다 높았으며, 눈동자 조건의 정확도가 시선고정 조건의 정확도 보다 높았다. 그러나 문자판의 시각도와 상호작용효과는 모두 유의하지 않았다. 시선응시방법에 따라 목표문자의 P300 진폭을 측정한 결과, 머리조건의 P300이 눈동자 조건의 P300보다 더 컸다. 머리조건과 눈동자 조건 간에는 오류분포에서 큰 차이가 없었지만, 시선고정 조건은 나머지 두 조건과 큰 차이를 보였다. 머리조건과 눈동자 조건에서는 오류가 주로 목표문자와 인접한 문자에서 나타난 반면, 시선고정 조건은 오류가 상대적으로 넓게 분포하였으며, 문자판의 중심에서 멀리 떨어져 있는 문자들에서 오류가 많이 발생하였다.

웨이블릿 계수와 Dynamic Positional Warping을 통한 EOG기반의 사용자 독립적 시선인식 (EOG-based User-independent Gaze Recognition using Wavelet Coefficients and Dynamic Positional Warping)

  • 장원두;임창환
    • 한국멀티미디어학회논문지
    • /
    • 제21권9호
    • /
    • pp.1119-1130
    • /
    • 2018
  • Writing letters or patterns on a virtual space by moving a person's gaze is called "eye writing," which is a promising tool for various human-computer interface applications. This paper investigates the use of conventional eye writing recognition algorithms for the purpose of user-independent recognition of eye-written characters. Two algorithms are presented to build the user-independent system: eye-written region extraction using wavelet coefficients and template generation. The experimental results of the proposed system demonstrated that with dynamic positional warping, an F1 score of 79.61% was achieved for 12 eye-written patterns, thereby indicating the possibility of user-independent use of eye writing.

웨어러블 시스템에서 눈동자의 움직임을 이용한 인터페이스 (Eye Gaze Interface in Wearable System)

  • 권기문;이정준;박강령;김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅳ
    • /
    • pp.2124-2127
    • /
    • 2003
  • This paper suggests user interface method with wearable computer by means of detecting gaze under HMD, head mounted display, environment. System is derived as follows; firstly, calibrate a camera in HMD, which determines geometrical relationship between monitor and captured image. Second, detect the center of pupil using ellipse fitting algorithm and represent a gazing position on the computer screen. If user blinks or stares at a certain position for a while, message is sent to wearable computer. Experimental results show ellipse fitting is robust against glint effects, and detecting error was 6.5%, and 4.25% in vertical and horizontal direction, respectively.

  • PDF

얼굴 및 눈동자 움직임에 의한 시선 위치 추적 (Gaze Detection by Computing Facial and Eye Movement)

  • 박강령
    • 대한전자공학회논문지SP
    • /
    • 제41권2호
    • /
    • pp.79-88
    • /
    • 2004
  • 시선 위치 추적이란 현재 사용자가 응시하고 있는 위치를 컴퓨터 시각 인식 방법에 의해 파악하는 연구이다. 이러한 시선 위치 추적 기술은 많은 응용 분야를 가지고 있는데, 그 대표적인 예로는 양 손을 사용하지 못하는 심신 장애자를 위한 컴퓨터 인터페이스 및 3차원 시뮬레이터 프로그램에서 사용자의 시선 위치에 따른 화면 제어 등이 있다. 이 논문에서는 적외선 조명이 부착된 단일 카메라를 이용한 컴퓨터 비전 시스템으로 시선 위치 추적 연구를 수행하였다. 사용자의 시선 위치를 파악하기 위해서는 얼굴 특징점의 위치를 추적해야하는데, 이를 위하여 이 논문에서는 적외선 기반 카메라와 SVM(Support Vector Machine) 알고리즘을 사용하였다. 사용자가 모니터상의 임의의 지점을 쳐다볼 때 얼굴 특징점의 3차원 위치는 3차원 움식임량 추정(3D motion estimation) 및 아핀 변환(affine transformation)에 의해 계산되어 질 수 있다. 얼굴 특징점의 변화된 3차원 위치가 계산되면, 이로부터 3개 이상의 얼굴 특징점으로부터 생성되는 얼굴 평면 및 얼굴 평면의 법선 벡터가 구해지게 되며, 이러한 법선 벡터가 모니터 스크린과 만나는 위치가 사용자의 시선위치가 된다. 또한, 이 논문에서는 보다 정확한 시선 위치를 파악하기 위하여 사용자의 눈동자 움직임을 추적하였으면 이를 위하여 신경망(다층 퍼셉트론)을 사용하였다. 실험 결과, 얼굴 및 눈동자 움직임에 의한 모니터상의 시선 위치 정확도는 약 4.8㎝의 최소 자승 에러성능을 나타냈다.

상황 인식 기반 다중 영역 분류기 비접촉 인터페이스기술 개발 (Technology Development for Non-Contact Interface of Multi-Region Classifier based on Context-Aware)

  • 김송국;이필규
    • 한국인터넷방송통신학회논문지
    • /
    • 제20권6호
    • /
    • pp.175-182
    • /
    • 2020
  • 비접촉식 시선추적 기술은 인간과 컴퓨터간의 인터페이스로서 장애가 있는 사람들에게 핸즈프리 통신을 제공하며, 최근 코로나 바이러스 등으로 인한 비접촉시스템에도 중요한 역할을 할 것으로 기대된다. 따라서 본 논문에서는 인간 중심의 상호 작용을 위한 상황인식 다중영역 분류기 및 ASSL 알고리즘을 기반으로 한 사용자 인터페이스 기술을 개발한다. 이전의 AdaBoost 알고리즘은 안구 특징 사이의 공간적 맥락 관계를 이용할 수 없기 때문에 눈의 커서 포인팅 추정을 위한 안면 추적에서 충분히 신뢰할 수 있는 성능을 제공 할 수 없다. 따라서 본 논문에서는 효율적인 비접촉식 시선 추적 및 마우스 구현을 위한 눈 영역의 상황기반 AdaBoost 다중 영역 분류기를 제시한다. 제안된 방식은 여러 시선 기능을 감지, 추적 및 집계하여 시선을 평가하고 온 스크린 커서 기반의 능동 및 반 감독 학습을 조정한다. 이는 눈 위치에 성공적으로 사용되었으며 눈 특징을 감지하고 추적하는 데에도 사용할 수 있다. 사용자의 시선을 따라 컴퓨터 커서를 제어하며 칼만 필터를 이용하여 실시간으로 추적하며, 가우시안 모델링을 적용함으로써 후처리하였다. Fits law에 의해 실험하였으며, 랜덤하게 대상객체를 생성하여 실시간으로 시선추적성능을 분석하였다. 제안하는 상황인식을 기반 인식기를 통하여 비접촉 인터페이스로서의 활용이 높아질 것이다.

눈동자 추적 기반 입력 및 딥러닝 기반 음성 합성을 적용한 루게릭 환자 의사소통 지원 시스템 (Communication Support System for ALS Patient Based on Text Input Interface Using Eye Tracking and Deep Learning Based Sound Synthesi)

  • 박현주;정승도
    • 디지털산업정보학회논문지
    • /
    • 제20권2호
    • /
    • pp.27-36
    • /
    • 2024
  • Accidents or disease can lead to acquired voice dysphonia. In this case, we propose a new input interface based on eye movements to facilitate communication for patients. Unlike the existing method that presents the English alphabet as it is, we reorganized the layout of the alphabet to support the Korean alphabet and designed it so that patients can enter words by themselves using only eye movements, gaze, and blinking. The proposed interface not only reduces fatigue by minimizing eye movements, but also allows for easy and quick input through an intuitive arrangement. For natural communication, we also implemented a system that allows patients who are unable to speak to communicate with their own voice. The system works by tracking eye movements to record what the patient is trying to say, then using Glow-TTS and Multi-band MelGAN to reconstruct their own voice using the learned voice to output sound.

컴퓨터 인터페이스를 위한 실시간 시선 식별 (Real Time Gaze Discrimination for Computer Interface)

  • 황선기;김문환
    • 한국정보전자통신기술학회논문지
    • /
    • 제3권1호
    • /
    • pp.38-46
    • /
    • 2010
  • 본 논문에서는 실시간 시선 식별을 위한 능동적 적외선 조명을 기반으로 한 컴퓨터 비전 시스템을 제안 하고자 한다. 현존하는 대다수의 시선 식별 방법은 고정된 얼굴에서만 원활하게 동작하고 개개인에 대한 교정 절차를 필요로 한다. 그러므로 본 논문에서는 교정 작업 없이 얼굴 움직임이 있는 경우에도 견실하고 정확하게 동작하는 시선 식별 시스템을 제안하고 있다. 제안된 시스템은 추출된 변수로부터 시선을 스크린 좌표로 매핑하기 위해 GRNN을 이용하였다. 동공을 추적하여 GRNN을 사용함으로서, 시선 매핑에 분석적 기능이나 얼굴 움직임에 대한 계산이 필요 없을 뿐 아니라 다른 개개인에 대하여 학습과정에서 매핑 기능을 일반화 할 수 있었다. 시선 예측 정확도를 개선하고자 계층적 식별을 제안함으로써 오분류를 줄일 수 있었고, 공간 시선 해상도는 스크린에서 1m 정도 떨어진 거리에서 수평으로 10cm, 수직으로 약 13cm, 즉 수평으로 8도 수직으로 5도 이었다. 실험 결과, 재식별 하였을 경우 1차 시선 식별시 84%보다 약 9% 정도 정확성이 향상되어 93%를 나타냄으로써 제안된 시스템의 유효성을 증명하였다.

  • PDF