• 제목/요약/키워드: Eye-gaze Interface

검색결과 36건 처리시간 0.025초

Eye-gaze Interface를 이용한 한글입력시스템 한글입력시스템 개발에 관한 연구 (A Study on the Korean Characters(Hangul) Input Method of Using Eye-gaze Interface)

  • 서한석;김종기;김치용
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2004년도 춘계학술발표대회논문집
    • /
    • pp.533-537
    • /
    • 2004
  • 고도 정보사회의 진전에 있어 정보의 수집, 정보의 전달 등을 위해, 여러 IT기기가 사용 되어지고 있다. 이러한 상황 속에서 IT기기를 장애자나 고령자를 포함, 누구나가 쉽게 이용 할 수 있도록 하는 유니버설디자인은 매우 중요한 일이다. 특히 상체부자유자의 인터페이스 장치로서 시선입력장치가 주목 받고 있다. 이러한 시대적인 흐름에서 본 연구에서는 Eye-gaze Interface를 이용한 시선입력만으로 컴퓨터상에서 한글입력이 가능한 한글 입력 시스템을 개발 제안한다. 또한 본 연구의 목적으로는 기존의 키보드, 마우스에 의한 입력장치와 Eye-gaze Interface를 이용한 입력 장치와의 정점과 단점을 비교 분석하고, 정보 사회에 있어서의 장애자와 고령자들의 Barrier Free에 관한 연구를 기본 목적으로 하고 있다 본 연구의 Eye-gaze Interface는 Eye Tech Digital System회사의 Quick Glance System를 사용한다 장애자와 고령자를 대상으로 한 사용자 평가 실험에 의해 실험을 진행 하였으며, 한글의 음운규칙에 관한 연구를 기초로 한글뿐만 아니라 영어, 일본어가 입력 가능한 입력 시스템을 제안한다. 이것은 컴퓨터 조작이 곤란한 장애자와 고령자가 일반인과의 자연스러운 커뮤니케이션이 가능하도록 한 것이다. 향후 Eye-gaze Interface를 이용한 응용분야 또한 게임, 영상, Eye Book, 자동차운전 둥 다양한 분야에 적용 가능하리라 기대된다.

  • PDF

시선 입력 장치에 의한 한글 입력 시스템 설계에 관한 연구 (A Study on the Hangul Input Methodology for Eye-gaze Interface)

  • 서한석;김치용
    • 디지털콘텐츠학회 논문지
    • /
    • 제5권3호
    • /
    • pp.239-244
    • /
    • 2004
  • 정보사회의 발전에 있어 정보의 수집, 전달 둥을 위해 수많은 IT기기가 개발 되어지고 있다. 이러한 상황 속에서 IT기기를 장애자나 고령자를 포함, 누구나가 쉽게 이용 할 수 있도록 하는 유니버설디자인은 매우 중요한 일이다. 특히 상체부자유자의 인터페이스 장치로서 시선 입력 장치가 주목 받고 있다. 이러한 시대적인 흐름에서 본 연구에서는 Eye-gaze Interface를 이용한 시선 입력만으로 컴퓨터상에서 한글입력이 가능한 한글 입력 시스템을 개발 제안한다. 또한 본 연구의 목적으로는 기존의 키보드 마우스에 의한 입력 장치와 Eye-gaze Interface를 이용한 입력 장치와의 정점과 단점을 비교 분석하고 정보사회에 있어서의 장애자와 고령자들의 Barrier Free에 관한 연구를 기본 목적으로 하고 있다. 본 연구의 Eye-gaze Interface는 Eye Tech Digital System회사의 Quick Glance System를 사용한다. 장애자와 고령자를 대상으로 한 사용자 평가 실험에 의해 실험을 진행 하였으며, 한글의 음운규칙에 관한 연구를 기초로 한글뿐만 아니라 영어, 일본어가 입력 가능한 입력 시스템을 제안한다. 이것은 컴퓨터 조작이 곤란한 장애자와 고령자가 일반인과의 자연스러운 커뮤니케이션이 가능하도록 한 것이다.

  • PDF

A New Eye Tracking Method as a Smartphone Interface

  • Lee, Eui Chul;Park, Min Woo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권4호
    • /
    • pp.834-848
    • /
    • 2013
  • To effectively use these functions many kinds of human-phone interface are used such as touch, voice, and gesture. However, the most important touch interface cannot be used in case of hand disabled person or busy both hands. Although eye tracking is a superb human-computer interface method, it has not been applied to smartphones because of the small screen size, the frequently changing geometric position between the user's face and phone screen, and the low resolution of the frontal cameras. In this paper, a new eye tracking method is proposed to act as a smartphone user interface. To maximize eye image resolution, a zoom lens and three infrared LEDs are adopted. Our proposed method has following novelties. Firstly, appropriate camera specification and image resolution are analyzed in order to smartphone based gaze tracking method. Secondly, facial movement is allowable in case of one eye region is included in image. Thirdly, the proposed method can be operated in case of both landscape and portrait screen modes. Fourthly, only two LED reflective positions are used in order to calculate gaze position on the basis of 2D geometric relation between reflective rectangle and screen. Fifthly, a prototype mock-up design module is made in order to confirm feasibility for applying to actual smart-phone. Experimental results showed that the gaze estimation error was about 31 pixels at a screen resolution of $480{\times}800$ and the average hit ratio of a $5{\times}4$ icon grid was 94.6%.

A Human-Robot Interface Using Eye-Gaze Tracking System for People with Motor Disabilities

  • Kim, Do-Hyoung;Kim, Jae-Hean;Yoo, Dong-Hyun;Lee, Young-Jin;Chung, Myung-Jin
    • Transactions on Control, Automation and Systems Engineering
    • /
    • 제3권4호
    • /
    • pp.229-235
    • /
    • 2001
  • Recently, service area has been emerging field f robotic applications. Even though assistant robots play an important role for the disabled and the elderly, they still suffer from operating the robots using conventional interface devices such as joysticks or keyboards. In this paper we propose an efficient computer interface using real-time eye-gaze tracking system. The inputs to the proposed system are images taken by a camera and data from a magnetic sensor. The measured data is sufficient to describe the eye and head movement because the camera and the receiver of a magnetic sensor are stationary with respect to the head. So the proposed system can obtain the eye-gaze direction in spite of head movement as long as the distance between the system and the transmitter of a magnetic position sensor is within 2m. Experimental results show the validity of the proposed system in practical aspect and also verify the feasibility of the system as a new computer interface for the disabled.

  • PDF

입 벌림 인식과 팝업 메뉴를 이용한 시선추적 마우스 시스템 성능 개선 (Improving Eye-gaze Mouse System Using Mouth Open Detection and Pop Up Menu)

  • 변주영;정기철
    • 한국멀티미디어학회논문지
    • /
    • 제23권12호
    • /
    • pp.1454-1463
    • /
    • 2020
  • An important factor in eye-tracking PC interface for general paralyzed patients is the implementation of the mouse interface, for manipulating the GUI. With a successfully implemented mouse interface, users can generate mouse events exactly at the point of their choosing. However, it is difficult to define this interaction in the eye-tracking interface. This problem has been defined as the Midas touch problem and has been a major focus of eye-tracking research. There have been many attempts to solve this problem using blink, voice input, etc. However, it was not suitable for general paralyzed patients because some of them cannot wink or speak. In this paper, we propose a mouth-pop-up, eye-tracking mouse interface that solves the Midas touch problem as well as becoming a suitable interface for general paralyzed patients using a common RGB camera. The interface presented in this paper implements a mouse interface that detects the opening and closing of the mouth to activate a pop-up menu that the user can select the mouse event. After implementation, a performance experiment was conducted. As a result, we found that the number of malfunctions and the time to perform tasks were reduced compared to the existing method.

상지장애인을 위한 시선 인터페이스에서의 객체 확대 및 음성 명령 인터페이스 개발 (Object Magnification and Voice Command in Gaze Interface for the Upper Limb Disabled)

  • 박주현;조세란;임순범
    • 한국멀티미디어학회논문지
    • /
    • 제24권7호
    • /
    • pp.903-912
    • /
    • 2021
  • Eye tracking research for upper limb disabilities is showing an effect in the aspect of device control. However, the reality is that it is not enough to perform web interaction with only eye tracking technology. In the Eye-Voice interface, a previous study, in order to solve the problem that the existing gaze tracking interfaces cause a malfunction of pointer execution, a gaze tracking interface supplemented with a voice command was proposed. In addition, the reduction of the malfunction rate of the pointer was confirmed through a comparison experiment with the existing interface. In this process, the difficulty of pointing due to the small size of the execution object in the web environment was identified as another important problem of malfunction. In this study, we propose an auto-magnification interface of objects so that people with upper extremities can freely click web contents by improving the problem that it was difficult to point and execute due to the high density of execution objects and their arrangements in web pages.

장애인을 위한 새로운 감성 인터페이스 연구 (A New Ergonomic Interface System for the Disabled Person)

  • 허환;이지우;이원오;이의철;박강령
    • 대한인간공학회지
    • /
    • 제30권1호
    • /
    • pp.229-235
    • /
    • 2011
  • Objective: Making a new ergonomic interface system based on camera vision system, which helps the handicapped in home environment. Background: Enabling the handicapped to manipulate the consumer electronics by the proposed interface system. Method: A wearable device for capturing the eye image using a near-infrared(NIR) camera and illuminators is proposed for tracking eye gaze position(Heo et al., 2011). A frontal viewing camera is attached to the wearable device, which can recognize the consumer electronics to be controlled(Heo et al., 2011). And the amount of user's eye fatigue can be measured based on eye blink rate, and in case that the user's fatigue exceeds in the predetermined level, the proposed system can automatically change the mode of gaze based interface into that of manual selection. Results: The experimental results showed that the gaze estimation error of the proposed method was 1.98 degrees with the successful recognition of the object by the frontal viewing camera(Heo et al., 2011). Conclusion: We made a new ergonomic interface system based on gaze tracking and object recognition Application: The proposed system can be used for helping the handicapped in home environment.

단계식 입력 체계를 이용한 시선 추적 기반의 한글 입력 인터페이스 설계 (Design of Korean eye-typing interfaces based on multilevel input system)

  • 김호중;우성경;이건우
    • 한국HCI학회논문지
    • /
    • 제12권4호
    • /
    • pp.37-44
    • /
    • 2017
  • Eye-typing은 인간-컴퓨터 상호작용의 일종으로 시선의 위치 정보를 기반으로 하는 입력 체계이다. 눈동자의 움직임 이외의 물리적 행위를 필요로 하지 않아 거동이 어려운 전신마비 환자들을 위한 입력 수단으로 널리 사용된다. 하지만 eye-typing을 위한 한글 기반의 인터페이스는 거의 제시되지 않은 것이 현실이다. 이에 본 연구에서는 한글 입력에 최적화된 eye-typing 입력 체계를 구현하였다. 우선 큰 잡음과 Midas touch problem으로 대표되는 eye-typing의 특성을 고려하여 설계 목표를 정립하였다. 잡음 문제를 해결하기 위해 개별 버튼의 크기를 극대화하기 위해 단계식 입력 체계를 도입하였고 Midas touch problem을 해결하기 위해 입력 영역 중간에 시선 보류 영역을 두었다. 다음으로 각 음절이 자음과 모음의 조합으로 생성되는 한글의 언어학적 특성에 대한 고찰을 바탕으로 두 종류의 eye-typing 인터페이스를 설계하였다. 각각 자모 일체형, 자모 분리형 인터페이스로 정의한 두 인터페이스는 한글의 자모음을 유형화하여 단계적으로 입력하도록 구현되었다. 그리고 이들의 성능을 검증하기위해 한글 두벌식자판과 비교하고 입력 과정에서 시선의 동선을 분석하는 실험을 수행하였다. 그 결과, 제시한 인터페이스가 실용적인 eye-typing 수단으로 활용될 가능성이 충분함을 확인하였다.