• 제목/요약/키워드: Gesture Interface

검색결과 231건 처리시간 0.025초

Multimodal Interface Based on Novel HMI UI/UX for In-Vehicle Infotainment System

  • Kim, Jinwoo;Ryu, Jae Hong;Han, Tae Man
    • ETRI Journal
    • /
    • 제37권4호
    • /
    • pp.793-803
    • /
    • 2015
  • We propose a novel HMI UI/UX for an in-vehicle infotainment system. Our proposed HMI UI comprises multimodal interfaces that allow a driver to safely and intuitively manipulate an infotainment system while driving. Our analysis of a touchscreen interface-based HMI UI/UX reveals that a driver's use of such an interface while driving can cause the driver to be seriously distracted. Our proposed HMI UI/UX is a novel manipulation mechanism for a vehicle infotainment service. It consists of several interfaces that incorporate a variety of modalities, such as speech recognition, a manipulating device, and hand gesture recognition. In addition, we provide an HMI UI framework designed to be manipulated using a simple method based on four directions and one selection motion. Extensive quantitative and qualitative in-vehicle experiments demonstrate that the proposed HMI UI/UX is an efficient mechanism through which to manipulate an infotainment system while driving.

Implementation of Non-Contact Gesture Recognition System Using Proximity-based Sensors

  • Lee, Kwangjae
    • 반도체디스플레이기술학회지
    • /
    • 제19권3호
    • /
    • pp.106-111
    • /
    • 2020
  • In this paper, we propose the non-contact gesture recognition system and algorithm using proximity-based sensors. The system uses four IR receiving photodiode embedded on a single chip and an IR LED for small area. The goal of this paper is to use the proposed algorithm to solve the problem associated with bringing the four IR receivers close to each other and to implement a gesture sensor capable of recognizing eight directional gestures from a distance of 10cm and above. The proposed system was implemented on a FPGA board using Verilog HDL with Android host board. As a result of the implementation, a 2-D swipe gesture of fingers and palms of 3cm and 15cm width was recognized, and a recognition rate of more than 97% was achieved under various conditions. The proposed system is a low-power and non-contact HMI system that recognizes a simple but accurate motion. It can be used as an auxiliary interface to use simple functions such as calls, music, and games for portable devices using batteries.

동작인식기반 Digital TV인터페이스를 위한 지시동작에 관한 연구 (A Study on Vision Based Gesture Recognition Interface Design for Digital TV)

  • 김현석;황성원;문현정
    • 디자인학연구
    • /
    • 제20권3호
    • /
    • pp.257-268
    • /
    • 2007
  • 인간 대 컴퓨터 인터페이스의 발전은 기술의 발전에 크게 의존되어 왔다. 그러나 인위적 환경을 통한 커뮤니케이션 방법인 키보드, 마우스나 OMR 등의 비직관적 인터페이스를 넘어선 직관적 인터페이스의 연구가 활발히 진행되고 있다. 이와 더불어 일반 가정에서도 대형화면 TV의 급속한 보급과 디지털환경을 통한 다양한 서비스의 제공이 이뤄지고 있다. 이러한 인터페이스와 TV환경의 변화는 인간 대 TV의 인터페이스에 획기적 변화를 요구하게 되었다. 기존의 인터페이스에서 동작인식을 기반으로 하는 인터페이스로의 전환은 보다 직관적인 인터페이스로서 제시될 수 있을 것이다. 본 연구에서는 지시동작인식이론과 디지털 TV 인터페이스 분석에 대한 이론을 바탕으로, 이에 요구되는 최소기능 추출 후 인터뷰를 통해 추출된 지시동작을 분석하는 기초적 연구이다. 이를 통해 디지털 TV에서 요구되어지는 특정 기능에 대한 동작모형을 제시하여 이에 적합한 인터페이스 환경을 디자인하는데 대한 기초자료로 활용하고자 한다.

  • PDF

비전 기반 신체 제스처 인식을 이용한 상호작용 콘텐츠 인터페이스 (Interface of Interactive Contents using Vision-based Body Gesture Recognition)

  • 박재완;송대현;이칠우
    • 스마트미디어저널
    • /
    • 제1권2호
    • /
    • pp.40-46
    • /
    • 2012
  • 본 논문은 비전 기반 신체 제스처 인식 결과를 입력인터페이스로 사용하는 상호작용 콘텐츠에 대해 기술한다. 제작된 콘텐츠 는 아시아의 공통문화요소인 도깨비를 소재로 사용하여 지역 문화에 친숙하게 접근할 수 있도록 하였다. 그리고 콘텐츠를 구성 하는 시나리오는 도깨비와의 결투장면에서 사용자의 제스처 인식을 통해 결투를 진행하므로 사용자는 자연스럽게 콘텐츠 시나리오에 몰입할 수 있다. 시나리오의 후반부에서는 사용자는 시간과 공간이 다른 다중의 결말을 선택할 수 있다. 신체 제스처 인식 부분에서는 키넥트(KINECT)를 통해 얻을 수 있는 각 신체 부분의 3차원좌표를 이용하여 정지동작인 포즈를 활용한다. 비전기반 3차원 인체 포즈 인식 기술은 HCI(Human-Computer Interaction)에서 인간의 제스처를 전달하기 위한 방법으로 사용된다. 특수한 환경에서 단순한 2차원 움직임 포즈만 인식할 수 있는 2차원 포즈모델 기반 인식 방법에 비해 3차원 관절을 묘사한 포즈모델은 관절각에 대한 정보와 신체 부위의 모양정보를 선행지식으로 사용할 수 있어서 좀 더 일반적인 환경에서 복잡한 3차원 포즈도 인식할 수 있다는 장점이 있다. 인간이 사용하는 제스처는 정지동작인 포즈들의 연속적인 동작을 통해 표현이 가능하므로 HMM을 이용하여 정지동작 포즈들로 구성된 제스처를 인식하였다. 본 논문에서 기술한 체험형 콘텐츠는 사용자가 부가적인 장치의 사용 없이 제스처 인식 결과를 입력인터페이스로 사용하였으며 사용자의 몸동작만으로 자연스럽게 콘텐츠를 조작할 수 있도록 해준다. 본 논문에서 기술한 체험형 콘텐츠는 평소 접하기 어려운 도깨비를 이용하여 사용자와 실시간 상호작용이 가능케 함으로써 몰입도와 재미를 향상시키고자 하였다.

  • PDF

스마트홈 내 기기와의 상호작용을 위한 사용자 중심의 핸드 제스처 도출 (Design of Hand Gestures for Smart Home Appliances based on a User Centered Approach)

  • 최은정;권성혁;이동훈;이호진;정민근
    • 대한산업공학회지
    • /
    • 제38권3호
    • /
    • pp.182-190
    • /
    • 2012
  • With the progress of both wire and wireless home networking technology, various projects on smart home have been carried out in the world (Harper, 2003), and at the same time, new approaches to interact with smart home systems efficiently and effectively have also been investigated. A gesture-based interface is one of these approaches. Especially with advance of gesture recognition technologies, a variety of research studies on gesture interactions with the functions of IT devices have been conducted. However, there are few research studies which suggested and investigated the use of gestures for controlling smart home appliances. In this research the gestures for selected smart home appliances are suggested based on a user centered approach. A total of thirty-eight functions were selected, and a total of thirty participants generated gestures for each function. Based on the Nielsen (2004), Lee et al. (2010) and Kuhnel et al. (2011), the gesture with the highest frequency for each function (Top gesture) has been suggested and investigated.

A Comparison of the Characteristics between Single and Double Finger Gestures for Web Browsers

  • Park, Jae-Kyu;Lim, Young-Jae;Jung, Eui-S.
    • 대한인간공학회지
    • /
    • 제31권5호
    • /
    • pp.629-636
    • /
    • 2012
  • Objective: The purpose of this study is to compare the characteristics of single and double finger gestures related on the web browser and to extract the appropriate finger gestures. Background: As electronic equipment emphasizes miniaturization for improving portability various interfaces are being developed as input devices. Electronic devices are made smaller, the gesture recognition technology using the touch-based interface is favored for easy editing. In addition, user focus primarily on the simplicity of intuitive interfaces which propels further research of gesture based interfaces. In particular, the fingers in these intuitive interfaces are simple and fast which are users friendly. Recently, the single and double finger gestures are becoming more popular so more applications for these gestures are being developed. However, systems and software that employ such finger gesture lack consistency in addition to having unclear standard and guideline development. Method: In order to learn the application of these gestures, we performed the sketch map method which happens to be a method for memory elicitation. In addition, we used the MIMA(Meaning in Mediated Action) method to evaluate gesture interface. Results: This study created appropriate gestures for intuitive judgment. We conducted a usability test which consisted of single and double finger gestures. The results showed that double finger gestures had less performance time faster than single finger gestures. Single finger gestures are a wide satisfaction difference between similar type and difference type. That is, single finger gestures can judge intuitively in a similar type but it is difficult to associate functions in difference type. Conclusion: This study was found that double finger gesture was effective to associate functions for web navigations. Especially, this double finger gesture could be effective on associating complex forms such as curve shaped gestures. Application: This study aimed to facilitate the design products which utilized finger and hand gestures.

제스쳐 클리핑 영역 비율과 크기 변화를 이용한 손-동작 인터페이스 구현 (Implement of Hand Gesture Interface using Ratio and Size Variation of Gesture Clipping Region)

  • 최창열;이우범
    • 한국인터넷방송통신학회논문지
    • /
    • 제13권1호
    • /
    • pp.121-127
    • /
    • 2013
  • 본 논문에서는 UI 시스템에서 포인팅 장비를 대신할 수 있는 컴퓨터 비전 기반의 제스쳐 형상의 영역 비율과 크기 변화 특징을 이용한 손-동작 인터페이스를 제안한다. 제안한 방법은 효과적인 손 영역 검출을 위해서 HSI 컬러 모델을 기반으로 손 영역의 피부 색상(Hue)과 채도(Saturation) 값을 혼합하여 적용함으로서 제스쳐 인식에 있어서 손 영역 이외의 피부색 영역을 제거할 수 있으며, 빛에 의한 잡음 영향을 줄이는데 효과적이다. 또한 제시되는 제스쳐의 정적인 포즈 인식이 아닌 실시간으로 변화하는 제스쳐 클리핑 영역에서의 손 영역 화소 비율과 크기 변화를 검출함으로써 계산량을 줄일 수 있으며, 보다 빠른 응답 속도를 보장한다. 제안한 컴퓨터 비전 기반의 포인팅 인터페이스는 우리가 이전 연구에서 구현한 자가 시력 측정 시스템에서 독립적인 포인팅 인터페이스로 적용한 결과, 평균적으로 86%의 제스쳐 인식률과 87%의 좌표이동 인식률을 보여 포인팅 인터페이스로의 활용도를 보였다.

가상 놀이 공간 인터페이스를 위한 HMM 기반 상반신 제스처 인식 (HMM-based Upper-body Gesture Recognition for Virtual Playing Ground Interface)

  • 박재완;오치민;이칠우
    • 한국콘텐츠학회논문지
    • /
    • 제10권8호
    • /
    • pp.11-17
    • /
    • 2010
  • 본 논문은 HMM기반의 상반신 제스처 인식에 대하여 연구하였다. 공간상의 제스처를 인식하기 위해서는 일단 제스처를 구성하고 있는 포즈에 대한 구분이 우선되어야 한다. 인터페이스에 사용되는 포즈를 구분하기 위해서 정면과 옆면에 설치한 적외선 카메라 두 대를 실험에 사용하였다. 그리고 각각의 적외선 카메라에서 하나의 포즈에 대한 정면 포즈와 옆면 포즈로 나눠서 획득한다. 획득한 적외선 포즈 영상은 SVM의 비선형 RBF 커널 함수를 이용하여 구분하였다. RBF 커널을 사용하면 비선형적 분류 포즈들간의 오분류 현상을 구분할 수 있다. 이렇게 구분된 포즈들의 연속은 HMM의 상태천이행렬을 이용하여 제스처로 인식된다. 인식된 제스처는 OS Value에 매핑하여 기존의 Application에 적용할 수 있다.

제스처 및 음성 인식을 이용한 윈도우 시스템 제어에 관한 연구 (Study about Windows System Control Using Gesture and Speech Recognition)

  • 김주홍;진성일이남호이용범
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1998년도 추계종합학술대회 논문집
    • /
    • pp.1289-1292
    • /
    • 1998
  • HCI(human computer interface) technologies have been often implemented using mouse, keyboard and joystick. Because mouse and keyboard are used only in limited situation, More natural HCI methods such as speech based method and gesture based method recently attract wide attention. In this paper, we present multi-modal input system to control Windows system for practical use of multi-media computer. Our multi-modal input system consists of three parts. First one is virtual-hand mouse part. This part is to replace mouse control with a set of gestures. Second one is Windows control system using speech recognition. Third one is Windows control system using gesture recognition. We introduce neural network and HMM methods to recognize speeches and gestures. The results of three parts interface directly to CPU and through Windows.

  • PDF

RealBook: TouchFace-V 인터페이스 기반 실감형 전자책 (RealBook: A Tangible Electronic Book Based on the Interface of TouchFace-V)

  • 송대현;배기태;이칠우
    • 한국콘텐츠학회논문지
    • /
    • 제13권12호
    • /
    • pp.551-559
    • /
    • 2013
  • 본 논문에서는 사용자 중심의 제스처 인식과 직관적인 다중 터치가 가능한 TouchFace-V 인터페이스를 기반으로 제작된 실감형 전자책 RealBook시스템에 대하여 제안한다. 제안한 인터페이스는 기존 테이블탑 디스플레이의 단점으로 지적되는 제한적인 공간 활용 및 이동성 문제를 개선한 인터페이스로 테이블과 같이 평평한 곳이면 사용자가 언제 어디서나 자유롭게 간단한 설치 및 사용이 가능하다. 또한 영상 처리 기술 외에 별도의 센싱 기술을 사용하지 않고 손가락 다중 터치 기능 및 다양한 손 제스쳐 인식 기능을 구현했을 뿐만 아니라, 컴퓨터와 사용자간의 상호작용을 쉽고 자연스럽게 해주는 장점이 있다. 제안한 실감형 RealBook은 종이책의 아날로그적 감성과 디지털 전자책의 멀티미디어 효과를 접목시킨 전자책으로, 책에 있는 내용을 바탕으로 다양한 스토리를 구현하여 독자의 선택에 따라 각기 다른 스토리 진행이 가능하다. 독자들은 책 공간 안에서 다양한 상호작용을 통한 새로운 경험을 체험할 수 있다. 실험을 통해 제안한 시스템의 효율성을 입증하고 나아가 다중 터치 기술을 이용한 콘텐츠 시장이 발전할 수 있는 방안을 제시한다.