• 제목/요약/키워드: Gesture Interface

검색결과 231건 처리시간 0.023초

제스쳐 허용 전자 잉크 에디터의 개발 (Development of Gesture-allowed Electronic Ink Editor)

  • 조미경;오암석
    • 한국멀티미디어학회논문지
    • /
    • 제6권6호
    • /
    • pp.1054-1061
    • /
    • 2003
  • 전자 잉크 데이터는 스타일러스 펜을 주된 입력 도구로 사용하는 PDA 등과 같은 펜 기반 컴퓨터의 개발로 출현한 멀티미디어 데이터이다. 최근 들어 펜 기반 모바일 컴퓨터의 발전과 보급은 전자 잉크 데이터 처리 기술에 대한 필요성을 증가시키고 있다. 본 논문에서는 펜 제스쳐 (pen gesture)를 허용하는 전자 잉크 에디터개발에 필요한 기술들을 연구하였다. 제스쳐와 잉크 데이터는 펜 기반 사용자 인터페이스의 가장 큰 특징중 하나이지만 아직 충분한 연구가 되지 않았다. 본 논문에서는 펜 제스쳐 구분을 위한 새로운 제스쳐 인식 알고리즘과 제스쳐 명령을 수행하기 위한 잉크 데이터의 분할 방법이 제안되었으며 제안된 방법들을 이용하여 제스쳐를 허용하는 전자 잉크 에디터 GesEdit를 개발하였다. 제스쳐 인식 알고리즘은 입력된 획의 여덟 가지 특징에 기반하고 있으며 전자 잉크 데이터를 GC(Gesture Components) 단위로 분할하는 방법은 볼록껍질(convex hull)과 입력 시간을 사용하였다. 열 명의 피실험자에 의해 수행된 다양한 실험 결과 아흡 가지 제스쳐들은 평균 99.6%의 인식률을 보여 주었다.

  • PDF

로봇 인터페이스 활용을 위한 가속도 센서 기반 제스처 인식 (Accelerometer-based Gesture Recognition for Robot Interface)

  • 장민수;조용석;김재홍;손주찬
    • 지능정보연구
    • /
    • 제17권1호
    • /
    • pp.53-69
    • /
    • 2011
  • 로봇 자체 또는 로봇에 탑재된 콘텐츠와의 상호작용을 위해 일반적으로 영상 또는 음성 인식 기술이 사용된다. 그러나 영상 음성인식 기술은 아직까지 기술 및 환경 측면에서 해결해야 할 어려움이 존재하며, 실적용을 위해서는 사용자의 협조가 필요한 경우가 많다. 이로 인해 로봇과의 상호작용은 터치스크린 인터페이스를 중심으로 개발되고 있다. 향후 로봇 서비스의 확대 및 다양화를 위해서는 이들 영상 음성 중심의 기존 기술 외에 상호보완적으로 활용이 가능한 인터페이스 기술의 개발이 필요하다. 본 논문에서는 로봇 인터페이스 활용을 위한 가속도 센서 기반의 제스처 인식 기술의 개발에 대해 소개한다. 본 논문에서는 비교적 어려운 문제인 26개의 영문 알파벳 인식을 기준으로 성능을 평가하고 개발된 기술이 로봇에 적용된 사례를 제시하였다. 향후 가속도 센서가 포함된 다양한 장치들이 개발되고 이들이 로봇의 인터페이스로 사용될 때 현재 터치스크린 중심으로 된 로봇의 인터페이스 및 콘텐츠가 다양한 형태로 확장이 가능할 것으로 기대한다.

제품 트리거로서 행동인식의 사용자 경험 디자인 연구 - 제품디자인을 중심으로 - (Study on User Experience design in Gesture Interaction as a Product Trigger - Focusing on Product Design -)

  • 민새얀;이캐시연주
    • 디지털융복합연구
    • /
    • 제17권5호
    • /
    • pp.379-384
    • /
    • 2019
  • 본 연구는 최근 급증하는 음성 인터랙션의 기능적 면모에서 사용자가 우선으로 측정하는 경험과 문제점을 파악하고 새롭게 나타날 행동인식 인터랙션의 문법에 적합한지 그 발전 가능성을 탐구하는 데 목적이 있다. 연구방법으로 문헌 연구를 통해 그동안 제품에 사용되던 제품 인터페이스의 이론적 고찰 과정을 거친 후 음성인식을 제품의 트리거로서 사용해 본 20-30대 사용자를 대상으로 심층 인터뷰를 진행하여 사용자 경험 측면에서 이용 경험과 개선 방안에 대해 정리하였다. 그 결과, 정확성 신뢰도 하락으로 인해 음성인식 인터랙션의 선호도가 감소하고 있다는 점과 물리적 거리 배제성이라는 기능적 측면에 알맞은 인터페이스가 필요하다는 결론을 도출해 낼 수 있었다. 이 연구는 제품 트리거 인터페이스에 관한 연구로, 문제를 발견하고 이에 대해 개선 방안을 제시했다는 점에 의의가 있다. 하지만 구체적인 방안을 설계하지 못했다는 데에 한계가 있다. 이 연구를 기점으로 음성인식 인터랙션의 개선 방안을 보완하고, 행동인식 인터랙션과 관련된 후속연구가 이루어져 제품디자인 인터페이스 개선에 도움이 되기를 바란다.

상용 제스처 컨트롤러의 근전도 패턴 조합에 따른 인터페이스 연구 (A Research for Interface Based on EMG Pattern Combinations of Commercial Gesture Controller)

  • 김기창;강민성;지창욱;하지우;선동익;쉐강;신규식
    • 공학교육연구
    • /
    • 제19권1호
    • /
    • pp.31-36
    • /
    • 2016
  • These days, ICT-related products are pouring out due to development of mobile technology and increase of smart phones. Among the ICT-related products, wearable devices are being spotlighted with the advent of hyper-connected society. In this paper, a body-attached type wearable device using EMG(electromyography) sensors is studied. The research field of EMG sensors is divided into two parts. One is medical area and another is control device area. This study corresponds to the latter that is a method of transmitting user's manipulation intention to robots, games or computers through the measurement of EMG. We used commercial device MYO developed by Thalmic Labs in Canada and matched up EMG of arm muscles with gesture controller. In the experiment part, first of all, various arm motions for controlling devices are defined. Finally, we drew several distinguishing kinds of motions through analysis of the EMG signals and substituted a joystick with the motions.

인간의 행동 인식을 위한 얼굴 방향과 손 동작 해석 (Analysis of Face Direction and Hand Gestures for Recognition of Human Motion)

  • 김성은;조강현;전희성;최원호;박경섭
    • 제어로봇시스템학회논문지
    • /
    • 제7권4호
    • /
    • pp.309-318
    • /
    • 2001
  • In this paper, we describe methods that analyze a human gesture. A human interface(HI) system for analyzing gesture extracts the head and hand regions after taking image sequence of and operators continuous behavior using CCD cameras. As gestures are accomplished with operators head and hands motion, we extract the head and hand regions to analyze gestures and calculate geometrical information of extracted skin regions. The analysis of head motion is possible by obtaining the face direction. We assume that head is ellipsoid with 3D coordinates to locate the face features likes eyes, nose and mouth on its surface. If was know the center of feature points, the angle of the center in the ellipsoid is the direction of the face. The hand region obtained from preprocessing is able to include hands as well as arms. For extracting only the hand region from preprocessing, we should find the wrist line to divide the hand and arm regions. After distinguishing the hand region by the wrist line, we model the hand region as an ellipse for the analysis of hand data. Also, the finger part is represented as a long and narrow shape. We extract hand information such as size, position, and shape.

  • PDF

GUI 어플리케이션 제어를 위한 제스처 인터페이스 모델 설계 (Design of Gesture based Interfaces for Controlling GUI Applications)

  • 박기창;서성채;정승문;강임철;김병기
    • 한국콘텐츠학회논문지
    • /
    • 제13권1호
    • /
    • pp.55-63
    • /
    • 2013
  • 사용자 인터페이스 기술은 CLI(Command Line Interfaces), GUI(Graphical User Interfaces)를 거쳐 NUI(Natural User Interfaces)로 발전하고 있다. NUI는 멀티터치, 모션 트래킹, 음성, 스타일러스 등 다양한 입력형식을 사용한다. 기존 GUI 어플리케이션에 NUI를 적용하기 위해서는 이러한 장치관련 라이브러리 추가, 관련 코드 수정, 디버그 등의 과정이 필요하다. 본 논문에서는 기존 이벤트 기반 GUI 어플리케이션의 수정 없이 제스처 기반 인터페이스를 적용할 수 있는 모델을 제안한다. 또한 제안한 모델을 명세하기 위한 XML 스키마를 제시하고, 3D 제스처와 마우스 제스처 프로토타입 개발을 통해 제안모델의 활용방안을 보인다.

멀티미디어 인터페이스 기술을 이용한 유아 대상의 체감형 게임 설계 : 신체 놀이 활동 중심 (Interactive Game Designed for Early Child using Multimedia Interface : Physical Activities)

  • 원혜민;이경미
    • 한국콘텐츠학회논문지
    • /
    • 제11권3호
    • /
    • pp.116-127
    • /
    • 2011
  • 본 논문에서는 유아를 위한 체감형 게임 개발에 필요한 요소로 콘텐츠, 디자인, 음향, 동작인식, 음성인식 기술을 제안하였다. 유아용 체감형 게임은 유아의 감성에 맞춘 교육적 요구가 반영된 콘텐츠와 밝고 친근감 있으면서 사용이 편리한 디자인 요소들이 반영되어야 하고 유아가 친숙하고도 쉽게 게임을 할 수 있게 유도할 수 있는 배경음악과 설명 대사가 사용되는 것이 좋다. 만약 동작 인식과 음성인식 시스템을 유아용 체감형 게임에 사용할 경우 게임 사용자의 연령에 맞는 동작 데이터와 음성 데이터를 사용해 인식률을 높여야 한다. 특히, 본 논문에서는 피부색과 유아 신체 모델을 사용하여 유아의 얼굴과 손을 인식한 후 그 위치를 고려하여 유아의 동작을 인식하였고 유아의 음성 데이터를 수집해 신경망을 이용한 음성인식 기술을 게임에 적용해 신체 놀이 중심 활동의 줄넘기 게임인 '신나게 폴짝'을 개발하였다.

차량내 시스템에 대한 접촉 및 제스처 방식의 운전자 인터페이스에 관한 연구 (A Study on Tactile and Gestural Controls of Driver Interfaces for In-Vehicle Systems)

  • 심지성;이상헌
    • 한국CDE학회논문집
    • /
    • 제21권1호
    • /
    • pp.42-50
    • /
    • 2016
  • Traditional tactile controls that include push buttons and rotary switches may cause significant visual and biomechanical distractions if they are located away from the driver's line of sight and hand position, for example, on the central console. Gestural controls, as an alternative to traditional controls, are natural and can reduce visual distractions; however, their types and numbers are limited and have no feedback. To overcome the problems, a driver interface combining gestures and visual feedback with a head-up display has been proposed recently. In this paper, we investigated the effect of this type of interface in terms of driving performance measures. Human-in-the-loop experiments were conducted using a driving simulator with the traditional tactile and the new gesture-based interfaces. The experimental results showed that the new interface caused less visual distractions, better gap control between ego and target vehicles, and better recognition of road conditions comparing to the traditional one.

HAND GESTURE INTERFACE FOR WEARABLE PC

  • Nishihara, Isao;Nakano, Shizuo
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.664-667
    • /
    • 2009
  • There is strong demand to create wearable PC systems that can support the user outdoors. When we are outdoors, our movement makes it impossible to use traditional input devices such as keyboards and mice. We propose a hand gesture interface based on image processing to operate wearable PCs. The semi-transparent PC screen is displayed on the head mount display (HMD), and the user makes hand gestures to select icons on the screen. The user's hand is extracted from the images captured by a color camera mounted above the HMD. Since skin color can vary widely due to outdoor lighting effects, a key problem is accurately discrimination the hand from the background. The proposed method does not assume any fixed skin color space. First, the image is divided into blocks and blocks with similar average color are linked. Contiguous regions are then subjected to hand recognition. Blocks on the edges of the hand region are subdivided for more accurate finger discrimination. A change in hand shape is recognized as hand movement. Our current input interface associates a hand grasp with a mouse click. Tests on a prototype system confirm that the proposed method recognizes hand gestures accurately at high speed. We intend to develop a wider range of recognizable gestures.

  • PDF

HMM을 이용한 알파벳 제스처 인식 (Alphabetical Gesture Recognition using HMM)

  • 윤호섭;소정;민병우
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (2)
    • /
    • pp.384-386
    • /
    • 1998
  • The use of hand gesture provides an attractive alternative to cumbersome interface devices for human-computer interaction(HCI). Many methods hand gesture recognition using visual analysis have been proposed such as syntactical analysis, neural network(NN), Hidden Markov Model(HMM) and so on. In our research, a HMMs is proposed for alphabetical hand gesture recognition. In the preprocessing stage, the proposed approach consists of three different procedures for hand localization, hand tracking and gesture spotting. The hand location procedure detects the candidated regions on the basis of skin-color and motion in an image by using a color histogram matching and time-varying edge difference techniques. The hand tracking algorithm finds the centroid of a moving hand region, connect those centroids, and thus, produces a trajectory. The spotting a feature database, the proposed approach use the mesh feature code for codebook of HMM. In our experiments, 1300 alphabetical and 1300 untrained gestures are used for training and testing, respectively. Those experimental results demonstrate that the proposed approach yields a higher and satisfying recognition rate for the images with different sizes, shapes and skew angles.

  • PDF