• 제목/요약/키워드: gesture control

검색결과 188건 처리시간 0.035초

Design of OpenCV based Finger Recognition System using binary processing and histogram graph

  • Baek, Yeong-Tae;Lee, Se-Hoon;Kim, Ji-Seong
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권2호
    • /
    • pp.17-23
    • /
    • 2016
  • NUI is a motion interface. It uses the body of the user without the use of HID device such as a mouse and keyboard to control the device. In this paper, we use a Pi Camera and sensors connected to it with small embedded board Raspberry Pi. We are using the OpenCV algorithms optimized for image recognition and computer vision compared with traditional HID equipment and to implement a more human-friendly and intuitive interface NUI devices. comparison operation detects motion, it proposed a more advanced motion sensors and recognition systems fused connected to the Raspberry Pi.

Biosign Recognition based on the Soft Computing Techniques with application to a Rehab -type Robot

  • Lee, Ju-Jang
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.29.2-29
    • /
    • 2001
  • For the design of human-centered systems in which a human and machine such as a robot form a human-in system, human-friendly interaction/interface is essential. Human-friendly interaction is possible when the system is capable of recognizing human biosigns such as5 EMG Signal, hand gesture and facial expressions so the some humanintention and/or emotion can be inferred and is used as a proper feedback signal. In the talk, we report our experiences of applying the Soft computing techniques including Fuzzy, ANN, GA and rho rough set theory for efficiently recognizing various biosigns and for effective inference. More specifically, we first observe characteristics of various forms of biosigns and propose a new way of extracting feature set for such signals. Then we show a standardized procedure of getting an inferred intention or emotion from the signals. Finally, we present examples of application for our model of rehabilitation robot named.

  • PDF

센서모듈을 이용한 유비쿼터스 환경의 제어 (Control of Ubiquitous Environment using Sensors Module)

  • 정태민;최우경;김성주;김성현;전홍태
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 추계학술대회 학술발표 논문집 제16권 제2호
    • /
    • pp.101-104
    • /
    • 2006
  • 유비쿼터스 시대가 다가오면서 앞으로 가정 및 회사 등 인간이 거주하며 생활하는 공간에서의 좀 더 편리하고 효율적인 다양한 정보를 인간에게 인지시켜 줄 수 있는 환경이 구축되어야한다. 이를 기반으로 유비쿼터스 주변장치들의 네트워크와 인간에게 많은 정보와 편리성이 좀 더 효율적으로 이루어져야 할 것이다. 이를 위해 본 논문에서는 센서모듈에서 추출되는 데이터를 신경망과 퍼지 알고리즘을 사용해 동작인식의 패턴을 분류하여 인간의 사고를 움직임 파악한다. 이러한 패턴의 분류를 통해 홈네트워크 시스템과의 센서모듈의 통신제어가 가능하게 된다 이를 바탕으로 패턴이 분류된 행동들의 명령으로 미리 지정된 간단한 손동작으로 여러 가전기기라든지 홈네트워크 시스템의 제어방식을 더욱 간단히 제어하며, 인간의 건강상태를 파악함으로써 인간행동과 상태에 따른 유비쿼터스 환경의 제어가 이루어 질 수 있는 시스템을 제안한다.

  • PDF

안면근 신호를 이용한 최소 자판 문자 입력 시스템의 개발 (Development of Character Input System using Facial Muscle Signal and Minimum List Keyboard)

  • 김홍현;박현석;김응수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2009년도 추계학술대회
    • /
    • pp.289-292
    • /
    • 2009
  • 사람은 주로 언어를 통해 서로간의 의사를 표현한다. 하지만, 말을 할 수 없는 중증 장애인, 특히 전신마비 증세가 있는 중증 장애인의 경우에는 글을 쓰거나 몸짓을 통한 방법으로도 자신의 의사를 전달하지 못한다는 문제점이 있다. 따라서, 본 논문에서는 이러한 중증 장애인이 의사 소통을 할 수 있도록 안면근 신호를 이용한 의사 전달기를 구현하였다. 특히, 안면근 신호가 포함된 뇌파의 특징을 추출하여 이를 일반적인 제어 신호로써 변환한 다음, 이 제어 신호와 최소한의 자판을 연동시켜 문자를 선택하도록 함으로써, 중증 장애인이 효율적으로 의사를 전달할 수 있도록 하였다.

  • PDF

Vision-Based Real-Time Motion Capture System

  • Kim, Tae-Ho;Jo, Kang-Hyun;Yoon, Yeo-Hong;Kang, Hyun-Duk;Kim, Dae-Nyeon;Kim, Se-Yoon;Lee, In-Ho;Park, Chang-Jun;Leem Nan-Hee;Kim, Sung-Een
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.171.5-171
    • /
    • 2001
  • Information that is acquired by adhered sensors on a body has been commonly used for the three-dimensional real-time motion capture algorithm. This paper describes realtime motion capture algorithm using computer vision. In a real-time image sequence, human body silhouette is extracted use a background subtraction between background image and the reference image. Then a human standing posture whether forward or backward is estimated by extraction of skin region in the silhoutte. After then, the principal axis is calculated in the torso and the face region is estimated on the principal axis. Feature points, which are essential condition to track the human gesture, are obtained ...

  • PDF

Flexible Pressure Sensors Based on Three-dimensional Structure for High Sensitivity

  • Jung, Young;Cho, Hanchul
    • 센서학회지
    • /
    • 제31권3호
    • /
    • pp.145-150
    • /
    • 2022
  • The importance of flexible polymer-based pressure sensors is growing in fields like healthcare monitoring, tactile recognition, gesture recognition, human-machine interface, and robot skin. In particular, health monitoring and tactile devices require high sensor sensitivity. Researchers have worked on sensor material and structure to achieve high sensitivity. A simple and effective method has been to employ three-dimensional pressure sensors. Three-dimensional (3D) structures dramatically increase sensor sensitivity by achieving larger local deformations for the same pressure. In this paper, the performance, manufacturing method, material, and structure of high-sensitivity flexible pressure sensors based on 3D structures, are reviewed.

비전기반 손 제스처 인식을 통한 로봇 컨트롤 (Robot Control using Vision based Hand Gesture Recognition)

  • 김대수;강행봉
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 추계학술발표대회
    • /
    • pp.197-200
    • /
    • 2007
  • 본 논문에서는 로봇 컨트롤 시스템을 위해 입력 받은 영상부터 몇 가지의 손 제스처를 인식하는 비전기반 손 제스처 인식방법을 제안한다. 로봇으로부터 입력 받은 이미지는 로봇의 위치, 주변환경, 조명 등 여러 요인에 따라 다양하게 존재한다. 본 논문은 다양한 환경에서 입력되는 영상으로부터 시스템이 로봇 컨트롤을 위해 미리 지정한 몇 가지 제스처를 인식하도록 한다. 먼저 이미지 조명 변화에 강한 손 제스처 인식을 위하여 레티넥스 이미지 정규화를 적용한 후, YCrCb 공간 상에서 입력된 영상에서 손 영역을 검출 후 위치를 추정한다. 인식된 손 영역에서 특징벡터를 추출함으로서 입력 영상내의 존재할 수 있는 손의 크기나 손의 회전각도 등에 상관없이 필요로 하는 제스처를 인식하도록 한다. 제안된 제스처 인식 결과는 로봇컨트롤을 위한 기존의 제스처인식과 비교하여 성능을 측정하였다.

인간의 비언어적 행동 특징을 이용한 다중 사용자의 상호작용 의도 분석 (Interaction Intent Analysis of Multiple Persons using Nonverbal Behavior Features)

  • 윤상석;김문상;최문택;송재복
    • 제어로봇시스템학회논문지
    • /
    • 제19권8호
    • /
    • pp.738-744
    • /
    • 2013
  • According to the cognitive science research, the interaction intent of humans can be estimated through an analysis of the representing behaviors. This paper proposes a novel methodology for reliable intention analysis of humans by applying this approach. To identify the intention, 8 behavioral features are extracted from the 4 characteristics in human-human interaction and we outline a set of core components for nonverbal behavior of humans. These nonverbal behaviors are associated with various recognition modules including multimodal sensors which have each modality with localizing sound source of the speaker in the audition part, recognizing frontal face and facial expression in the vision part, and estimating human trajectories, body pose and leaning, and hand gesture in the spatial part. As a post-processing step, temporal confidential reasoning is utilized to improve the recognition performance and integrated human model is utilized to quantitatively classify the intention from multi-dimensional cues by applying the weight factor. Thus, interactive robots can make informed engagement decision to effectively interact with multiple persons. Experimental results show that the proposed scheme works successfully between human users and a robot in human-robot interaction.

KINECT 기반 3D 홀로그래픽과 제스처에 대한 연구 (Study of KINECT based 3D Holographic and Gesture)

  • 주강;서래원;노창배
    • 디지털콘텐츠학회 논문지
    • /
    • 제14권4호
    • /
    • pp.411-417
    • /
    • 2013
  • 2차원으로 영상을 처리하다가 다양한 영상처리기법과 도구들이 발달하면서 3차원 영상 네비게이션에 대한 요구가 증대되고 있다. 실세계에서 체험하기 어려운 부분을 가상환경에서 체험하고, 활용하는데 목적을 가진다. 이는 단순한 3D 배경을 제공하는 시스템이 아니라 일상적인 행동으로 시스템을 제어할 수 있는 본능적 인터페이스 기술 개발의 필요를 의미한다. 본 연구의 목적은 인간의 다양한 행동에 대해 키넥트 장비를 이용해 행동에 가장 3차원적으로 근접한 새로운 네비게이션 제어 기술 개발에 있다. 키넥트와 홀로그래피를 이용해 입력된 데이터를 3차원 영상으로 연계성을 가질 수 있도록 시스템을 설계하고자 한다.

안면근 신호를 이용한 최소 자판 문자 입력 시스템의 개발 (Development of Character Input System using Facial Muscle Signal and Minimum List Keyboard)

  • 김홍현;김응수
    • 한국정보통신학회논문지
    • /
    • 제14권6호
    • /
    • pp.1338-1344
    • /
    • 2010
  • 사람은 주로 언어를 통해 서로간의 의사를 표현한다. 하지만, 말을 할 수 없는 중증 장애인, 특히 전신마비 증세가 있는 중증 장애인의 경우에는 글을 쓰거나 몸짓을 통한 방법으로도 자신의 의사를 효과적으로 전달하지 못한다는 문제점이 있다. 따라서 본 논문에서는 이러한 중증 장애인이 의사소통을 할 수 있도록 안면근 신호를 이용한 의사 전달기를 구현하였다. 특히, 안면근 신호가 포함된 뇌파의 특징을 추출하여 이를 일반적인 제어 신호로써 변환한 다음, 이 제어 신호와 최소한의 자판을 연동시켜 문자를 선택하도록 함으로써, 중증 장애인이 효과적으로 의사를 전달할 수 있도록 하였다.