• 제목/요약/키워드: 제스처입력

검색결과 131건 처리시간 0.027초

딥러닝 기반의 웨어러블 디바이스에서의 제스처 인식 (Gesture recognition with wearable device based on deep learning)

  • 변성우;이석필;김건년;한상현
    • 방송과미디어
    • /
    • 제22권1호
    • /
    • pp.10-18
    • /
    • 2017
  • 본 연구는 비접촉식 센서 기반의 웨어러블 디바이스를 이용한 딥러닝 기반의 제스처 인식에 대한 연구이다. 이를 위하여 Flexible MSG 센서를 기반으로 한 Flexible Epidermal Tactile Sensor를 사용하였으며, Flexible Epidermal Tactile Sensor는 손, 손가락 제스처를 취했을 때 손목, 손가락과 연결되어 있는 근육들의 움직임에 따라 발생하는 피부 표면의 전극을 취득하는 센서이다. 실험을 위하여 7가지 손, 손가락 제스처를 정의하였으며, 손목의 꺾임, 손목의 뒤틀림, 손가락의 오므림과 펴짐, 아무 동작도 취하지 않은 기본 상태에 대한 제스처로 정의하였다. 실험 데이터 수집에는 손목이나 손가락에 부상, 장애등이 없는 일반적인 8명의 참가자가 참가하였으며 각각 한 제스처에 대하여 20번씩 반복하여 1120개의 샘플을 수집하였다. 입력신호에 대한 제스처를 학습하기 위해 본 논문에서는 1차원 Convolutional Neural Network를 제안하였으며, 성능 비교를 위해 신호의 크기를 반영하는 특징벡터인 Integral Absolute Value와 Difference Absolute Mean Value를 입력신호에서 추출하고 Support Vector Machine을 사용하여 본 논문에서 제안한 1차원 CNN과 성능비교를 하였다. 그 결과 본 논문에서 제안한 1차원 CNN의 분류 정확도가 우수한 성능을 나타냈다.

로컬 모션정보와 글로벌 모션정보를 조합한 제스쳐 인식 (Gesture Recognition in Video image with Combination of Partial and Global Information)

  • 오재용;이칠우
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2004년도 춘계학술발표대회논문집
    • /
    • pp.279-283
    • /
    • 2004
  • 본 논문에서는 일반적인 비디오 스트림에서 자동으로 인간의 제스처를 인식하는 알고리즘에 대하여 기술한다. 본 알고리즘은 입력된 비디오 영상으로부터 추출된 신체영역의 2차원적 특징 벡터를 사용하며, 주성분 분석법(Principle Component Analysis)을 통하여 모델 제스처 공간(Model Gesture space)을 구성함으로서 제스처를 통계학적으로 분석/표현하며, 이 제스처 공간에서 새로 입력되는 영상을 같은 방법으로 투영시키고, HMM(Hidden Markov Model) 이론을 적용하여 심볼화함으로써 최종적으로 제스처를 인식하게 된다. 본 방법은 기존의 제스처 인식 방법들과는 달리 전체적인 영상 정보(Global Information)와 세부적인 영상 정보(Partial Information)를 조합하여 사용한다는데 특징이 있으며, 본 알고리즘을 통해 보다 정확하게 강건한 제스처 인식 기술을 실생활에 적용할 수 있을 것이다.

  • PDF

다중 클래스 SVM과 트리 분류를 이용한 제스처 인식 방법 (Gesture Recognition Method using Tree Classification and Multiclass SVM)

  • 오주희;김태협;홍현기
    • 전자공학회논문지
    • /
    • 제50권6호
    • /
    • pp.238-245
    • /
    • 2013
  • 제스처 인식은 자연스러운 사용자 인터페이스를 위해 활발히 연구되는 중요한 분야이다. 본 논문에서는 키넥트 카메라로부터 입력되는 사용자의 3차원 관절(joint) 정보를 해석하여 제스처를 인식하는 방법이 제안된다. 대상으로 하는 제스처의 분포 특성에 따라 분류 트리를 설계하고 입력 패턴을 분류한다. 그리고 제스처를 리샘플링 및 정규화 하여 일정한 구간으로 나누고 각 구간의 체인코드 히스토그램을 추출한다. 트리의 각 노드별로 분류된 제스처에 다중 클래스 SVM(Multiclass Support Vector Machine)를 적용하여 학습한다. 이후 입력 데이터를 구성된 트리로 분류한 다음, 학습된 다중 클래스 SVM을 적용하여 제스처를 분류한다.

가상현실 콘텐츠 개발을 위한 제스처 입력 시스템 설계 (Design of Gesture Input System for Virtual Reality Contents Development)

  • 이상선;이현우;윤지선;곽정훈;성연식
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 추계학술발표대회
    • /
    • pp.913-914
    • /
    • 2017
  • 최근 가상현실 기기가 발전함에 따라 가상현실 콘텐츠 시장이 활발하게 성장하고 있다. 그래서 가상현실 콘텐츠 개발이 활발히 이루어지고 있다. 가상현실에서 사용가능한 기기가 발전하여 가상현실 콘텐츠에서 추가적인 기기를 사용가능하도록 가상현실 콘텐츠 수정해야 되는 문제점이 있다. 가상현실 콘텐츠 수정 없이 추가적인 기기를 사용가능한 제스처 입력 방법이 필요하다. 제안한 방법은 기기에 관계없이 가상현실 콘텐츠에서 사용하기 위한 제스처 입력 시스템 설계 방법을 제안한다. HTC VIVE으로 제스처 입력 시스템을 러닝 게임에 적용하여 검증하였다.

심플키 : 터치제스처기반 자음중심 한글입력 (SimpleKey: Consonant based Hangul Entry Using Touch Gesture)

  • 경보현;나기욱;한국현;홍승환;한상준;김보미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2008년도 추계학술발표대회
    • /
    • pp.200-202
    • /
    • 2008
  • 본 논문은 터치스크린기반의 CE기기에서 한글을 효과적으로 입력하는 새로운 형태의 터치 GUI 기반 인터페이스를 제시한다. 제시된 한글입력방식인 심플키(SimpleKey)는 기존의 한글입력방식인 천지인, EZ한글, 모아키 등과는 다른 터치 제스처 기반 자음 중심의 7~12인치 터치스크린에 최적화된 방식이다. 심플키는 터치제스처와 누르는 세기 구분을 포함하고, 자음 중심 키배열에 모음 빈도 분석을 통한 제스처 매핑을 적용한 것을 특징으로 한다. 제안된 방식은 현재 8.9 인치 크기의 포터블 디바이스에 적용 구현하였으며 실사용자를 대상으로 사용성 평가를 통해 심플키의 효과성을 검증했다.

주 인자 분석을 이용한 제스처 인식에 관한 연구 (A Study on Gesture Recognition Using Principal Factor Analysis)

  • 이용재;이칠우
    • 한국멀티미디어학회논문지
    • /
    • 제10권8호
    • /
    • pp.981-996
    • /
    • 2007
  • 본 논문에서는 연속적인 제스처 영상으로 부터 주 인자 분석을 통해 얻어진 동작 특징 정보를 이용하여 제스처를 인식하는 방법에 대해 기술한다. 제안된 방법은 먼저, 인간의 신체 영상이 포함된 연속적인 입력영상에서 2차원 실루엣 제스처 영역을 분할한 다음 전역특징정보와 지역특징정보를 추출한다. 여기서 전역특징정보는 요인 분석을 통하여 제스처를 효과적으로 표현하는 의미 있는 소수의 핵심 특징을 선택하여 이용한다. 추출 된 특징정보로 부터 제스처의 시간 변화를 나타내는 특징히스토리정보를 얻어 저 차원 제스처공간을 구성한다. 마지막으로 제스처 공간상에 투영된 모델 특징 값은 은닉마르코프 모델의 입력 기호로 이용되기 위해 군집화 알고리즘을 통해 특정한 상태 기호로 구성되며 임의의 입력 동작은 확률 값이 가장 높은 해당 제스처 모델로 인식된다. 주 인자 분석으로부터 제스처에 기여도가 높은 특징인자로 모델을 구성하기 때문에 외관기반방법에서 몸의 형상 정보만을 특징 값으로 이용하거나 직관적인 방법으로 특징을 추출하는 방법보다 복잡한 동작에서 비교적 우수한 인식률을 나타낸다.

  • PDF

시각장애인의 스마트 기기 사용을 위한 제스처 기반 문자 입력 방법 (Character Input Method Based On Gesture for The Visually Impaired)

  • 배기태;신은애;김용수
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2016년도 제53차 동계학술대회논문집 24권1호
    • /
    • pp.215-216
    • /
    • 2016
  • 본 논문에서는 물리적 버튼이 존재하지 않는 평면방식의 스마트 기기를 시각 장애인이 기존 음성 인식 기반의 문자 입력 방식 대비 3배 이상 빠른 속도로 문자를 입력할 수 있는 제스처 기반 가상 문자 입력 방법을 제안한다. 제안하는 방식의 원리는 스마트폰의 터치화면을 8개 방향으로 설정하고 사용자의 드래그 동작에 따른 입력값의 초기위치와 중앙점, 드래그 형태 등을 이용하여 숫자, 영문, 한글, 특수기호 등을 입력하거나, 스마트기기의 다양한 응용 프로그램들을 자연스럽게 제어하고 동작시킬 수 있는 제스처 기반의 문자입력 방법이다. 실제 시각장애인의 필드 테스트를 통해 제안하는 방식의 효율성을 입증해보인다.

  • PDF

비전 기반 제스처 인식을 이용한 사용자 인터페이스 구현 (An Implementation of User Interface Using Vision-based Gesture Recognition)

  • 고민삼;이광희;김창우;안준호;김인중
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2008년도 한국컴퓨터종합학술대회논문집 Vol.35 No.1 (C)
    • /
    • pp.507-511
    • /
    • 2008
  • 컴퓨터 비전을 기반으로 한 영상처리 및 제스처인식 기술을 이용하여 편리하게 응용프로그램을 제어 할 수 있는 인터페이스를 구성하였다. 카메라로 얻어진 영상을 HSV 색상계로 변환 후 색상 정보를 이용하여 손 영역을 추출한다. 추출된 손 영역의 무게중심과 크기 변화를 추적하여 제스처를 인식한다. 인식한 제스처는 응용프로그램의 동작을 제어하거나 마우스의 입력을 대체하는데 사용된다. 이는 별도의 입력장치 없이 컴퓨터 비전 기술만으로 제스처를 인식하여 응용프로그램을 실행할 수 있어 자연스러우며 사용자 친화적인 인터페이스 환경을 제공한다.

  • PDF

손의 외곽선 추출에 의한 실시간 제스처 인식 (Real-Time Gesture Recognition Using Boundary of Human Hands from Sequence Images)

  • 이인호;박찬종
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1999년도 추계학술대회 논문집
    • /
    • pp.438-442
    • /
    • 1999
  • 제스처 인식은 직관적일 뿐 아니라, 몇 가지의 기본 구성요소에 의하여 코드화(code)가 용이하여, 인간과 컴퓨터의 상호작용(HCI, Human-Computer Interaction)에 있어서 폭넓게 사용되고 있다. 본 논문에서는 손의 모양이나 크기와 같은 개인차 및 조명의 변화나 배율과 같은 입력환경의 영향을 최소화하여, 특별한 초기화 과정이나 모델의 준비과정 없이도 제스처를 인식할 수 있고, 적은 계산량으로 실시간 인식이 가능한 제스처 인식 시스템의 개발을 목표로 한다. 본 논문에서는 손에 부착하는 센서나 마커 없이, CCD 카메라에 의하여 입력된 컬러영상에서, 컬러정보 및 동작정보를 이용하여 손영역을 추출하고, 추출된 손의 경계선 정보를 이용하여 경계선-중심 거리 함수를 생성했다. 그리고, 손가락의 끝 부분에서는 경계선-중심 거리가 극대점을 이룬다는 원리를 이용하여 생성된 함수의 주파수를 분석하여 극대점을 구함으로써 각각의 손가락 끝 위치를 찾고, 손의 자세를 인식하여 제스처를 인식했다. 또한 본 논문에서 제안된 제스처 인식 방법은 PC상에서 구현되어 그 유용성과 실효성이 증명되었다.

  • PDF

HCI 를 위한 멀티터치 테이블-탑 디스플레이 시스템 구현 (Implementation of Multi-touch Tabletop Display for Human Computer Interaction)

  • 김송국;이칠우
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.553-560
    • /
    • 2007
  • 본 논문에서는 양손의 터치를 인식하여 실시간 상호작용이 가능한 테이블 탑 디스플레이 시스템 및 구현 알고리즘에 대해 기술한다. 제안하는 시스템은 FTIR(Frustrated Total Internal Reflection) 메커니즘을 기반으로 제작되었으며 multi-touch, multi-user 방식의 손 제스처 입력이 가능하다. 시스템은 크게 영상 투영을 위한 빔-프로젝터, 적외선 LED를 부착한 아크릴 스크린, Diffuser 그리고 영상을 획득하기 위한 적외선 카메라로 구성되어 있다. 시스템 제어에 필요한 제스처 명령어 종류는 상호작용 테이블에서의 입력과 출력의 자유도를 분석하고 편리함, 의사소통, 항상성, 완벽함의 정도를 고려하여 규정하였다. 규정된 제스처는 사용자가 상호작용을 위해 스크린에 접촉한 손가락의 개수, 위치, 그리고 움직임 변화를 기준으로 세분화된다. 적외선 카메라를 통해 입력받은 영상은 잡음제거 및 손가락 영역 탐색을 위해 간단한 모폴로지 기법이 적용된 후 인식과정에 들어간다. 인식 과정에서는 입력 받은 제스처 명령어들을 미리 정의해놓은 손 제스처 모델과 비교하여 인식을 행한다. 세부적으로는 먼저 스크린에 접촉된 손가락의 개수를 파악하고 그 영역을 결정하며 그 후 그 영역들의 중심점을 추출하여 그들의 각도 및 유클리디언 거리를 계산한다. 그리고 나서 멀티터치 포인트의 위치 변화값을 미리 정의해둔 모델의 정보와 비교를 한다. 본 논문에서 제안하는 시스템의 효율성은 Google-earth를 제어하는 것을 통해 입증될 수 있다.

  • PDF