• Title/Summary/Keyword: 제스처 제안

Search Result 265, Processing Time 0.028 seconds

Hand Gesture Recognition Using Curvature Scale Space Map of Depth Edges (깊이 에지 기반의 Curvature Scale Space Map을 이용한 손 제스처 인식)

  • Yi, Chang-Ju;Yi, June-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.731-734
    • /
    • 2007
  • 본 연구는 구조광 기반의 깊이 에지를 이용하여 조명의 변화와 복잡한 배경에 상관없이 손 제스처의 외곽선 영상을 안정적으로 획득하였고, 제스처 영상을 표현하기 위하여 Curvature Scale Space(CSS) map을 이용하였다. 기존의 CSS map은 외곽선 영상의 깊은 굴곡과 완만한 굴곡을 잘 구분하지 못하는 문제점이 있었으나, 본 연구에서는 이러한 문제점을 분석하고, 이를 개선하기 위해서 각도 좌표를 이용한 CSS map 생성 방법을 제안하였다. 실험을 통해서 제안한 방법이 기존의 CSS map보다 우수한 인식 성능이 있음을 보였다.

  • PDF

Automatic hand gesture area extraction and recognition technique using FMCW radar based point cloud and LSTM (FMCW 레이다 기반의 포인트 클라우드와 LSTM을 이용한 자동 핸드 제스처 영역 추출 및 인식 기법)

  • Seung-Tak Ra;Seung-Ho Lee
    • Journal of IKEEE
    • /
    • v.27 no.4
    • /
    • pp.486-493
    • /
    • 2023
  • In this paper, we propose an automatic hand gesture area extraction and recognition technique using FMCW radar-based point cloud and LSTM. The proposed technique has the following originality compared to existing methods. First, unlike methods that use 2D images as input vectors such as existing range-dopplers, point cloud input vectors in the form of time series are intuitive input data that can recognize movement over time that occurs in front of the radar in the form of a coordinate system. Second, because the size of the input vector is small, the deep learning model used for recognition can also be designed lightly. The implementation process of the proposed technique is as follows. Using the distance, speed, and angle information measured by the FMCW radar, a point cloud containing x, y, z coordinate format and Doppler velocity information is utilized. For the gesture area, the hand gesture area is automatically extracted by identifying the start and end points of the gesture using the Doppler point obtained through speed information. The point cloud in the form of a time series corresponding to the viewpoint of the extracted gesture area is ultimately used for learning and recognition of the LSTM deep learning model used in this paper. To evaluate the objective reliability of the proposed technique, an experiment calculating MAE with other deep learning models and an experiment calculating recognition rate with existing techniques were performed and compared. As a result of the experiment, the MAE value of the time series point cloud input vector + LSTM deep learning model was calculated to be 0.262 and the recognition rate was 97.5%. The lower the MAE and the higher the recognition rate, the better the results, proving the efficiency of the technique proposed in this paper.

Design of TV Control Gesture Commands for Visually Impaired People (시각장애인을 위한 TV 조작용 제스처의 설계)

  • Hwang, Inwook;Kim, Hyunchul;Kang, Wan-Sik;Ahn, Choonghyun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2014.06a
    • /
    • pp.12-14
    • /
    • 2014
  • 본 논문에서는 시각장애인들의 TV 시청시 리모콘이나 별도의 기기의 착용없이 TV 조작이 가능한 제스처 명령의 설계를 소개한다. 시각장애인들의 TV 시청 및 조작 현황 및 수요를 알아보기 위해 저시력 및 전맹 장애인들을 대상으로 설문조사와 그룹 인터뷰를 수행하였으며 현재 시중에 적용된 좌표 포인팅 방식 제스처에 대한 평가 또한 이루어졌다. 이 결과를 바탕으로 현재 시판중인 동작인식 시스템에서 인식가능하며 시각장애인들의 사용성을 고려한 TV 조작 맨손 제스처를 제안한다.

  • PDF

Gesture Recognition using Combination of Local and Global Information (로컬모션정보와 글로벌모션정보를 이용한 제스처인식)

  • 이현주;이칠우
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.277-279
    • /
    • 2003
  • 본 논문에서는 입력 시퀀스의 각 영상으로부터 신체 영역을 분리한 후 신체 영역의 2차원 특징정보들을 이용하여 제스처를 자동적으로 인식할 수 있는 알고리듬을 제안한다. 먼저, 샘플 영상들로부터 구한 2차원 특징 벡터들의 통계적 정보를 주성분 분석법으로 분석하고 제스처 모델 공간을 구성한다. 입력 영상들은 미리 구성된 모델과 비교되어지고 각각의 영상은 모델 공간의 한 부분으로 심볼화되어진다. 마지막으로 심볼 시퀀스로 형상화되어진 영상 시퀀스는 은닉 마르코프 모델(HMM)을 이용하여 하나의 제스처로 인식된다. 우리가 이용하는 2차원 특징 정보는 대략적으로 신체의 어느 부분이 움직이는지를 알 수 있는 로컬정보와 전체적인 신체 모션의 정보를 나타내는 글로벌 정보를 이용하는 것으로 실세계에서 적용하기 용이하고, 좋은 인식 결과를 얻을 수 있다.

  • PDF

The Recognition of Head Gestures using Face Pose Information (얼굴의 포즈정보를 이용한 헤드 제스처 인식에 관한 연구)

  • 김정연;박형철;전병환
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2000.04a
    • /
    • pp.463-468
    • /
    • 2000
  • 본 논문에서는 얼굴의 9가지 상태를 인식하고 이를 상태 시퀀스로 생성한 후, 오토마타 기법을 적용하여 13가지(준비, 상측, 하측, 좌측, 우측, 전진, 후퇴, 좌 윙크, 우 윙크, 좌 더블 윙크, 우 더블 윙크, 긍정, 부정) 헤드 제스처를 인식하는 방법을 제안한다. 얼굴 영역을 추출하는 방법에서는 최적의 얼굴색 정보와 적응적 움직임 정보를 이용하여 얼굴 영역을 추출한다. 눈의 후보 영역을 추출하는 방법에서는 소벨 연산자와 투영 기법을 이용한다. 이 때 눈의 후보들을 제거하기 위하여 눈의 기하학적 정보와 눈은 쌍으로 존재한다는 정보를 이용한다. 얼굴의 상태를 인식하기 위해서는 계층적인 특징분석 방법을 사용한다. 13가지 헤드 제스처는 얼굴 상태 인식의 처리에서 생성된 상태 시퀀스를 이용한 오토마타 기법에 의해 인식된다. 실험 결과, 93.3%의 헤드제스처 인식률을 얻었다.

  • PDF

Automatic Spotting of Gestures in Broadcast Sports Videos (방송용 스포츠 경기 비디오에서 제스처의 자동 추출)

  • Roh Myung-Cheol;Lee Seong-Whan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.841-843
    • /
    • 2005
  • 비디오 데이터 분석은 감시, 검색, 스포츠 경기 자동 요약 등 많은 분야에서 사용되는 기술이다. 그러나 감시 카메라나 스포츠 경기 비디오와 같이 사람의 영역이 저해상도인 환경에서는 포즈 추정, 모델과의 매칭이 어렵기 때문에 제스처 인식 연구는 많이 이루어지고 있지 못하다. 본 논문에서는 카메라가 Pan/Tilt/Zoom 동작을 하고 사람이 빠르게 움직이는 방송용 테니스 비디오에서, 사람을 추출하고, Curvature Scale Space를 기반으로 한 특징을 추출하여 학습된 포즈 모델과 매칭하는 방법과, 차원의 축소를 통해 일련의 포즈들을 학습된 제스처와 매칭하는 방법을 제안한다. 50개의 방송용 테니스 경기 비디오 장면에 대하여 서브 제스처 추출을 수행한 결과, 서브 포즈에 대하여 모델과 매칭이 잘 되고, 매칭이 되지 않는 포즈를 포함하는 시퀀스에 대해서도 강인한

  • PDF

Full-body Skeleton-based Motion Game System with Interactive Gesture Registration (상호작용적 제스처 등록이 가능한 전신 스켈레톤 기반 동작 게임 시스템)

  • Kim, Daehwan
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2022.05a
    • /
    • pp.419-420
    • /
    • 2022
  • This paper presents a method that allows users to interactively register their own gestures for a motion-based game system. Existing motion-based game systems create recognizers by collecting predefined gesture data. However, this sometimes requires difficult expertise or rather difficult courses. To alleviate these complex situations, we propose a full-body skeleton-based game system that can interactively register gestures.

  • PDF

SimpleKey: Consonant based Hangul Entry Using Touch Gesture (심플키 : 터치제스처기반 자음중심 한글입력)

  • Bo-Hyun Kyung;Kee-Wook Na;Kuk-Hyun Han;Seung-Hwan Hong;Sang-Jun Han;Bo-Mi Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.11a
    • /
    • pp.200-202
    • /
    • 2008
  • 본 논문은 터치스크린기반의 CE기기에서 한글을 효과적으로 입력하는 새로운 형태의 터치 GUI 기반 인터페이스를 제시한다. 제시된 한글입력방식인 심플키(SimpleKey)는 기존의 한글입력방식인 천지인, EZ한글, 모아키 등과는 다른 터치 제스처 기반 자음 중심의 7~12인치 터치스크린에 최적화된 방식이다. 심플키는 터치제스처와 누르는 세기 구분을 포함하고, 자음 중심 키배열에 모음 빈도 분석을 통한 제스처 매핑을 적용한 것을 특징으로 한다. 제안된 방식은 현재 8.9 인치 크기의 포터블 디바이스에 적용 구현하였으며 실사용자를 대상으로 사용성 평가를 통해 심플키의 효과성을 검증했다.

An Implementation of Dynamic Gesture Recognizer Based on WPS and Data Glove (WPS와 장갑 장치 기반의 동적 제스처 인식기의 구현)

  • Kim, Jung-Hyun;Roh, Yong-Wan;Hong, Kwang-Seok
    • The KIPS Transactions:PartB
    • /
    • v.13B no.5 s.108
    • /
    • pp.561-568
    • /
    • 2006
  • WPS(Wearable Personal Station) for next generation PC can define as a core terminal of 'Ubiquitous Computing' that include information processing and network function and overcome spatial limitation in acquisition of new information. As a way to acquire significant dynamic gesture data of user from haptic devices, traditional gesture recognizer based on desktop-PC using wire communication module has several restrictions such as conditionality on space, complexity between transmission mediums(cable elements), limitation of motion and incommodiousness on use. Accordingly, in this paper, in order to overcome these problems, we implement hand gesture recognition system using fuzzy algorithm and neural network for Post PC(the embedded-ubiquitous environment using blue-tooth module and WPS). Also, we propose most efficient and reasonable hand gesture recognition interface for Post PC through evaluation and analysis of performance about each gesture recognition system. The proposed gesture recognition system consists of three modules: 1) gesture input module that processes motion of dynamic hand to input data 2) Relational Database Management System(hereafter, RDBMS) module to segment significant gestures from input data and 3) 2 each different recognition modulo: fuzzy max-min and neural network recognition module to recognize significant gesture of continuous / dynamic gestures. Experimental result shows the average recognition rate of 98.8% in fuzzy min-nin module and 96.7% in neural network recognition module about significantly dynamic gestures.

Real-time Finger Gesture Recognition (실시간 손가락 제스처 인식)

  • Park, Jae-Wan;Song, Dae-Hyun;Lee, Chil-Woo
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.847-850
    • /
    • 2008
  • On today, human is going to develop machine by using mutual communication to machine. Including vision - based HCI(Human Computer Interaction), the technique which to recognize finger and to track finger is important in HCI systems, in HCI systems. In order to divide finger, this paper uses more effectively dividing the technique using subtraction which is separation of background and foreground, as well as to divide finger from limited background and cluttered background. In order to divide finger, the finger is recognized to make "Template-Matching" by identified fingertip images. And, identified gestures be compared the tracked gesture after tracking recognized finger. In this paper, after obtaining interest area, not only using subtraction image and template-matching but to perform template-matching in the area. So, emphasis is placed on decreasing perform speed and reaction speed, and we propose technique which is more effectively recognizing gestures.

  • PDF