• 제목/요약/키워드: Human Gesture Recognition

검색결과 198건 처리시간 0.026초

3D 콘텐츠 제어를 위한 키넥트 기반의 동작 인식 모델 (Kinect-based Motion Recognition Model for the 3D Contents Control)

  • 최한석
    • 한국콘텐츠학회논문지
    • /
    • 제14권1호
    • /
    • pp.24-29
    • /
    • 2014
  • 본 논문에서는 키넥트 적외선 프로젝터를 통해 깊이를 감지할 수 있는 카메라를 이용하여 사람 움직임을 추적하고 본 논문에서 제안한 몸동작 모델 인식을 통하여 3D 콘텐츠를 제어하는 기법을 제안 한다. 본 논문에서 제안하는 사람의 동작 인식 모델은 사람의 오른팔과 왼팔의 손목, 팔꿈치, 어께 움직임의 거리를 계산하여 좌, 우, 상, 하, 확대, 축소, 선택 등의 7가지 동작 상태를 인식한다. 본 연구에서 제안한 키넥트 기반의 동작 인식 모델은 기존의 접촉식 방식의 인터페이스와 비교할 때 특정센서 또는 장비 부착에 대한 불편함을 없애고 고비용의 하드웨어 시스템을 이용하지 않음으로서 사람의 자연스런 몸동작 이동에 따른 저 비용 3D 콘텐츠 제어 기술을 보여준다.

멀티미디어 콘텐츠 제어를 위한 사용자 경험 기반 동작 인식 기술 (Human Gesture Recognition Technology Based on User Experience for Multimedia Contents Control)

  • 김윤식;박상윤;옥수열;이석환;이응주
    • 한국멀티미디어학회논문지
    • /
    • 제15권10호
    • /
    • pp.1196-1204
    • /
    • 2012
  • 본 논문에서는 다양한 멀티미디어 매체의 제어 및 인터랙션을 위하여 별도의 입력장치 없이 사용자의 경험기반의 동작 인식을 통하여 멀티미디어 콘텐츠를 제어 하는 알고리즘을 제안하였다. 본 논문에서 제안한 사용자 경험 기반 멀티미디어 콘텐츠 제어를 위한 휴먼 동작 인식 방법은 먼저, 카메라로부터 입력받은 영상을 조명의 변화에 크게 영향을 받지 않는 YCbCr컬러 영역으로 변환하여 피부색 추출과 모폴로지에 의한 잡음제거, Boundary Energy 및 Depth 영상을 이용하여 손 영역을 검출하였다. 검출된 손 영상에서 PCA 알고리즘을 이용하여 손 모양을 인식하고 차영상 및 모멘트 이론을 이용하여 손의 중심점 검출 및 궤적을 획득한 후, 손의 궤적을 시간을 기준으로 8분할하여 8방향 체인코드를 이용하여 심볼화하였다. 심볼화된 정보로 부터 HMM 알고리즘을 이용하여 손동작을 인식, 사용자의 동작 인식을 통하여 멀티미디어 콘텐츠를 제어하도록 하였다. 제안한 알고리즘을 실험에 적용한 결과 손 영역 검출은 94.25%, 손 모양 인식은 92.6%, 손 동작 인식은 85.86%, 얼굴 검출은 89.58%의 성능을 나타내었으며 이를 기반으로 컴퓨터 환경에서 생성 구축된 영상, 음성, 동영상, MP3, e-book 등과 같은 다양한 콘텐츠들을 동작인식만으로 제어할 수 있도록 하였다.

Hand Gesture Recognition Using an Infrared Proximity Sensor Array

  • Batchuluun, Ganbayar;Odgerel, Bayanmunkh;Lee, Chang Hoon
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제15권3호
    • /
    • pp.186-191
    • /
    • 2015
  • Hand gesture is the most common tool used to interact with and control various electronic devices. In this paper, we propose a novel hand gesture recognition method using fuzzy logic based classification with a new type of sensor array. In some cases, feature patterns of hand gesture signals cannot be uniquely distinguished and recognized when people perform the same gesture in different ways. Moreover, differences in the hand shape and skeletal articulation of the arm influence to the process. Manifold features were extracted, and efficient features, which make gestures distinguishable, were selected. However, there exist similar feature patterns across different hand gestures, and fuzzy logic is applied to classify them. Fuzzy rules are defined based on the many feature patterns of the input signal. An adaptive neural fuzzy inference system was used to generate fuzzy rules automatically for classifying hand gestures using low number of feature patterns as input. In addition, emotion expression was conducted after the hand gesture recognition for resultant human-robot interaction. Our proposed method was tested with many hand gesture datasets and validated with different evaluation metrics. Experimental results show that our method detects more hand gestures as compared to the other existing methods with robust hand gesture recognition and corresponding emotion expressions, in real time.

원격 카메라 로봇 제어를 위한 동적 제스처 인식 (Dynamic Gesture Recognition for the Remote Camera Robot Control)

  • 이주원;이병로
    • 한국정보통신학회논문지
    • /
    • 제8권7호
    • /
    • pp.1480-1487
    • /
    • 2004
  • 본 연구에서는 원격 카메라 로봇 제어를 위한 새로운 제스처 인식 방법을 제안하였다. 제스처 인식의 전처리 단계인 동적 제스처의 세그먼테이션이며, 이를 위한 기존의 방법은 인식 대상에 대한 많은 칼라정보를 필요로 하고, 인식단계에서는 각각 제스처에 대한 많은 특징벡터들을 요구하는 단점이 있다. 이러한 단점을 개선하기 위해, 본 연구에서는 동적 제스처의 세그먼테이션을 위한 새로운 Max-Min 탐색법과 제스처 특징 추출을 위한 평균 공간 사상법과 무게중심법, 그리고 인식을 위한 다층 퍼셉트론 신경망의 구조 둥을 제안하였다 실험에서 제안된 기법의 인식율이 90%이상으로 나타났으며, 이 결과는 원격 로봇 제어를 위한 휴먼컴퓨터 인터페이스(HCI : Human Compute. Interface)장치로 사용 가능함을 보였다.

A Development of Gesture Interfaces using Spatial Context Information

  • Kwon, Doo-Young;Bae, Ki-Tae
    • International Journal of Contents
    • /
    • 제7권1호
    • /
    • pp.29-36
    • /
    • 2011
  • Gestures have been employed for human computer interaction to build more natural interface in new computational environments. In this paper, we describe our approach to develop a gesture interface using spatial context information. The proposed gesture interface recognizes a system action (e.g. commands) by integrating gesture information with spatial context information within a probabilistic framework. Two ontologies of spatial contexts are introduced based on the spatial information of gestures: gesture volume and gesture target. Prototype applications are developed using a smart environment scenario that a user can interact with digital information embedded to physical objects using gestures.

Hand gesture recognition for player control

  • 시란얀;김진규;염동회;주영훈
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2011년도 제42회 하계학술대회
    • /
    • pp.1908-1909
    • /
    • 2011
  • Hand gesture recognition has been widely used in virtual reality and HCI (Human-Computer-Interaction) system, which is challenging and interesting subject in the vision based area. The existing approaches for vision-driven interactive user interfaces resort to technologies such as head tracking, face and facial expression recognition, eye tracking and gesture recognition. The purpose of this paper is to combine the finite state machine (FSM) and the gesture recognition method, in other to control Windows Media Player, such as: play/pause, next, pervious, and volume up/down.

  • PDF

지능형 로봇을 위한 감성 기반 휴먼 인터액션 기법 개발 (Development of Emotion-Based Human Interaction Method for Intelligent Robot)

  • 주영훈;소제윤;심귀보;송민국;박진배
    • 한국지능시스템학회논문지
    • /
    • 제16권5호
    • /
    • pp.587-593
    • /
    • 2006
  • 영상을 통한 감정 인식 기술은 사회의 여러 분야에서 필요성이 대두되고 있음에도 불구하고 인식 과정의 어려움으로 인해 풀리지 않는 문제로 남아 있다. 인간의 움직임을 이용한 감정 인식 기술은 많은 응용이 가능하기 때문에 개발의 필요성이 증대되고 있다. 영상을 통해 감정을 인식하는 시스템은 매우 다양한 기법들이 사용되는 복합적인 시스템이다. 따라서 이를 설계하기 위해서는 영상에서의 움직임 추출, 특징 벡터 추출 및 패턴 인식 등 다양한 기법의 연구가 필요하다. 본 논문에는 이전에 연구된 움직임 추출 방법들을 바탕으로 한 새로운 감정 인식 시스템을 제안한다. 제안된 시스템은 은닉 마르코프 모델을 통해 동정된 분류기를 이용하여 감정을 인식한다. 제안된 시스템의 성능을 평가하기 위해 평가데이터 베이스가 구축되었으며, 이를 통해 제안된 감정 인식 시스템의 성능을 확인하였다.

손 동작 인식을 이용한 이동로봇의 주행 (Navigation of a Mobile Robot Using Hand Gesture Recognition)

  • 김일명;김완철;윤경식;이장명
    • 제어로봇시스템학회논문지
    • /
    • 제8권7호
    • /
    • pp.599-606
    • /
    • 2002
  • A new method to govern the navigation of a mobile robot using hand gesture recognition is proposed based on the following two procedures. One is to achieve vision information by using a 2-DOF camera as a communicating medium between a man and a mobile robot and the other is to analyze and to control the mobile robot according to the recognized hand gesture commands. In the previous researches, mobile robots are passively to move through landmarks, beacons, etc. In this paper, to incorporate various changes of situation, a new control system that manages the dynamical navigation of mobile robot is proposed. Moreover, without any generally used expensive equipments or complex algorithms for hand gesture recognition, a reliable hand gesture recognition system is efficiently implemented to convey the human commands to the mobile robot with a few constraints.

지능형 로봇을 위한 인간-컴퓨터 상호작용(HCI) 연구동향 (Human-Computer Interaction Survey for Intelligent Robot)

  • 홍석주;이칠우
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 추계 종합학술대회 논문집
    • /
    • pp.507-511
    • /
    • 2006
  • 지능형 로봇이란 인간과 비슷하게 시각, 청각 등의 감각기관을 기반으로 자율적으로 판단하고 행동하는 독립적 자율구동 시스템을 말한다. 인간은 언어 이외에도 제스처와 같은 비언어적 수단을 이용하여 의사소통을 하며, 이러한 비언어적 의사소통 수단을 로봇이 이해한다면, 로봇은 인간과 보다 친숙한 대상이 될 수 있을 것이다. 이러한 요구에 의해 얼굴인식, 제스처 인식을 비롯한 HCI(Human-Computer Interaction) 기술들이 활발하게 연구되고 있지만 아직 해결해야 할 문제점이 많은 실정이다. 본 논문에서는 지능형 로봇을 위한 기반 기술 중 인간과의 가장 자연스러운 의사소통 방법의 하나인 제스처 인식 기술에 대하여, 최근 연구 성과를 중심으로 요소 기술의 중요 내용과 응용 사례를 소개한다.

  • PDF

비전 기반 신체 제스처 인식을 이용한 상호작용 콘텐츠 인터페이스 (Interface of Interactive Contents using Vision-based Body Gesture Recognition)

  • 박재완;송대현;이칠우
    • 스마트미디어저널
    • /
    • 제1권2호
    • /
    • pp.40-46
    • /
    • 2012
  • 본 논문은 비전 기반 신체 제스처 인식 결과를 입력인터페이스로 사용하는 상호작용 콘텐츠에 대해 기술한다. 제작된 콘텐츠 는 아시아의 공통문화요소인 도깨비를 소재로 사용하여 지역 문화에 친숙하게 접근할 수 있도록 하였다. 그리고 콘텐츠를 구성 하는 시나리오는 도깨비와의 결투장면에서 사용자의 제스처 인식을 통해 결투를 진행하므로 사용자는 자연스럽게 콘텐츠 시나리오에 몰입할 수 있다. 시나리오의 후반부에서는 사용자는 시간과 공간이 다른 다중의 결말을 선택할 수 있다. 신체 제스처 인식 부분에서는 키넥트(KINECT)를 통해 얻을 수 있는 각 신체 부분의 3차원좌표를 이용하여 정지동작인 포즈를 활용한다. 비전기반 3차원 인체 포즈 인식 기술은 HCI(Human-Computer Interaction)에서 인간의 제스처를 전달하기 위한 방법으로 사용된다. 특수한 환경에서 단순한 2차원 움직임 포즈만 인식할 수 있는 2차원 포즈모델 기반 인식 방법에 비해 3차원 관절을 묘사한 포즈모델은 관절각에 대한 정보와 신체 부위의 모양정보를 선행지식으로 사용할 수 있어서 좀 더 일반적인 환경에서 복잡한 3차원 포즈도 인식할 수 있다는 장점이 있다. 인간이 사용하는 제스처는 정지동작인 포즈들의 연속적인 동작을 통해 표현이 가능하므로 HMM을 이용하여 정지동작 포즈들로 구성된 제스처를 인식하였다. 본 논문에서 기술한 체험형 콘텐츠는 사용자가 부가적인 장치의 사용 없이 제스처 인식 결과를 입력인터페이스로 사용하였으며 사용자의 몸동작만으로 자연스럽게 콘텐츠를 조작할 수 있도록 해준다. 본 논문에서 기술한 체험형 콘텐츠는 평소 접하기 어려운 도깨비를 이용하여 사용자와 실시간 상호작용이 가능케 함으로써 몰입도와 재미를 향상시키고자 하였다.

  • PDF