• 제목/요약/키워드: Gesture Recognition.

검색결과 558건 처리시간 0.026초

딥러닝 기반의 얼굴과 제스처 인식을 활용한 원격 제어 (Remote Control System using Face and Gesture Recognition based on Deep Learning)

  • 황기태;이재문;정인환
    • 한국인터넷방송통신학회논문지
    • /
    • 제20권6호
    • /
    • pp.115-121
    • /
    • 2020
  • IoT 기술과 이 확산됨에 따라 얼굴 인식을 활용하는 다양한 응용들이 등장하고 있다. 본 논문은 딥러닝 기반의 얼굴 인식과 손 제스처 인식을 활용하는 원격 제어 시스템을 설계 구현한 내용을 기술한다. 얼굴 인식을 활용하는 응용시스템은 카메라로부터 실시간으로 영상을 촬영하는 부분과 영상으로부터 얼굴을 인식하는 부분, 그리고 인식된 결과를 활용하는 부분으로 구성된다. 영상을 실시간으로 촬영하기 위해서 어디서나 장착 가능한 싱글보드 컴퓨터인 라즈베리파이를 이용하고, 서버 컴퓨터에는 FaceNet 모델을 활용하여 얼굴 인식 소프트웨어를 개발하고 OpenCV를 이용한 손 제스처 인식 소프트웨어도 개발하였다. 사용자를 알려진 사용자와 위험한 사용자 그리고 모르는 사용자의 3 그룹으로 구분하고, 얼굴 인식과 손 제스처가 모두 통과된 알려진 사용자에 대해서만 자동 도어락을 오픈하는 응용을 설계 구현하였다.

Design of HCI System of Museum Guide Robot Based on Visual Communication Skill

  • Qingqing Liang
    • Journal of Information Processing Systems
    • /
    • 제20권3호
    • /
    • pp.328-336
    • /
    • 2024
  • Visual communication is widely used and enhanced in modern society, where there is an increasing demand for spirituality. Museum robots are one of many service robots that can replace humans to provide services such as display, interpretation and dialogue. For the improvement of museum guide robots, the paper proposes a human-robot interaction system based on visual communication skills. The system is based on a deep neural mesh structure and utilizes theoretical analysis of computer vision to introduce a Tiny+CBAM mesh structure in the gesture recognition component. This combines basic gestures and gesture states to design and evaluate gesture actions. The test results indicated that the improved Tiny+CBAM mesh structure could enhance the mean average precision value by 13.56% while maintaining a loss of less than 3 frames per second during static basic gesture recognition. After testing the system's dynamic gesture performance, it was found to be over 95% accurate for all items except double click. Additionally, it was 100% accurate for the action displayed on the current page.

차량정보 분석과 제스처 인식을 위한 AVN 소프트웨어 구현 (Development of AVN Software Using Vehicle Information for Hand Gesture)

  • 오규태;박인혜;이상엽;고재진
    • 한국통신학회논문지
    • /
    • 제42권4호
    • /
    • pp.892-898
    • /
    • 2017
  • 본 논문은 차량 내 AVN(Audio Video Navigation)에서 차량정보 분석과 제스처 인식이 가능한 소프트웨어 구조를 설계하고 구현 방법을 서술한다. 설계된 소프트웨어는 차량정보 분석을 위해 CAN(Controller Area Network) 통신 데이터 분석 모듈을 구현하여 차량의 주행 상태를 분석했다. AVN 소프트웨어는 분석된 정보를 웨어러블 디바이스의 제스처 정보와 융합토록 했다. 도출된 융합정보는 운전자의 명령 수행 단계로 매칭하고 서비스를 지원하는데 사용됐다. 설계된 AVN 소프트웨어는 기성 제품과 유사한 환경의 HW 플랫폼 상에 구현되어 차량 주행 상황과 동일하게 모사된 상황에서의 차량정보분석, 제스처 인식 수행 등의 기능을 지원함을 확인했다.

손동작 추적 및 인식을 이용한 비디오 편집 (Video Editing using Hand Gesture Tracking and Recognition)

  • 배철수
    • 한국정보통신학회논문지
    • /
    • 제11권1호
    • /
    • pp.102-107
    • /
    • 2007
  • 본 논문에서는 동작에 근거한 새로운 비디오 편집 방법을 제안한다. 강의 비디오에서 전자 슬라이드 내용을 자동으로 검출하고 비디오와 동기화한다. 각 동기화된 표제의 동작을 연속적으로 추적 및 인식한 후, 등록된 화면과 슬라이드에서 변환 내용을 찾아 동작이 일어 나는 영역을 확인한다. 인식된 동작과 등록된 지점에서 슬라이드의 정보를 추출하여 슬라이드 영역을 부분적으로 확대한다거나 원본 비디오를 자동으로 편집함으로써 비디오의 질을 향상 시킬 수가 있다. 2개의 비디오 가지고 실험한 결과 각 95.5,96.4 %의 동작 인식 결과를 얻을 수 있었다.

인간의 움직임 추출을 이용한 감정적인 행동 인식 시스템 개발 (Emotional Human Body Recognition by Using Extraction of Human Body from Image)

  • 송민국;주영훈;박진배
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2006년 학술대회 논문집 정보 및 제어부문
    • /
    • pp.214-216
    • /
    • 2006
  • Expressive face and human body gestures are among the main non-verbal communication channels in human-human interaction. Understanding human emotions through body gesture is one of the necessary skills both for humans and also for the computers to interact with their human counterparts. Gesture analysis is consisted of several processes such as detecting of hand, extracting feature, and recognizing emotions. Skin color information for tracking hand gesture is obtained from face detection region. We have revealed relationships between paricular body movements and specific emotions by using HMM(Hidden Markov Model) classifier. Performance evaluation of emotional human body recognition has experimented.

  • PDF

착용형 단말에서의 음성 인식과 제스처 인식을 융합한 멀티 모달 사용자 인터페이스 설계 (Design of Multimodal User Interface using Speech and Gesture Recognition for Wearable Watch Platform)

  • 성기은;박유진;강순주
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권6호
    • /
    • pp.418-423
    • /
    • 2015
  • 기술 발전에 따른 착용형 단말의 기능들은 더 다양하고 복잡해지고 있다. 복잡한 기능 때문에 일반 사용자들도 기능을 사용하기 힘든 경우가 있다. 본 논문에서는 사용자에게 편리하고 간단한 인터페이스 방식을 제공하자는데 목적을 두고 있다. 음성 인식의 경우 사용자 입장에서 직관적이고 사용하기 편리할 뿐만 아니라 다양한 명령어를 입력할 수 있다. 하지만 음성 인식을 착용형 단말에서 사용할 경우 컴퓨팅 파워라든지 소모전력 등 하드웨어적인 제약이 있다. 또한 착용형 단말은 언제 사용자가 음성으로 명령을 내릴지 그 시점을 알 수가 없다. 따라서 명령을 입력 받기 위해서는 음성 인식이 항상 동작하여야 한다. 하지만 소모전력 문제 때문에 이와 같은 방법을 사용하기에는 무리가 있다. 음성 인식이 가지고 있는 문제점을 보완하기 위해 제스처 인식을 사용한다. 본 논문에서는 음성과 제스처를 혼합한 멀티 모달 인터페이스로 사용자에게 어떻게 편리한 인터페이스를 제공할 것인지에 대해 설명하고 있다.

멀티미디어 콘텐츠 제어를 위한 사용자 경험 기반 동작 인식 기술 (Human Gesture Recognition Technology Based on User Experience for Multimedia Contents Control)

  • 김윤식;박상윤;옥수열;이석환;이응주
    • 한국멀티미디어학회논문지
    • /
    • 제15권10호
    • /
    • pp.1196-1204
    • /
    • 2012
  • 본 논문에서는 다양한 멀티미디어 매체의 제어 및 인터랙션을 위하여 별도의 입력장치 없이 사용자의 경험기반의 동작 인식을 통하여 멀티미디어 콘텐츠를 제어 하는 알고리즘을 제안하였다. 본 논문에서 제안한 사용자 경험 기반 멀티미디어 콘텐츠 제어를 위한 휴먼 동작 인식 방법은 먼저, 카메라로부터 입력받은 영상을 조명의 변화에 크게 영향을 받지 않는 YCbCr컬러 영역으로 변환하여 피부색 추출과 모폴로지에 의한 잡음제거, Boundary Energy 및 Depth 영상을 이용하여 손 영역을 검출하였다. 검출된 손 영상에서 PCA 알고리즘을 이용하여 손 모양을 인식하고 차영상 및 모멘트 이론을 이용하여 손의 중심점 검출 및 궤적을 획득한 후, 손의 궤적을 시간을 기준으로 8분할하여 8방향 체인코드를 이용하여 심볼화하였다. 심볼화된 정보로 부터 HMM 알고리즘을 이용하여 손동작을 인식, 사용자의 동작 인식을 통하여 멀티미디어 콘텐츠를 제어하도록 하였다. 제안한 알고리즘을 실험에 적용한 결과 손 영역 검출은 94.25%, 손 모양 인식은 92.6%, 손 동작 인식은 85.86%, 얼굴 검출은 89.58%의 성능을 나타내었으며 이를 기반으로 컴퓨터 환경에서 생성 구축된 영상, 음성, 동영상, MP3, e-book 등과 같은 다양한 콘텐츠들을 동작인식만으로 제어할 수 있도록 하였다.

웨어러블 응용을 위한 CNN 기반 손 제스처 인식 (CNN-Based Hand Gesture Recognition for Wearable Applications)

  • 문현철;양안나;김재곤
    • 방송공학회논문지
    • /
    • 제23권2호
    • /
    • pp.246-252
    • /
    • 2018
  • 제스처는 스마트 글라스 등 웨어러블 기기의 NUI(Natural User Interface)로 주목받고 있다. 최근 MPEG에서는 IoT(Internet of Things) 및 웨어러블 환경에서의 효율적인 미디어 소비를 지원하기 위한 IoMT(Internet of Media Things) 표준화를 진행하고 있다. IoMT에서는 손 제스처 검출과 인식이 별도의 기기에서 수행되는 것을 가정하고 이들 모듈간의 인터페이스 규격을 제공하고 있다. 한편, 최근 인식률 개선을 위하여 딥러닝 기반의 손 제스처 인식 기법 또한 활발히 연구되고 있다. 본 논문에서는 IoMT의 유스 케이스(use case)의 하나인 웨어러블 기기에서의 미디어 소비 등 다양한 응용을 위하여 CNN(Convolutional Neural Network) 기반의 손 제스처 인식 기법을 제시한다. 제시된 기법은 스마트 글래스로 획득한 스테레오 비디오로부터 구한 깊이(depth) 정보와 색 정보를 이용하여 손 윤곽선을 검출하고, 검출된 손 윤곽선 영상을 데이터 셋으로 구성하여 CNN을 학습한 후, 이를 바탕으로 입력 손 윤곽선 영상의 제스처를 인식한다. 실험결과 제안기법은 95%의 손 제스처 인식율를 얻을 수 있음을 확인하였다.

연속적인 손 제스처의 실시간 인식을 위한 계층적 베이지안 네트워크 (A Hierarchical Bayesian Network for Real-Time Continuous Hand Gesture Recognition)

  • 허승주;이성환
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권12호
    • /
    • pp.1028-1033
    • /
    • 2009
  • 본 논문은 컴퓨터 마우스를 제어하기 위한 실시간 손 제스처 인식 방법을 제안한다. 다양한 제스처를 표현하기 위해, 손 제스처를 연속적인 손 모양의 시퀀스로 정의하고, 이러한 손 제스처를 인식하기 위한 계층적 베이지안 네트워크를 디자인한다. 제안하는 방법은 손 포스처와 제스처 인식을 위한 계층적 구조를 가지며, 이는 특징 추출과정에서 발생하는 잡음에 강인하다는 장점을 가진다. 제안하는 방법의 유용성을 증명하기 위해, 제스처 기반 가상 마우스 인터페이스를 개발하였다. 실험에서 제안한 방법은 단순한 배경에서는 94.8%, 복잡한 배경에서는 88.1%의 인식률을 보였으며, HMM 기반의 기존 방법보다 우수한 성능을 보였다.

3차원 동작인식기술을 적용한 어린이 교통안전교육 체감형 기능성 게임디자인 연구 (A Study of the Physical Experience Using Serious Game Design Traffic Safety Education for Children applied using 3D Depth Gesture Recognition Technology)

  • 장창익
    • 한국게임학회 논문지
    • /
    • 제12권6호
    • /
    • pp.5-14
    • /
    • 2012
  • 일상생활을 살아나가면서 발생하는 안전사고 중에 어린이에게 가장 위협적인 사고는 보행 중 발생하는 교통사고이다. 사고발생 후의 대책이나 처리보다 사고를 미연에 방지하기 위해 어린이 스스로 몸을 유지할 수 있는 안전에 대한 바른 습관 및 태도를 형성시켜주는 교통안전 교육이 강조되야 한다. 본 논문에서는 기능성게임으로서 교통안전교육을 가장 효율적으로 학습할 수 있는 방안의 하나로 어린이의 몸을 활용해 교통안전 준수체험 교육훈련을 할 수 있는 체감형 교통안전교육게임을 설계해보고 3차원 동작인식기술을 다양한 기능성게임에 적용할 수 있는 가능성을 제시하였다.