• 제목/요약/키워드: Human Gesture Recognition

검색결과 197건 처리시간 0.034초

3차원 물체 재구성 과정이 통합된 실시간 3차원 특징값 추출 방법 (Real-time 3D Feature Extraction Combined with 3D Reconstruction)

  • 홍광진;이철한;정기철;오경수
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권12호
    • /
    • pp.789-799
    • /
    • 2008
  • 상호작용이 가능한 컴퓨팅 환경에서 사람과 컴퓨터 사이의 자연스러운 정보 교환을 위해 동작 인식과 관련한 연구가 활발하게 이루어지고 있다. 기존의 2차원 특징값을 이용하는 인식 알고리즘은 특징값 추출과 인식 속도는 빠르지만, 정확한 인식을 위해서 많은 환경적인 제약이 따른다. 또한 2.5차원 특징값을 이용하는 알고리즘은 2차원 특징값에 비해 높은 인식률을 제공하지만 물체의 회전 변화에 취약하고, 3차원 특징값을 이용하는 인식 알고리즘은 특징값 추출을 위해 3차원 물체를 재구성하는 선행 과정이 필요하기 때문에 인식 속도가 느리다. 본 논문은 3차원 물체 재구성 단계와 특징값 추출 단계를 통합하여 실시간으로 3차원 정보를 가지는 특징값 추출 방법을 제안한다. 제안하는 방법은 기존의 GPU 기반 비주얼 헐 생성 방법의 세부 과정 중에서 동작 인식에 필요한 데이타 생성 부분만을 수행하여 임의의 시점에서 3차원 물체에 대한 3종류의 프로젝션 맵을 생성하고, 각각의 프로젝션 맵에 대한 후-모멘트(Hu-moment)를 계산한다. 실험에서 우리는 기존의 방법들과 단계별 수행 시간을 비교하고, 생성된 후-모멘트에 대한 혼동 행렬(confusion matrix)을 계산함으로써 제안하는 방법이 실시간 동작 인식 환경에 적용될 수 있음을 확인하였다.

MPEG-U-based Advanced User Interaction Interface Using Hand Posture Recognition

  • Han, Gukhee;Choi, Haechul
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제5권4호
    • /
    • pp.267-273
    • /
    • 2016
  • Hand posture recognition is an important technique to enable a natural and familiar interface in the human-computer interaction (HCI) field. This paper introduces a hand posture recognition method using a depth camera. Moreover, the hand posture recognition method is incorporated with the Moving Picture Experts Group Rich Media User Interface (MPEG-U) Advanced User Interaction (AUI) Interface (MPEG-U part 2), which can provide a natural interface on a variety of devices. The proposed method initially detects positions and lengths of all fingers opened, and then recognizes the hand posture from the pose of one or two hands, as well as the number of fingers folded when a user presents a gesture representing a pattern in the AUI data format specified in MPEG-U part 2. The AUI interface represents a user's hand posture in the compliant MPEG-U schema structure. Experimental results demonstrate the performance of the hand posture recognition system and verified that the AUI interface is compatible with the MPEG-U standard.

증강현실을 위한 히스토그램 기반의 손 인식 시스템 (Histogram Based Hand Recognition System for Augmented Reality)

  • 고민수;유지상
    • 한국정보통신학회논문지
    • /
    • 제15권7호
    • /
    • pp.1564-1572
    • /
    • 2011
  • 본 논문에서는 증강현실을 위한 히스토그램 기반의 손 인식 기법을 제안한다. 손동작 인식은 사용자와 컴퓨터 사이의 친숙한 상호작용을 가능하게 한다. 하지만, 비젼 기반의 손동작 인식은 복잡한 손의 형태로 인한 관찰 방향 변화에 따른 입력 영상의 다양함으로 인식에 어려움이 따른다. 따라서 본 논문에서는 손의 형태적인 특징을 이용한 새로운 모델을 제안한다. 제안하는 기법에서 손 인식은 카메라로부터 획득한 영상에서 손 영역을 분리하는 부분과 인식하는 부분으로 구성된다. 카메라로부터 획득한 영상에서 배정을 제거하고 피부색 정보를 이용하여 손 영역을 분리한다. 다음으로 히스토그램을 이용하여 손의 특징점을 구하여 손의 형태를 계산한다. 마지막으로 판별된 손인식 정보를 이용하여 3차원 객체를 제어하는 증강현실 시스템을 구현하였다. 실험을 통해 제안한 기법의 구현 속도가 빠르고 인식률도 91.7%로 비교적 높음을 확인하였다.

동심원 추적 알고리즘을 사용한 손가락 동작 인식 (Finger-Gesture Recognition Using Concentric-Circle Tracing Algorithm)

  • 황동현;장경식
    • 한국정보통신학회논문지
    • /
    • 제19권12호
    • /
    • pp.2956-2962
    • /
    • 2015
  • 본 논문에서는 저가의 웹 카메라를 사용하여 영상을 입력받아 손 부분 영상을 추출한 후 동심원 추적 알고리즘을 사용하여 손가락 동작을 인식하는 기법을 제안한다. 제안하는 알고리즘은 기존의 인터페이스처럼 손에 별도의 센서를 부착하지 않음으로 신체에 불편함을 주지 않는다. 또한 저가인 웹 카메라를 사용해서 비용적인 측면에서 활용성을 증가 시켰다. 동심원 추적 알고리즘을 사용하여 펴진 손가락의 개수뿐 만아니라, 손가락 접힘 여부 정보를 효율적으로 추출할 수 있다. 본 논문에서 제안한 알고리즘을 사용하여, 손가락 동작을 평균 95.48%의 정확도로 인식할 수 있음을 확인했으며, 손을 사용한 HCI 및 원격 제어 명령어 입력수단으로 활용가능성을 확인하였다.

사용자 동작 인식 기능을 지원하는 판서 소프트웨어 개발 (The Development of the Writing Software for the Electronic Blackboard Supporting the User Action Recognition Functions)

  • 최윤수;정진욱;황민태;진교홍
    • 한국정보통신학회논문지
    • /
    • 제19권5호
    • /
    • pp.1213-1220
    • /
    • 2015
  • 최근 전자칠판 시스템, 스마트 기기의 보급과 더불어 다양한 디지털 콘텐츠가 등장하면서 종이 교과서를 활용하는 전통적인 교육에서 위 기기들을 활용하는 스마트 교육으로 진입하기 위한 작업이 정부 주도하에 진행 중에 있다. 스마트 교육을 활성화하기 위해서는 실제 현장의 강사들이 스마트 교육 인프라를 쉽게 활용할 수 있어야 한다. 특히, 전자칠판은 현장의 강사들이 가장 많이 활용할 것으로 예상되는 기기로 이 기기에서 동작하는 판서 소프트웨어는 복잡하지 않은 인터페이스를 제공하고 사용 방법이 간단해야 한다. 본 논문에서는 누구나 쉽게 활용할 수 있는 전자칠판용 판서 소프트웨어를 개발하였다. 개발된 판서 소프트웨어는 기본 판서 기능이외에 사용자의 제스처를 인식하여 그에 대응하는 기능을 수행하는 제스처 인식 기능과 판서 위치에 따른 동적 메뉴 배치 기능, 그리고 사용 빈도 기반의 자동 버튼 정렬 기능을 제공한다.

Volume Control using Gesture Recognition System

  • Shreyansh Gupta;Samyak Barnwal
    • International Journal of Computer Science & Network Security
    • /
    • 제24권6호
    • /
    • pp.161-170
    • /
    • 2024
  • With the technological advances, the humans have made so much progress in the ease of living and now incorporating the use of sight, motion, sound, speech etc. for various application and software controls. In this paper, we have explored the project in which gestures plays a very significant role in the project. The topic of gesture control which has been researched a lot and is just getting evolved every day. We see the usage of computer vision in this project. The main objective that we achieved in this project is controlling the computer settings with hand gestures using computer vision. In this project we are creating a module which acts a volume controlling program in which we use hand gestures to control the computer system volume. We have included the use of OpenCV. This module is used in the implementation of hand gestures in computer controls. The module in execution uses the web camera of the computer to record the images or videos and then processes them to find the needed information and then based on the input, performs the action on the volume settings if that computer. The program has the functionality of increasing and decreasing the volume of the computer. The setup needed for the program execution is a web camera to record the input images and videos which will be given by the user. The program will perform gesture recognition with the help of OpenCV and python and its libraries and them it will recognize or identify the specified human gestures and use them to perform or carry out the changes in the device setting. The objective is to adjust the volume of a computer device without the need for physical interaction using a mouse or keyboard. OpenCV, a widely utilized tool for image processing and computer vision applications in this domain, enjoys extensive popularity. The OpenCV community consists of over 47,000 individuals, and as of a survey conducted in 2020, the estimated number of downloads exceeds 18 million.

인간의 비언어적 행동 특징을 이용한 다중 사용자의 상호작용 의도 분석 (Interaction Intent Analysis of Multiple Persons using Nonverbal Behavior Features)

  • 윤상석;김문상;최문택;송재복
    • 제어로봇시스템학회논문지
    • /
    • 제19권8호
    • /
    • pp.738-744
    • /
    • 2013
  • According to the cognitive science research, the interaction intent of humans can be estimated through an analysis of the representing behaviors. This paper proposes a novel methodology for reliable intention analysis of humans by applying this approach. To identify the intention, 8 behavioral features are extracted from the 4 characteristics in human-human interaction and we outline a set of core components for nonverbal behavior of humans. These nonverbal behaviors are associated with various recognition modules including multimodal sensors which have each modality with localizing sound source of the speaker in the audition part, recognizing frontal face and facial expression in the vision part, and estimating human trajectories, body pose and leaning, and hand gesture in the spatial part. As a post-processing step, temporal confidential reasoning is utilized to improve the recognition performance and integrated human model is utilized to quantitatively classify the intention from multi-dimensional cues by applying the weight factor. Thus, interactive robots can make informed engagement decision to effectively interact with multiple persons. Experimental results show that the proposed scheme works successfully between human users and a robot in human-robot interaction.

손가락 움직임 인식을 위한 웨어러블 디바이스 설계 및 ML 기법별 성능 분석 (Design and Performance Analysis of ML Techniques for Finger Motion Recognition)

  • 정우순;이형규
    • 한국산업정보학회논문지
    • /
    • 제25권2호
    • /
    • pp.129-136
    • /
    • 2020
  • 손가락 움직임 인식을 통한 제어는 직관적인 인간-컴퓨터 상호작용 방법의 하나이다. 본 연구에서는 여러 가지 ML (Machine learning) 기법을 사용하여 효율적인 손가락 움직임 인식을 위한 웨어러블 디바이스를 구현한다. 움직임 인식을 위한 시계열 데이터 분석에 전통적으로 사용되어 온 HMM (Hidden markov model) 및 DTW (Dynamic time warping) 기법뿐만 아니라 NN (Neural network) 기법을 적용하여 손가락 움직임 인식의 효율성 및 정확성을 비교하고 분석한다. 제안된 시스템의 경우, 경량화된 ML 모델을 설계하기 위해 각 ML 기법에 대해 최적화된 전처리 프로세스를 적용한다. 실험 결과, 최적화된 NN, HMM 및 DTW 기반 손가락 움직임 인식시스템은 각각 99.1%, 96.6%, 95.9%의 정확도를 제공한다.

적외선 영상센서를 이용한 스마트 터치 프로젝터 시스템 기술 연구 (A Study on Smart Touch Projector System Technology Using Infrared (IR) Imaging Sensor)

  • 이국선;오상헌;전국휘;강성수;유동희;김병규
    • 한국멀티미디어학회논문지
    • /
    • 제15권7호
    • /
    • pp.870-878
    • /
    • 2012
  • 최근의 많은 컴퓨터 기술의 발전과 센서 기술의 발전의 결합으로 매우 다양한 형태의 사용자 경험에 기반한 사용자 인터페이스(User interface) 기술들이 출현하고 있다. 본 연구에서는 적외선 영상을 이용한 스마트 터치 프로젝터 시스템 기술에 관한 연구와 그 결과를 소개한다. 제안된 시스템에서는 사용자가 빔 프로젝터를 사용할 때 적외선 펜을 이용하여 이벤트를 발생시키면 적외선 영상센서를 통하여 그 이벤트를 인식하여 마우스 이벤트를 발생시키는 기법을 제안한다. 입력되는 펜의 움직임 추출과 추적을 기반으로 움직임 이벤트 패턴을 설계하였으며, 입력 영상 화면과 실제 사용하는 하드웨어의 해상도에 차이가 있기 때문에 이 오차를 최소화 하기 위해서 화면 좌표보정 알고리즘을 제안한다. 이러한 기술은 빔 프로젝터에 간단한 프로세서만 장착이 된다면 다른 이동식 노트북 등이 필요 없이 언제든지 회의나 발표 등을 진행할 수 있는 차세대 휴먼-컴퓨터 상호작용(Human-Computer Interaction) 기술이다.

Design of OpenCV based Finger Recognition System using binary processing and histogram graph

  • Baek, Yeong-Tae;Lee, Se-Hoon;Kim, Ji-Seong
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권2호
    • /
    • pp.17-23
    • /
    • 2016
  • NUI is a motion interface. It uses the body of the user without the use of HID device such as a mouse and keyboard to control the device. In this paper, we use a Pi Camera and sensors connected to it with small embedded board Raspberry Pi. We are using the OpenCV algorithms optimized for image recognition and computer vision compared with traditional HID equipment and to implement a more human-friendly and intuitive interface NUI devices. comparison operation detects motion, it proposed a more advanced motion sensors and recognition systems fused connected to the Raspberry Pi.