• 제목/요약/키워드: Human Gesture Recognition

검색결과 198건 처리시간 0.028초

HRI 시스템에서 제스처 인식을 위한 Moving Mean-Shift 기반 사용자 손 위치 보정 알고리즘 (A Compensation Algorithm for the Position of User Hands Based on Moving Mean-Shift for Gesture Recognition in HRI System)

  • 김태완;권순량;이동명
    • 한국통신학회논문지
    • /
    • 제40권5호
    • /
    • pp.863-870
    • /
    • 2015
  • 본 논문은 키넥트 센서 (Kinect sensor)를 탑재한 Human Robot Interface (HRI) 시스템에서 손 위치 데이터를 측정하여 제스처 인식 및 처리성능을 높이기 위하여 Moving Mean-Shift 기반 사용자 손 위치 보정 알고리즘($CAPUH_{MMS}$)을 제안하였다. 또한, $CAPUH_{MMS}$의 성능을 자체 개발한 실시간 성능 시뮬레이터로 이동궤적에 대한 평균 오차 성능개선 비율을 다른 보정 기법인 $CA_{KF}$ (Kalman-Filter 기반 보정 알고리즘) 및 $CA_{LSM}$ (Least-Squares Method 기반 보정 알고리즘)의 성능과 비교하였다. 실험결과, $CAPUH_{MMS}$의 이동궤적에 대한 평균 오차 성능개선 비율은 양손 상하 운동에서 평균 19.35%으로, 이는 $CA_{KF}$$CA_{LSM}$ 보다 각각 13.88%, 16.68% 더 높은 평균 오차 성능 개선 비율을, 그리고 양손 좌우 운동에서 평균 28.54%으로 $CA_{KF}$$CA_{LSM}$ 보다 각각 9.51%, 17.31% 더 높은 평균 오차 성능 개선 비율을 나타낸 것이다.

동적 베이스망 기반의 양손 제스처 인식 (Dynamic Bayesian Network based Two-Hand Gesture Recognition)

  • 석흥일;신봉기
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권4호
    • /
    • pp.265-279
    • /
    • 2008
  • 손 제스처를 이용한 사람과 컴퓨터간의 상호 작용은 오랜 기간 많은 사람들이 연구해 오고 있으며 커다란 발전을 보이고 있지만, 여전히 만족스러운 결과를 보이지는 못하고 있다. 본 논문에서는 동적 베이스망 프레임워크를 이용한 손 제스처 인식 방법을 제안한다. 유선 글러브를 이용하는 방법들과는 달리, 카메라 기반의 방법에서는 영상 처리와 특징 추출 단계의 결과들이 인식 성능에 큰 영향을 미친다. 제안하는 제스처 모델에서의 추론에 앞서 피부 색상 모델링 및 검출과 움직임 추적을 수행한다. 특징들간의 관계와 새로운 정보들을 쉽게 모델에 반영할 수 있는 동적 베이스망을 이용하여 두 손 제스처와 한 손 제스처 모두를 인식할 수 있는 새로운 모델을 제안한다. 10가지 독립 제스처에 대한 실험에서 최대 99.59%의 높은 인식 성능을 보였다. 제안하는 모델과 관련 방법들은 수화 인식과 같은 다른 문제들에도 적용 가능할 것으로 판단된다.

Human-Computer Natur al User Inter face Based on Hand Motion Detection and Tracking

  • Xu, Wenkai;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제15권4호
    • /
    • pp.501-507
    • /
    • 2012
  • Human body motion is a non-verbal part for interaction or movement that can be used to involves real world and virtual world. In this paper, we explain a study on natural user interface (NUI) in human hand motion recognition using RGB color information and depth information by Kinect camera from Microsoft Corporation. To achieve the goal, hand tracking and gesture recognition have no major dependencies of the work environment, lighting or users' skin color, libraries of particular use for natural interaction and Kinect device, which serves to provide RGB images of the environment and the depth map of the scene were used. An improved Camshift tracking algorithm is used to tracking hand motion, the experimental results show out it has better performance than Camshift algorithm, and it has higher stability and accuracy as well.

Emotion Recognition Method Based on Multimodal Sensor Fusion Algorithm

  • Moon, Byung-Hyun;Sim, Kwee-Bo
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제8권2호
    • /
    • pp.105-110
    • /
    • 2008
  • Human being recognizes emotion fusing information of the other speech signal, expression, gesture and bio-signal. Computer needs technologies that being recognized as human do using combined information. In this paper, we recognized five emotions (normal, happiness, anger, surprise, sadness) through speech signal and facial image, and we propose to method that fusing into emotion for emotion recognition result is applying to multimodal method. Speech signal and facial image does emotion recognition using Principal Component Analysis (PCA) method. And multimodal is fusing into emotion result applying fuzzy membership function. With our experiments, our average emotion recognition rate was 63% by using speech signals, and was 53.4% by using facial images. That is, we know that speech signal offers a better emotion recognition rate than the facial image. We proposed decision fusion method using S-type membership function to heighten the emotion recognition rate. Result of emotion recognition through proposed method, average recognized rate is 70.4%. We could know that decision fusion method offers a better emotion recognition rate than the facial image or speech signal.

로봇 인터페이스 활용을 위한 가속도 센서 기반 제스처 인식 (Accelerometer-based Gesture Recognition for Robot Interface)

  • 장민수;조용석;김재홍;손주찬
    • 지능정보연구
    • /
    • 제17권1호
    • /
    • pp.53-69
    • /
    • 2011
  • 로봇 자체 또는 로봇에 탑재된 콘텐츠와의 상호작용을 위해 일반적으로 영상 또는 음성 인식 기술이 사용된다. 그러나 영상 음성인식 기술은 아직까지 기술 및 환경 측면에서 해결해야 할 어려움이 존재하며, 실적용을 위해서는 사용자의 협조가 필요한 경우가 많다. 이로 인해 로봇과의 상호작용은 터치스크린 인터페이스를 중심으로 개발되고 있다. 향후 로봇 서비스의 확대 및 다양화를 위해서는 이들 영상 음성 중심의 기존 기술 외에 상호보완적으로 활용이 가능한 인터페이스 기술의 개발이 필요하다. 본 논문에서는 로봇 인터페이스 활용을 위한 가속도 센서 기반의 제스처 인식 기술의 개발에 대해 소개한다. 본 논문에서는 비교적 어려운 문제인 26개의 영문 알파벳 인식을 기준으로 성능을 평가하고 개발된 기술이 로봇에 적용된 사례를 제시하였다. 향후 가속도 센서가 포함된 다양한 장치들이 개발되고 이들이 로봇의 인터페이스로 사용될 때 현재 터치스크린 중심으로 된 로봇의 인터페이스 및 콘텐츠가 다양한 형태로 확장이 가능할 것으로 기대한다.

안정적 사람 검출 및 추적을 위한 검증 프로세스 (Verification Process for Stable Human Detection and Tracking)

  • 안정호;최종호
    • 한국정보전자통신기술학회논문지
    • /
    • 제4권3호
    • /
    • pp.202-208
    • /
    • 2011
  • 최근 들어 인간과 컴퓨터의 상호작용을 통해 컴퓨터 시스템을 제어하는 기술에 관한 연구가 진행되고 있다. 이러한 응용분야의 대부분은 얼굴검출을 통해 사용자의 위치를 파악하고 사용자의 제스처를 인식하는 방법을 포함하고 있으나, 얼굴검출 성능은 아직 미흡한 실정이다. 사용자의 위치가 안정적으로 검출되지 못 하는 경우에는 제스처 인식 등의 인터페이스 성능은 현격하게 저하된다. 따라서 본 논문에서는 피부색과 얼굴검출의 누적 분포를 이용하여 동영상에서 안정적으로 얼굴을 검출할 수 있는 알고리즘을 제안하고, 실험을 통해 알고리즘의 유용성을 증명하였다. 제안한 알고리즘은 대응행렬 분석을 적용하여 사람을 추적하는 분야에 응용이 가능하다.

3차원 인체 포즈 인식을 이용한 상호작용 게임 콘텐츠 개발 (Developing Interactive Game Contents using 3D Human Pose Recognition)

  • 최윤지;박재완;송대현;이칠우
    • 한국콘텐츠학회논문지
    • /
    • 제11권12호
    • /
    • pp.619-628
    • /
    • 2011
  • 일반적으로 비전기반 3차원 인체 포즈 인식 기술은 HCI(Human-Computer Interaction)에서 인간의 제스처를 전달하기 위한 방법으로 사용된다. 특수한 환경에서 단순한 2차원 움직임 포즈만 인식할 수 있는 2차원 포즈모델 기반 인식 방법에 비해 3차원 관절을 묘사한 포즈모델은 관절각에 대한 정보와 신체 부위의 모양정보를 선행지식으로 사용할 수 있어서 좀 더 일반적인 환경에서 복잡한 3차원 포즈도 인식할 수 있다는 장점이 있다. 이 논문은 인체의 3차원 관절 정보를 이용한 포즈 인식 기술을 인터페이스로 활용한 상호작용 게임 콘텐츠 개발에 관해 기술한다. 제안된 시스템에서 사용되는 포즈는 인체 관절 중 14개 관절의 3차원 위치정보를 이용해서 구성한 포즈 템플릿과 현재 사용자의 포즈를 비교해 인식된다. 이 방법을 이용하여 제작된 시스템은 사용자가 부가적인 장치의 사용 없이 사용자의 몸동작만으로 자연스럽게 게임 콘텐츠를 조작할 수 있도록 해준다. 제안된 3차원 인식 기술을 게임 콘텐츠에 적용하여 성능을 평가한다. 향후 다양한 환경에서 더욱 강건하게 포즈를 인식할 수 있는 연구를 수행할 계획이다.

3차원 손 모델을 이용한 비전 기반 손 모양 인식기의 개발 (Development of a Hand~posture Recognition System Using 3D Hand Model)

  • 장효영;변증남
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.219-221
    • /
    • 2007
  • Recent changes to ubiquitous computing requires more natural human-computer(HCI) interfaces that provide high information accessibility. Hand-gesture, i.e., gestures performed by one 'or two hands, is emerging as a viable technology to complement or replace conventional HCI technology. This paper deals with hand-posture recognition. Hand-posture database construction is important in hand-posture recognition. Human hand is composed of 27 bones and the movement of each joint is modeled by 23 degrees of freedom. Even for the same hand-posture,. grabbed images may differ depending on user's characteristic and relative position between the hand and cameras. To solve the difficulty in defining hand-postures and construct database effective in size, we present a method using a 3D hand model. Hand joint angles for each hand-posture and corresponding silhouette images from many viewpoints by projecting the model into image planes are used to construct the ?database. The proposed method does not require additional equations to define movement constraints of each joint. Also using the method, it is easy to get images of one hand-posture from many vi.ewpoints and distances. Hence it is possible to construct database more precisely and concretely. The validity of the method is evaluated by applying it to the hand-posture recognition system.

  • PDF

인간-로봇 상호협력작업을 위한 모바일로봇의 지능제어에 관한 연구 (A Study on Intelligent Control of Mobile Robot for Human-Robot Cooperative Operation in Manufacturing Process)

  • 김두범;배호영;김상현;임오득;백영태;한성현
    • 한국산업융합학회 논문집
    • /
    • 제22권2호
    • /
    • pp.137-146
    • /
    • 2019
  • This study proposed a new technique to control of mobile robot based on voice command for (Human-Robot Cooperative operation in manufacturing precess). High performance voice recognition and control system was designed In this paper for smart factory. robust voice recognition is essential for a robot to communicate with people. One of the main problems with voice recognition robots is that robots inevitably effects real environment including with noises. The noise is captured with strong power by the microphones, because the noise sources are closed to the microphones. The signal-to-noise ratio of input voice becomes quite low. However, it is possible to estimate the noise by using information on the robot's own motions and postures, because a type of motion/gesture produces almost the same pattern of noise every time it is performed. In this paper, we describe an robust voice recognition system which can robustly recognize voice by adults and students in noisy environments. It is illustrated by experiments the voice recognition performance of mobile robot placed in a real noisy environment.

직교 파라미터 조합을 이용한 모션 애니메이션 (Motion Animation using orthogonal parameters)

  • 이칠우;진철영;배기태;정민영
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅳ
    • /
    • pp.2283-2286
    • /
    • 2003
  • This paper has expressed human's motion data into orthogonal parameters in low dimension, and created new motion data through this. We have reconstructed a new model consisting of orthogonal parameters from dividing human body data into three parts - hand, leg, and body to make new motions. Mixing these parts of body from different motions has leaded to new good motion data. It will be possible to use this motion editing not only for Animation Technology, but also for a three dimensional gesture recognition skill.

  • PDF