• 제목/요약/키워드: hand gesture analysis

검색결과 55건 처리시간 0.023초

손 동작을 통한 인간과 컴퓨터간의 상호 작용 (Recognition of Hand gesture to Human-Computer Interaction)

  • 이래경;김성신
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2000년도 하계학술대회 논문집 D
    • /
    • pp.2930-2932
    • /
    • 2000
  • In this paper. a robust gesture recognition system is designed and implemented to explore the communication methods between human and computer. Hand gestures in the proposed approach are used to communicate with a computer for actions of a high degree of freedom. The user does not need to wear any cumbersome devices like cyber-gloves. No assumption is made on whether the user is wearing any ornaments and whether the user is using the left or right hand gestures. Image segmentation based upon the skin-color and a shape analysis based upon the invariant moments are combined. The features are extracted and used for input vectors to a radial basis function networks(RBFN). Our "Puppy" robot is employed as a testbed. Preliminary results on a set of gestures show recognition rates of about 87% on the a real-time implementation.

  • PDF

3D-CNN에서 동적 손 제스처의 시공간적 특징이 학습 정확성에 미치는 영향 (Effects of Spatio-temporal Features of Dynamic Hand Gestures on Learning Accuracy in 3D-CNN)

  • 정영지
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권3호
    • /
    • pp.145-151
    • /
    • 2023
  • 3D-CNN은 시계열 데이터 학습을 위한 딥 러닝 기법 중 하나이다. 이러한 3차원 학습은 많은 매개변수를 생성할 수 있으므로 고성능 기계학습이 필요하거나 학습 속도에 커다란 영향을 미칠 수 있다. 본 연구에서는 손의 동적인 제스처 동작을 시공간적으로 학습할 때, 3D-CNN 모델의 구조적 변화 없이 입력 영상 데이터의 시공간적 변화에 따른 학습 정확성을 분석함으로써, 3D-CNN을 이용한 동적 제스처 학습의 효율성을 높이기 위한 입력 영상 데이터의 최적 조건을 찾고자 한다. 첫 번째로 동적 손 제스처 영상 데이터에서 동적 이미지 프레임의 학습구간을 설정함으로써 제스처 동작간 시간 비율을 조정한다. 둘째로는 클래스간 2차원 교차 상관 분석을 통해 영상 데이터의 이미지 프레임간 유사도를 측정하여 정규화 함으로써 프레임간 평균값을 얻고 학습 정확성을 분석한다. 이러한 분석을 통하여, 동적 손 제스처의 3D-CNN 딥 러닝을 위한 입력 영상 데이터를 효과적으로 선택하는 두 가지 방법을 제안한다. 실험 결과는 영상 데이터 프레임의 학습구간과 클래스간 이미지 프레임간 유사도가 학습 모델의 정확성에 영향을 미칠 수 있음을 보여준다.

지능로봇 제어를 위한 비전기반 실시간 수신호 인식 시스템 (Real-time Hand Gesture Recognition System based on Vision for Intelligent Robot Control)

  • 양태규;서용호
    • 한국정보통신학회논문지
    • /
    • 제13권10호
    • /
    • pp.2180-2188
    • /
    • 2009
  • 본 논문은 지능로봇의 동작을 제어하기 위해 비전기반의 실시간 수신호를 PCA 및 BP 알고리즘을 이용한 인식시스템을 제안하였다. 수신호 인식은 PCA 알고리즘을 이용한 전처리 단계와 BP 알고리즘을 이용한 인식의 두 단계로 구성한다. PCA 알고리즘은 데이터 분석을 위해 다차원 데이터 집합을 보다 낮은 차원으로 감소시키기 위해 사용되는 기술로 주어진 수신호의 특징인 투영 벡터를 계산하기 위하여 적용되었고, BP 알고리즘은 병렬 구조를 가지고 있으므로 병렬 분산처리가 가능하고, 처리 속도가 빠르므로 PCA로부터 훈련된 고유 수신호를 학습시켜 수신호를 실시간으로 인식한다. 실험에서는 10종류의 수신호를 PCA 알고리즘만을 사용한 경우와 제안한 PCA 및 BP 알고리즘을 사용한 경우와 인식률을 비교하여 제안한 알고리즘이 우수하다는 것을 보였다.

손 제스터 인식을 이용한 실시간 아바타 자세 제어 (On-line Motion Control of Avatar Using Hand Gesture Recognition)

  • 김종성;김정배;송경준;민병의;변증남
    • 전자공학회논문지C
    • /
    • 제36C권6호
    • /
    • pp.52-62
    • /
    • 1999
  • 본 논문에서는 가상 환경에서 움직이는 인체 Avatar의 움직임을 인간의 가장 자연스러운 동작의 하나인 손 제스처를 이용하여 실시간으로 제어하는 인식 시스템의 구현에 관하여 상술한다. 동적 손 제스처는 컴퓨터와 제스처를 사용하는 사람과의 상호 연결 수단이다.가상공간 상에서의 자연스러운 움직임을 표현하기 위해 32개의 자유도(DOF)를 가진 인체 아바타를 구성하였으며, 정지, 전후좌우로 한 걸음 이동, 걷기, 달리기, 좌우로 회전, 뒤로 돌기, 물건 잡기의 동작 모드를 정의하여 가상공간 상의 인체 아바타는 미리 설정된 손 제스처에 따라 실시간에 따라 실시간으로 3차원공간상에서 움직일 수 있다. 실시간의 인체 아바타 이동에는 역 기구학과 기구학을 혼용하여 적용하였으며, 사이버 터치를 착용한 사용자의 손 제스처 인식에는 인공 신경망 이론과 퍼지 이론을 도입하여 실시간 인식이 가능하였다.

  • PDF

형태론적 체인코드 에지벡터를 이용한 핸드 제스처 시퀀스 인식 (Hand Gesture Sequence Recognition using Morphological Chain Code Edge Vector)

  • 이강호;최종호
    • 한국컴퓨터정보학회논문지
    • /
    • 제9권4호
    • /
    • pp.85-91
    • /
    • 2004
  • 최근 들어 인간의 의지를 컴퓨터에 전달하기 위한 수단으로 컴퓨터 시각기반 방식으로 제스처를 인식하고자 하는 연구가 널리 진행되고 있다. 제스처 인식에서 가장 중요한 이슈는 알고리즘의 단순화와 처리 시간의 감소이다. 이러한 문제를 해결하기 위하여 본 연구에서는 기하학적 집합론에 근거하고 있는 수학적 형태론을 적용하였다. 본 논문에서 제안한 알고리즘의 키 아이디어는 형태론적 형상분해를 적용하여 얻은 원시형상 요소들의 중심점을 연결하는 궤적을 추적하는 것이다. 핸드 제스처 시퀀스의 중심점 궤적은 핸드 제스처의 형상에 관련된 중요한 정보를 내포하고 있다. 이러한 특징에 근거하여 본 연구에서는 원시형상 요소들의 중심점 궤적과 직접적으로 관련되는 체인코드 에지벡터로부터 형상의 특징벡터를 계산하여 핸드 제스처 시퀀스를 인식할 수 있는 알고리즘을 제안하고, 실험을 통하여 그 유용성을 증명하였다.

  • PDF

Combining Object Detection and Hand Gesture Recognition for Automatic Lighting System Control

  • Pham, Giao N.;Nguyen, Phong H.;Kwon, Ki-Ryong
    • Journal of Multimedia Information System
    • /
    • 제6권4호
    • /
    • pp.329-332
    • /
    • 2019
  • Recently, smart lighting systems are the combination between sensors and lights. These systems turn on/off and adjust the brightness of lights based on the motion of object and the brightness of environment. These systems are often applied in places such as buildings, rooms, garages and parking lot. However, these lighting systems are controlled by lighting sensors, motion sensors based on illumination environment and motion detection. In this paper, we propose an automatic lighting control system using one single camera for buildings, rooms and garages. The proposed system is one integration the results of digital image processing as motion detection, hand gesture detection to control and dim the lighting system. The experimental results showed that the proposed system work very well and could consider to apply for automatic lighting spaces.

가젯암: 확장현실을 위한 손 제스처 기반 대화형 데이터 시각화 시스템 (Gadget Arms: Interactive Data Visualization using Hand Gesture in Extended Reality)

  • 최준영;정해진;정원기
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제25권2호
    • /
    • pp.31-41
    • /
    • 2019
  • 가상 및 증강현실과 같은 확장현실(XR: Extended Reality)은 몰입형 데이터 시각화 및 분석을 위한 거대한 잠재력을 가지고 있다. 확장현실에서 사용자는 3차원 가상 공간을 활용하여 데이터 및 여러 사용자와 사실적으로 상호 작용할 수 있으므로 보다 직관적인 데이터 분석이 가능하다. 그러나 확장현실의 장점을 제대로 활용하기 위한 시각화를 생성하는 것은 복잡한 프로그래밍이 필요하기 때문에 상당히 어려운 일이다. 본 논문에서는 손 제스처만으로 XR을 위한 시각화 전 과정을 수행하고, 모든 3차원 공간을 활용할 수 있는 가젯암(Gadget Arms) 시스템을 제안한다. 이 시스템에서 분석가는 데스크탑 기반 환경이나 복잡한 프로그래밍을 사용할 필요 없이 XR 기기를 착용한 상태에서 직관적으로 전체 시각화 공간을 디자인할 수 있으며, 가상의 손을 임의의 3차원 공간에 자유자재로 위치시킬 수 있는 인터랙션을 통해 거대한 3차원 공간을 효과적으로 활용할 수 있다. 우리는 사용자 연구를 통해 제안된 시스템이 시각화 제작과 공간 활용의 사용성을 크게 향상시시키는 것을 확인하였다.

Effect of Input Data Video Interval and Input Data Image Similarity on Learning Accuracy in 3D-CNN

  • Kim, Heeil;Chung, Yeongjee
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제13권2호
    • /
    • pp.208-217
    • /
    • 2021
  • 3D-CNN is one of the deep learning techniques for learning time series data. However, these three-dimensional learning can generate many parameters, requiring high performance or having a significant impact on learning speed. We will use these 3D-CNNs to learn hand gesture and find the parameters that showed the highest accuracy, and then analyze how the accuracy of 3D-CNN varies through input data changes without any structural changes in 3D-CNN. First, choose the interval of the input data. This adjusts the ratio of the stop interval to the gesture interval. Secondly, the corresponding interframe mean value is obtained by measuring and normalizing the similarity of images through interclass 2D cross correlation analysis. This experiment demonstrates that changes in input data affect learning accuracy without structural changes in 3D-CNN. In this paper, we proposed two methods for changing input data. Experimental results show that input data can affect the accuracy of the model.

피부색과 무게중심 프로필을 이용한 손동작 인식 알고리즘 (Hand Motion Recognition Algorithm Using Skin Color and Center of Gravity Profile)

  • 박영민
    • 문화기술의 융합
    • /
    • 제7권2호
    • /
    • pp.411-417
    • /
    • 2021
  • 인간과 컴퓨터의 상호작용을 연구하는 분야를 HCI(Human-computer interaction)라고 한다. 이 분야는 인간과 컴퓨터 간에 서로 소통하면서 정보를 인식하는 방법에 대해 연구하는 학문 분야이다. 본 연구는 사람과의 상호작용을 위한 손동작 인식에 대한 연구로써 기존 인식방법의 문제점을 살펴보고 인식률을 개선하기 위한 알고리즘을 제시한다. 사람의 손 모양이 포함된 영상을 대상으로 피부색 정보를 바탕으로 손 영역을 추출하고, 주성분 분석을 이용하여 무게중심 프로필을 계산한다. 이렇게 얻은 정보를 미리 정의된 형상들과 비교하여 손동작을 인식률을 높이는 방법을 제안하였다. 기존의 무게중심 프로필은 회전으로 인한 손의 변형에 대해 잘못된 손동작 인식을 결과를 보여주었으나, 본 연구에서는 무게중심 프로필을 이용하고 모든 윤곽선의 점들과 무게중심 사이의 거리가 가장 긴 점을 시작점으로 하여 무게중심 프로필을 다시 개선함으로써 강건한 알고리즘을 제시하였다. 손동작 인식을 위하여 센서가 부착된 장갑이나 특별한 마커를 사용하지 않으며, 별도의 청색 스크린을 설치하지도 않는다. 이 결과에 대해 가장 가까운 거리의 특징벡터를 찾아 잘못된 인식을 해결하고, 적당한 경계치를 구하여 성공과 실패를 구분한다.

CCTV 관제에서 동작 인식을 위한 색상 기반 손과 손가락 탐지 (Skin Color Based Hand and Finger Detection for Gesture Recognition in CCTV Surveillance)

  • 강성관;정경용;임기욱;이정현
    • 한국콘텐츠학회논문지
    • /
    • 제11권10호
    • /
    • pp.1-10
    • /
    • 2011
  • 본 논문은 CCTV 관제에서 동작 인식을 위한 색상 기반 손과 손가락 탐지 기술을 제안하였다. 논문의 목표는 피부색을 기반으로 한 손 영역 탐지 및 손동작 인식에 대한 강인한 방법을 제안하는 것이다. 탐지된 손 영역과 손동작 인식 기술은 에어 마우스 및 스마트 TV를 조정하는데 적용될 수 있으며 홈시어터 및 감성 센서를 기반으로 하는 장치들을 조종하기 위하여도 사용될 수 있다. 입력 영상으로부터 손 영역을 구분하기 위하여 색상 기반 윤곽선 추출 방법이 사용되어지고 윤곽이 구분된 손으로부터 y좌표값을 계산하여 손가락 끝점을 탐지한다. 손가락 끝점의 위치를 탐지한 후에, R채널만을 이용하여 추적을 하며 손동작 인식에 있어서 차영상 기법을 적용하여 잡영상 제거와 같은 강인한 면을 보여준다. 제안하는 방법으로 손가락 끝점의 추적과 손동작 인식에 관련된 많은 실험을 진행하였고, 실험 결과는 기존의 방법보다 성능 면에 있어서 96% 이상의 정확도를 보여준다.