• 제목/요약/키워드: Human Gesture Recognition

검색결과 198건 처리시간 0.034초

EMG 신호 기반의 웨어러블 기기를 통한 화재감지 자율 주행 로봇 제어 (Autonomous Mobile Robot Control using the Wearable Devices Based on EMG Signal for detecting fire)

  • 김진우;이우영;유제훈;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제26권3호
    • /
    • pp.176-181
    • /
    • 2016
  • 본 논문은 EMG(Electromyogram) 신호 기반의 웨어러블 기기를 이용하여 화재 감지 자율 주행 로봇을 제어하는 시스템을 제안하였다. 사용자의 EMG 신호를 읽어내기 위한 기기로는 Myo armband를 이용하였다. EMG 신호의 데이터를 블루투스 통신을 이용하여 컴퓨터로 전송한 후 동작을 분류하였다. 그 후 다시 블루투스를 이용하여 분류한 데이터 값을 uBrain 로봇으로 전송해 로봇이 움직일 수 있도록 구현하였다. 로봇을 조종 가능한 명령으로는 직진, 우회전, 좌회전, 정지를 구성하였다. 또한 로봇이 사용자로부터의 블루투스 신호를 받아오지 못하거나 사용자가 주행모드 변경의 명령을 내리면 로봇이 자율 주행을 하도록 하였다. 로봇이 주변을 돌아다니면서 적외선 센서로 화재를 감지하면 LED를 깜빡여 로봇 주변의 상황을 확인할 수 있도록 하였다.

휴머노이드 로봇을 위한 사람 검출, 추적 및 실루엣 추출 시스템 (Human Tracking and Body Silhouette Extraction System for Humanoid Robot)

  • 곽수영;변혜란
    • 한국통신학회논문지
    • /
    • 제34권6C호
    • /
    • pp.593-603
    • /
    • 2009
  • 본 논문은 스테레오 카메라가 이동하는 환경에서 카메라 움직임을 보정하여 새로운 다수의 사람을 검출하는 방법과 검출된 사람을 추적하고, 실루엣을 추출하는 통합된 시스템을 제안한다. 제안하는 시스템은 사람 검출, 추적, 실루엣 추출 3가지 모듈로 구성되어 있으며 3가지 모듈은 카메라가 이동하는 환경을 고려한 것이다. 사람 검출 모듈에서는 카메라 움직임(egomotion) 보정을 이용한 움직이는 영역 추출 결과와 스테레오 정보를 결합하여 움직이는 객체를 검출하였으며, 추적모듈은 변위 정보가 가중된 히스토그램 알고리즘으로 검출된 객체를 추적한다. 실루엣을 추출하는 모듈은 트라이맵(trimap)을 이용하여 사람의 실루엣 부분을 대략적으로 추정하는 단계와 그래프컷(graph cut)을 적용하여 정교하게 실루엣 추출하는 단계로 이루어져 있다. 본 논문에서 제안하는 방법을 실내 환경에서 팬-틸트(pan-tilt) 스테레오 카메라로 획득한 실험데이터를 대상으로 실험한 결과 다수의 사람의 검출 및 추적, 정교한 실루엣 추출이 가능한 것을 확인하였다. 본 논문의 실루엣 추출결과는 제스처 인식이나 걸음걸이 인식 등의 다양한 분야에도 적용가능하다.

사람의 움직임 추적을 위한 다중 카메라 기반의 지면 위 발의 대응 (Multiple Camera-Based Correspondence of Ground Foot for Human Motion Tracking)

  • 서동욱;채현욱;조강현
    • 제어로봇시스템학회논문지
    • /
    • 제14권8호
    • /
    • pp.848-855
    • /
    • 2008
  • In this paper, we describe correspondence among multiple images taken by multiple cameras. The correspondence among multiple views is an interesting problem which often appears in the application like visual surveillance or gesture recognition system. We use the principal axis and the ground plane homography to estimate foot of human. The principal axis belongs to the subtracted silhouette-based region of human using subtraction of the predetermined multiple background models with current image which includes moving person. For the calculation of the ground plane homography, we use landmarks on the ground plane in 3D space. Thus the ground plane homography means the relation of two common points in different views. In the normal human being, the foot of human has an exactly same position in the 3D space and we represent it to the intersection in this paper. The intersection occurs when the principal axis in an image crosses to the transformed ground plane from other image. However the positions of the intersection are different depend on camera views. Therefore we construct the correspondence that means the relationship between the intersection in current image and the transformed intersection from other image by homography. Those correspondences should confirm within a short distance measuring in the top viewed plane. Thus, we track a person by these corresponding points on the ground plane. Experimental result shows the accuracy of the proposed algorithm has almost 90% of detecting person for tracking based on correspondence of intersections.

3D Feature Based Tracking using SVM

  • Kim, Se-Hoon;Choi, Seung-Joon;Kim, Sung-Jin;Won, Sang-Chul
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1458-1463
    • /
    • 2004
  • Tracking is one of the most important pre-required task for many application such as human-computer interaction through gesture and face recognition, motion analysis, visual servoing, augment reality, industrial assembly and robot obstacle avoidance. Recently, 3D information of object is required in realtime for many aforementioned applications. 3D tracking is difficult problem to solve because during the image formation process of the camera, explicit 3D information about objects in the scene is lost. Recently, many vision system use stereo camera especially for 3D tracking. The 3D feature based tracking(3DFBT) which is on of the 3D tracking system using stereo vision have many advantage compare to other tracking methods. If we assumed the correspondence problem which is one of the subproblem of 3DFBT is solved, the accuracy of tracking depends on the accuracy of camera calibration. However, The existing calibration method based on accurate camera model so that modelling error and weakness to lens distortion are embedded. Therefore, this thesis proposes 3D feature based tracking method using SVM which is used to solve reconstruction problem.

  • PDF

FTIR 멀티터치 테이블에서 효율적인 사용자 환경 개발 (The Design of Efficient User Environment on the FTIR Multi Touch)

  • 박상봉;안중서
    • 한국인터넷방송통신학회논문지
    • /
    • 제12권2호
    • /
    • pp.85-94
    • /
    • 2012
  • 본 논문에서는 FTIR 멀티터치 테이블에서 손가락을 이용하여 기존에 윈도우에서 제공되는 제스처 외에 간편한 방법으로 화면 제어를 할 수 있는 제스처를 개발하였다. 또한, 손가락을 사용하지 않고 적외선 카메라 제어를 통해 모바일 기기를 올려놓아도 인식할 수 있도록 구현하였다. HID 인터페이스가 제공되지 않는 FTIR 멀티터치 테이블의 환경 때문에 기존 블루투스는 연결이 어려웠으나, 본 논문에서 제안한 모바일 기기를 이용한 데이터 전송 방법은 인터페이스의 불편함을 해소하고 데이터 전송을 효과적으로 진행 할 수 있도록 구현하였다. 기존 블루투스 연결은 복잡한 페어링 과정을 지니지만, 본 연구에서는 페어링 과정을 단순화하고, 사용자가 친화적 제스처를 개발하여 특정 기기 연결을 가능토록 구현하였다. 또한, 자체 제작한 FTIR 멀티터치 테이블에서 테스트를 통해 검증하였다.

An ANN-based gesture recognition algorithm for smart-home applications

  • Huu, Phat Nguyen;Minh, Quang Tran;The, Hoang Lai
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권5호
    • /
    • pp.1967-1983
    • /
    • 2020
  • The goal of this paper is to analyze and build an algorithm to recognize hand gestures applying to smart home applications. The proposed algorithm uses image processing techniques combing with artificial neural network (ANN) approaches to help users interact with computers by common gestures. We use five types of gestures, namely those for Stop, Forward, Backward, Turn Left, and Turn Right. Users will control devices through a camera connected to computers. The algorithm will analyze gestures and take actions to perform appropriate action according to users requests via their gestures. The results show that the average accuracy of proposal algorithm is 92.6 percent for images and more than 91 percent for video, which both satisfy performance requirements for real-world application, specifically for smart home services. The processing time is approximately 0.098 second with 10 frames/sec datasets. However, accuracy rate still depends on the number of training images (video) and their resolution.

컬러영상과 깊이영상을 이용한 KINECT 비디오 시스템에서 움직임 물체 추출을 위한 성능 향상 기법 (A performance improvement for extracting moving objects using color image and depth image in KINECT video system)

  • 유용인;문종덕;정지용;김만재;김진수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2012년도 추계학술대회
    • /
    • pp.111-113
    • /
    • 2012
  • KINECT는 Microsoft사에서 제작된 동작 인식 카메라이다. KINECT SDK가 널리 사용되고 있으며 이를 이용한 응용 제품 개발이 활발히 진행 중에 있다. 특히 KIET(Kinect Image Extraction Technique) 기법은 입력영상에서 움직임 물체를 추출하는데 사용되고 있다. 하지만, KIET는 빛의 흡수로 인해 추출 영상에서 사람 머리가 잘 추출 되지 않는 문제점을 가지고 있다. 본 논문에서는 KINECT에서 입력 된 컬러영상과 깊이영상을 이용하여 KIET의 문제점을 개선하는 방법을 제안한다. 다양한 실험을 통하여, 본 논문에서 제안한 방법은 기존의 KINECT에서 제공된 영상추출 방법보다 뛰어난 추출 결과를 보인다.

  • PDF

협업 환경에서의 인터랙션을 위한 적외선 LED 포인터 (Infrared LED Pointer for Interactions in Collaborative Environments)

  • 진윤석;이규화;박준
    • 한국HCI학회논문지
    • /
    • 제2권1호
    • /
    • pp.57-63
    • /
    • 2007
  • 본 연구는 Tiled Display 기반의 협업 환경에서 인터랙션을 위한 적외선 포인터를 구현하는 목적으로 진행되었다. 적외선 발광 다이오드에서 나오는 빛을 인지하여 포인터의 궤적을 인식하는 기술과 이를 응용하여 여러 분야에 접목시키는 것에 주안점을 두었다. 기본적인 마우스 클릭 기능과 단순 포인팅 기능을 제공하는 기존의 포인터와는 달리 적외선 발광 다이오드가 탑재된 포인터를 조립, 이용하여 기존의 기능뿐만 아니라 컴퓨터와 사용자 간의 새로운 커뮤니케이션 수단을 제공하고 있다. 장점으로는 책상, 테이블과 같은 제한된 공간을 벗어나서 적외선 투과 필터가 장착된 카메라 하나만 설치할 수 있는 곳이면 구현이 가능하며 적외선을 이용하므로 가시광선의 영향을 적게 받아 효율적으로 영상 처리를 할 수 있다는 데에 있다. 그리고 적외선을 이용한 사용자의 모션을 추적, 인식하여 복합적이 여러 가지 기능을 실행할 수 있으며, 보다 더 사용자와 인터랙티브한 작업이 가능하다. 구현된 하드웨어와 소프트웨어 시스템은 프레젠테이션 및 게임 컨트롤 등에 사용되었다.

  • PDF

손동작 인식에 의한 컴퓨터 비전 인터페이스 설계 (Design of Computer Vision Interface by Recognizing Hand Motion)

  • 윤진현;이종호
    • 전자공학회논문지CI
    • /
    • 제47권3호
    • /
    • pp.1-10
    • /
    • 2010
  • 손동작을 통한 입력방법은 컴퓨터와 디지털 기기의 발전에 따라 요구되는 새로운 HCI(Human-Computer Interaction) 방법으로써 그 가능성을 가지고 있으며 이에 대한 다양한 시도가 있었다. 본 논문에서는 컴퓨터 비전을 기반으로 단일 카메라를 사용하는 손 영역 검출 및 추적방법을 제시하고 이에 의한 컴퓨터 인터페이스를 제안한다. 기존에 많이 쓰이는 피부색 매치 방법에 추가하여 형태 정보를 더함으로써 손 영역 검출능력을 향상 시켰다. 이러한 형태 정보를 추출하는 방법으로써 주요 방향 에지 기술자라는 방법을 제안하였고 이는 강력하여 학습 시간 없이 한 가지 손 모델만을 사용하여 손 영역 검출을 할 수 있다. 또한 손 영역 검출과 추적하는 방법을 나누어 추적할 때는 회전에 대한 자유도를 높이도록 설계 하였다. 위 방법을 이용하여 3차원 공간에 그려지는 필기체 숫자 인식에 적용해 보았으며 분류 방법으로 DNAC 알고리즘을 사용하였다. 결과적으로 손 영역 검출은 82%의 검출률을 보였고 필기체 숫자 인식은 90%의 인식률을 보였다.

사용자의 신체적 특징과 뇌파 집중 지수를 이용한 가상 모니터 개념의 NUI/NUX (NUI/NUX of the Virtual Monitor Concept using the Concentration Indicator and the User's Physical Features)

  • 전창현;안소영;신동일;신동규
    • 인터넷정보학회논문지
    • /
    • 제16권6호
    • /
    • pp.11-21
    • /
    • 2015
  • Human-Computer Interaction(HCI)에 대한 관심도가 높이지면서, HCI에 대한 연구도 활발히 진행되고 있다. 이와 더불어 사용자의 몸짓이나 음성을 이용하는 Natural User Interface/Natural User eXperience(NUI/NUX)에 대한 연구도 활발히 진행되고 있다. NUI/NUX의 경우, 제스처 인식이나 음성 인식 등의 인식 알고리즘이 필요하다. 하지만 이러한 인식 알고리즘은 전처리, 정규화, 특징 추출과 같은 단계를 거쳐야하기 때문에 구현이 복잡하고, 트레이닝에 많은 시간을 투자해야 한다는 단점이 있다. 최근에는 NUI/NUX 개발 도구로 Microsoft 사의 Kinect가 개발되어 개발자와 일반인들에게 많은 관심을 받고 있고, 이를 이용한 다양한 연구가 진행 중에 있다. 본 저자들의 이전 연구에서도 사용자의 신체적 특징을 이용하여 뛰어난 직관성을 가진 핸드 마우스를 구현하였다. 하지만 마우스의 움직임이 부자연스럽고 정확도가 낮아 사용자가 사용하기 다소 어려웠다는 단점이 있다. 본 연구에서는 Kinect를 통해 사용자의 신체적 특징을 실시간으로 추출하고, 이를 이용해 가상 모니터라는 새로운 개념을 추가한 핸드 마우스 인터페이스를 설계하고 구현하였다. 가상 모니터는 사용자의 손으로 마우스를 제어할 수 있는 가상의 공간을 의미한다. 이를 통해 가상 모니터 상의 손의 좌표를 실제 모니터 상의 좌표로 정확하게 매핑(mapping)이 가능하다. 가상 모니터를 사용함으로써 이전 연구의 장점인 직관성을 유지하고, 단점인 정확도를 높일 수 있다. 추가적으로 뇌파 집중 지표를 이용해 사용자의 불필요한 행동을 인식하여 핸드 마우스 인터페이스의 정확도를 높였다. 제안하는 핸드 마우스의 직관성과 정확성을 평가하기 위하여 10대부터 50대까지 50명에게 실험을 하였다. 직관성 실험 결과로 84%가 1분 이내에 사용방법을 터득하였다. 또한 동일한 피실험자에게 일반적인 마우스 기능(드래그, 클릭, 더블클릭)에 대해 정확성 실험을 한 결과로 드래그 80.9%, 클릭 80%, 더블 클릭 76.7%의 정확성을 보였다. 실험 결과를 통해 제안하는 핸드 마우스 인터페이스의 직관성과 정확성을 확인하였으며, 미래에 손으로 시스템이나 소프트웨어를 제어하는 인터페이스의 좋은 예시가 될 것으로 기대된다.