• Title/Summary/Keyword: 로봇 손

Search Result 240, Processing Time 0.045 seconds

Biped Walking Robot Control using Hand Gesture (손 제스처를 사용한 보행로봇 제어)

  • Seo, In-Gyo;Jang, Sang-Su;Kim, Hang-Joon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.577-579
    • /
    • 2005
  • 본 논문에서는 손 제스처를 사용한 2족 보행로봇 제어방법을 제안한다. 제안된 방법은 연속된 입력 영상으로부터 사용자의 손을 검출하기 위해, 피부색 정보와 Hue의 불변 모멘트 정보를 사용한다. 검출된 손 영역은 Active Contour Model를 사용하여 추적한다. 손 제스처를 인식하기 위해 Hue의 불변 모멘 정보로부터, 검출된 손의 모양을판단하고 그 결과를 미리 정해둔 심벌 중에 하나로 할당한다. 이렇게 연속적으로 할당된 심벌들은 HMM(Hidden Markov Model) 인식기를 통해 인식 되고 로봇 명령어를 출력하며, 출력된 명령어에 따라 로봇이 제어된다. 제안된 방법의 효율성을 증명하기 위해, 자체 제작한 2족 보행로봇(KAI)으로 6개의 손 제스처를 이용하여 사용자가 원격지에 있는 로봇의 보행을 제어하는 원격 로봇 보행 제어 시스템에 응용해 보았다. 실험 결과, $94\%$의 인식률을 보였다.

  • PDF

Robot Control using Vision based Hand Gesture Recognition (비전기반 손 제스처 인식을 통한 로봇 컨트롤)

  • Kim, Dae-Soo;Kang, Hang-Bong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.11a
    • /
    • pp.197-200
    • /
    • 2007
  • 본 논문에서는 로봇 컨트롤 시스템을 위해 입력 받은 영상부터 몇 가지의 손 제스처를 인식하는 비전기반 손 제스처 인식방법을 제안한다. 로봇으로부터 입력 받은 이미지는 로봇의 위치, 주변환경, 조명 등 여러 요인에 따라 다양하게 존재한다. 본 논문은 다양한 환경에서 입력되는 영상으로부터 시스템이 로봇 컨트롤을 위해 미리 지정한 몇 가지 제스처를 인식하도록 한다. 먼저 이미지 조명 변화에 강한 손 제스처 인식을 위하여 레티넥스 이미지 정규화를 적용한 후, YCrCb 공간 상에서 입력된 영상에서 손 영역을 검출 후 위치를 추정한다. 인식된 손 영역에서 특징벡터를 추출함으로서 입력 영상내의 존재할 수 있는 손의 크기나 손의 회전각도 등에 상관없이 필요로 하는 제스처를 인식하도록 한다. 제안된 제스처 인식 결과는 로봇컨트롤을 위한 기존의 제스처인식과 비교하여 성능을 측정하였다.

  • PDF

손 재활 로봇 연구동향

  • Gu, Gwang-Min;Jang, Pyeong-Hun
    • ICROS
    • /
    • v.16 no.3
    • /
    • pp.16-20
    • /
    • 2010
  • 손 재활 로봇 연구의 목표는 손 기능 장애를 갖는 환자들을 대상으로 치료사를 대신하여 치료는 수행하는 것이다. 일반적으로 손의 운동기능 장애는 골절, 인대 손상 또는 노화에 의한 근력 소실에 의해 발생하거나 뇌졸중이나 파킨슨병, 척수 손상 등에 의한 신경계 문제에 의해 발생할 수 있다.

Natural Hand Detection and Tracking (자연스러운 손 추출 및 추적)

  • Kim, Hye-Jin;Kwak, Keun-Chang;Kim, Do-Hyung;Bae, Kyung-Sook;Yoon, Ho-Sub;Chi, Su-Young
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.148-153
    • /
    • 2006
  • 인간-컴퓨터 상호작용(HCI) 기술은 과거 컴퓨터란 어렵고 소수의 숙련자만이 다루는 것이라는 인식을 바꾸어 놓았다. HCI 는 컴퓨터 사용자인 인간에게 거부감 없이 수용되기 위해 인간과 컴퓨터가 조화를 이루는데 많은 성과를 거두어왔다. 컴퓨터 비전에 기반을 두고 인간과 컴퓨터의 상호작용을 위하여 사용자 의도 및 행위 인식 연구들이 많이 행해져 왔다. 특히 손을 이용한 제스처는 인간과 인간, 인간과 컴퓨터 그리고 최근에 각광받고 있는 인간과 로봇의 상호작용에 중요한 역할을 해오고 있다. 본 논문에서 제안하는 손 추출 및 추적 알고리즘은 비전에 기반한 호출자 인식과 손 추적 알고리즘을 병행한 자연스러운 손 추출 및 추적 알고리즘이다. 인간과 인간 사이의 상호간의 주의집중 방식인 호출 제스처를 인식하여 기반하여 사용자가 인간과 의사소통 하는 것과 마찬가지로 컴퓨터/로봇의 주의집중을 끌도록 하였다. 또한 호출 제스처에 의해서 추출된 손동작을 추적하는 알고리즘을 개발하였다. 호출 제스처는 카메라 앞에 존재할 때 컴퓨터/로봇의 사용자가 자신에게 주의를 끌 수 있는 자연스러운 행동이다. 호출 제스처 인식을 통해 복수의 사람이 존재하는 상황 하에서 또한 원거리에서도 사용자는 자신의 의사를 전달하고자 함을 컴퓨터/로봇에게 알릴 수 있다. 호출 제스처를 이용한 손 추출 방식은 자연스러운 손 추출을 할 수 있도록 한다. 현재까지 알려진 손 추출 방식은 피부색을 이용하고 일정 범위 안에 손이 존재한다는 가정하에 이루어져왔다. 이는 사용자가 제스처를 하기 위해서는 특정 자세로 고정되어 있어야 함을 의미한다. 그러나 호출 제스처를 통해 손을 추출하게 될 경우 서거나 앉거나 심지어 누워있는 상태 등 자연스러운 자세에서 손을 추출할 수 있게 되어 사용자의 불편함을 해소 할 수 있다. 손 추적 알고리즘은 자연스러운 상황에서 획득된 손의 위치 정보를 추적하도록 고안되었다. 제안한 알고리즘은 색깔정보와 모션 정보를 융합하여 손의 위치를 검출한다. 손의 피부색 정보는 신경망으로 다양한 피부색 그룹과 피부색이 아닌 그룹을 학습시켜 얻었다. 손의 모션 정보는 연속 영상에서 프레임간에 일정 수준 이상의 차이를 보이는 영역을 추출하였다. 피부색정보와 모션정보로 융합된 영상에서 블랍 분석을 하고 이를 민쉬프트로 추적하여 손을 추적하였다. 제안된 손 추출 및 추적 방법은 컴퓨터/로봇의 사용자가 인간과 마주하듯 컴퓨터/로봇의 서비스를 받을 수 있도록 하는데 주목적을 두고 있다.

  • PDF

Vision-based Mobile Robot Control System (비전 기반의 모바일 로봇 제어 시스템)

  • Chang Jae Sik;Kim Eun Yi;Jang Sang Su;Kim Hang Joon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.781-783
    • /
    • 2005
  • 본 논문은 손 모양 인식을 이용한 비전 기반의 보행 로봇 제어 시스템을 제안한다. 손의 모양을 인식하기 위해서 움직이는 카메라 영상으로부터 정확한 손의 경계선물 추출하고 추적하는 일이 선행되어야 한다. 따라서 본 논문에서는 민 시프트 방법을 사용한 활성 윤곽선 모델 기반의 추적 방법을 제안한다. 제안된 시스템은 손 추출기, 손 추적기, 손 모양 인식기 그리고 로봇 제어기, 4개의 모들로 구성된다. 손 추출기는 영상에서 미리 정의된 손의 모양을 가지는 피부색 영역을 추출한다. 추출된 손의 추적은 활성 윤관선 모델과 민 시프트 방법을 사용하여 실행된다. 그 후 Hue moments를 사용하여 추적된 손의 모양을 인식한다. 제안된 방법을 평가하기 위해서 본 논문에서는 2족 보행 로봇 KHR-1에 제안된 방법을 적용 한다.

  • PDF

Design of the Hanyang robotic hand I (한양 로봇손 I의 설계)

  • 정낙영;백주현;이수진;이준호;서일홍;최동훈
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 1990.10a
    • /
    • pp.508-513
    • /
    • 1990
  • 오늘날, 생산성 증대와 품질 향상을 목적으로 산업용 로봇의 사용이 증대되면서 다양한 생산현장에서의 유연성과 적응성이 크게 요구되고 있는 실정이다. 그러나, 현재의 산업용 로봇은 end-effector의 dexterity의 부족으로 그 사용에 제한을 받고 있다. 이를 해결하기 위해 다지(multi-fingered), 다관절(articulated) 로봇손(robotic hands)의 도입이 필요하게 되었는데 이는 전체 로봇시스템의 능력과 유연성을 증가시킬 수 있을 것이다. 현재의 Flexible Manufacturing Workcell은 보통 한 대의 로봇팔과 많은 특수 용도의 고가의 tool로 구성되어 있으나 일반적인 모든 작업에 제한없이 모두 적용하기는 매우 어렵다. 그러므로, 다지, 다관절 로봇손의 개발 및 그 지능 제어의 실현은 작업에 따르는 불필요한 tool의 교환을 방지하여 비용과 시간을 절약함으로써 생산성을 극대화시킬 수 있다. 따라서, 본 연구에서는 Flexible Automation을 위한 다지, 다관절 로봇손의 설계 및 제작에 관한 방법을 제시하고자 한다.

  • PDF

A Hand Gesture-based Remote Control of Robot (손 제스처 기반의 로봇 원격제어)

  • Choi, Kyung-Mook;Na, Yong-Gil;Chae, Seung-Byeong;Jung, Kyeong-Hoon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2010.11a
    • /
    • pp.196-199
    • /
    • 2010
  • 본 논문에서는 영상처리 기능을 통해 손 제스처를 인식하는 알고리즘을 개발하고 이를 활용하여 로봇의 움직임을 원격으로 제어하는 시스템을 구현하였다. 전체 시스템은 손 영상을 획득하는 카메라, 영상처리를 수행하는 컴퓨터, 그리고 LEGO Mindstorm 로봇으로 구성되며, 컴퓨터와 로봇 사이의 통신은 Mindstorm에 내장된 블루투스 기능을 사용하였다. 카메라에서 획득한 영상에서 사람의 손에 해당하는 영역만을 추출하기 위해 먼저 컬러 필터링을 수행하였으며 영상의 신뢰성을 향상시키기 위해 잡음을 제거하는 보정 작업을 거친다. 그리고 무게중심 연산을 통해 손의 중심점을 추정하고 이로부터 일정 거리에 있는 손가락 영역을 추출한다. 마지막으로 펼쳐진 손가락 개수를 구하고 그 개수에 따라 미리 설정된 명령을 로봇에 전송한다. 실험을 통해 조명 상태가 양호하고 배경이 복잡하지 않은 대부분의 환경에서 로봇 원격제어가 성공적으로 이루어짐을 확인하였다.

  • PDF

Grasp method for human and robotic hand in virtual reality (가상 현실 환경에서 사람과 로봇 손 파지 방법)

  • Suh, Kyung-Duk;Park, Jung-Min
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.680-683
    • /
    • 2022
  • 본 논문은 가상 환경에서 사용자 및 로봇이 손을 이용하여 직관적으로 가상 물체와 상호작용하도록 하는 파지 방법을 제안한다. 제안한 방법은 사람 손과 로봇 손의 구조적인 차이를 고려하여 사람과 로봇에게 범용적으로 적용할 수 있도록 물리적 상호작용이 가능한 입자를 가상 손에 붙이고, 이를 이용하여 가상 물체를 파지하는 방법이다. 제안한 파지 방법을 사람과 로봇에 적용하여 실험한 결과, 임의의 다양한 물체를 직관적으로 파지할 수 있었고 높은 성공률을 보였다.

Hand gesture based a pet robot control (손 제스처 기반의 애완용 로봇 제어)

  • Park, Se-Hyun;Kim, Tae-Ui;Kwon, Kyung-Su
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.13 no.4
    • /
    • pp.145-154
    • /
    • 2008
  • In this paper, we propose the pet robot control system using hand gesture recognition in image sequences acquired from a camera affixed to the pet robot. The proposed system consists of 4 steps; hand detection, feature extraction, gesture recognition and robot control. The hand region is first detected from the input images using the skin color model in HSI color space and connected component analysis. Next, the hand shape and motion features from the image sequences are extracted. Then we consider the hand shape for classification of meaning gestures. Thereafter the hand gesture is recognized by using HMMs (hidden markov models) which have the input as the quantized symbol sequence by the hand motion. Finally the pet robot is controlled by a order corresponding to the recognized hand gesture. We defined four commands of sit down, stand up, lie flat and shake hands for control of pet robot. And we show that user is able to control of pet robot through proposed system in the experiment.

  • PDF

A Study on the Exoskeleton Robot Operations to Assist the Upper Limbs Power (상지 근력 증강을 위한 외골격 로봇의 동작기법 연구)

  • Choi, Jae-Heung;Oh, Seong-Nam;Chu, Kyong-Ho;Son, Young-Ik;Kim, Kab-Il
    • Proceedings of the KIEE Conference
    • /
    • 2011.07a
    • /
    • pp.1918-1919
    • /
    • 2011
  • 상체 지원 외골격 로봇은 크게 인간의 근력을 보조하는 형태와 인간의 근력을 증강하는 형태가 있다. 여기서는 인간의 근력을 증강하는 외골격 로봇을 중심으로 기술하고자 한다. 이러한 외골격 로봇은 팔의 EMG (Electromyograph;근전도) 신호를 측정하는 방법보다는 손의 힘을 직접 감지하는 방법을 통한 팔꿈치와 어깨의 엑추에이터를 구동하는 방식을 취하는 경향이 있다. 본 논문에서도 후자의 방식을 이용하여 손에 작용하는 힘을 분석하여 외골격 로봇을 움직이는 방식을 취하였다. 손의 힘 중에서도 인간을 중심으로 볼 때 위방향과 전진방향의 힘을 분석하기 위하여 2개의 F/T(Force/Torque) 센서를 사용하였으며 팔을 벌리는 동작은 엑추에이터 없이 자유롭게 동작이 가능하도록 설계하였다. 이러한 위방향 및 전진방향 힘의 크기를 팔꿈치와 어깨의 엑추에이터의 동작으로 바꾸어 인간의 동작을 도울 수 있고 힘을 증폭할 수 있는 외골격 로봇을 설계 제작하였다. F/T 센서는 손의 힘을 전기적 신호로 바꾸어주는 로드셀로 이루어지며 손의 힘을 최대한 잘 반영하기 위한 구조를 고안하였다. F/T 센서의 전기신호는 증폭기를 거쳐서 잡음을 제거한 후에 A/D 변환하여 processor에서 처리되어진다.

  • PDF