• 제목/요약/키워드: Avatar Robot

검색결과 14건 처리시간 0.032초

OPRoS 기반 로봇시스템의 Robot-in-the-Loop Simulation 구조 (Design of a Robot-in-the-Loop Simulation Based on OPRoS)

  • 김성훈;박홍성
    • 제어로봇시스템학회논문지
    • /
    • 제19권3호
    • /
    • pp.248-255
    • /
    • 2013
  • This paper proposes the architecture of the RILS (Robot-in-the-Loop-Simulation) consisting of the robot, the virtual robot, and the avatar robot which is the type of virtual robots operating according to the robot status and behavior. And the synchronization algorithm for mobilization part of the avatar robot is suggested, which reduces the difference between behaviors of the robot and those of the avatar robot. This difference occurs due to the environmental and mechanical mismatches between the robot and avatar robot. In order to reduce this difference in robots behaviors, the synchronization algorithm controls the avatar robot based on the data observed from the robot's behavior. The proposed architecture and the synchronization algorithm are validated from some simulation results.

아바타 로봇을 위한 3지 로봇 손과 손 자세 맵핑 알고리즘 (3-Finger Robotic Hand and Hand Posture Mapping Algorithm for Avatar Robot)

  • 김승연;성은호;박재흥
    • 로봇학회논문지
    • /
    • 제17권3호
    • /
    • pp.322-333
    • /
    • 2022
  • The Avatar robot, which is one of the teleoperation robots, aims to enable users to feel the robot as a part of the body to intuitively and naturally perform various tasks. Considering the purpose of the avatar robot, an end-effector identical to a human hand is advantageous, but a robotic hand with human hand level performance has not yet been developed. In this paper we propose a new 3-finger robotic hand with human-avatar hand posture mapping algorithm which were integrated with TOCABI-AVATAR, one of the teleoperation system. Due to the flexible rolling contact joints and tendon driven mechanism applied to the finger, the finger could implement adaptive grasping and absorb the impact force caused by unexpected contacts. In addition, human-avatar hand mapping algorithm using five calibration hand postures propose to compensate physical differences between operators. Using the TOCABI-AVATAR system with the robotic hands and mapping algorithm, the operator can perform 13 out of 16 hand postures of grasping taxonomy and 4 gestures. In addition, using the system, we participated in the ANA AVATAR XPRIZE Semi-final and successfully performed three scenarios which including various social interactions as well as object manipulation.

알고리즘 교육을 위한 아바타 로봇 : EasyLab (EasyLab : An Avatar Robot for Algorithm Education)

  • 박영목;김호용;서영건
    • 디지털콘텐츠학회 논문지
    • /
    • 제5권1호
    • /
    • pp.35-40
    • /
    • 2004
  • 지금 현재 우리의 7차 교육과정에서 교육의 보조 도구로써 교실에서 사용될 수 있는 것은 별로 많지 않다. 그래서 EasyLab은 이 시점에서 좋은 도구가 될 수 있다. EasyLab은 컴퓨터에 익숙하지 않은 학생을 위한 CUI 프로그래밍 도구이며, 현재의 교육 과정에서 필요로 하는 창의성을 키우기 위한 한 도구로써 교실에서 사용될 수 있다. 사용하려만 먼저 학습자는 프로그래밍 아이디어를 생각하고 아이콘 기반의 EasyLab을 통하여 프로그래밍한다. 프로그래밍 후에 학습자는 로봇의 결과를 생각하고 토론할 수 있다. 만약 그 결과가 정확하지 않다면, 로봇은 피드백을 보일 것이다. 그러므로, EasyLab은 초보자를 위한 도구이며, 7차 교육과정에 적합한 도구이다. EasyLab의 특징 중 하나는 아이콘 기반의 흐름도 모델로 구성되어 있다는 것과 학습자는 입력과 출력 센스를 갖는 로봇을 이용해 실습할 수 있다는 것이다.

  • PDF

실감만남 공간에서의 비전 센서 기반의 사람-로봇간 운동 정보 전달에 관한 연구 (Vision-based Human-Robot Motion Transfer in Tangible Meeting Space)

  • 최유경;나성권;김수환;김창환;박성기
    • 로봇학회논문지
    • /
    • 제2권2호
    • /
    • pp.143-151
    • /
    • 2007
  • This paper deals with a tangible interface system that introduces robot as remote avatar. It is focused on a new method which makes a robot imitate human arm motions captured from a remote space. Our method is functionally divided into two parts: capturing human motion and adapting it to robot. In the capturing part, we especially propose a modified potential function of metaballs for the real-time performance and high accuracy. In the adapting part, we suggest a geometric scaling method for solving the structural difference between a human and a robot. With our method, we have implemented a tangible interface and showed its speed and accuracy test.

  • PDF

2D 얼굴 영상을 이용한 로봇의 감정인식 및 표현시스템 (Emotion Recognition and Expression System of Robot Based on 2D Facial Image)

  • 이동훈;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제13권4호
    • /
    • pp.371-376
    • /
    • 2007
  • This paper presents an emotion recognition and its expression system of an intelligent robot like a home robot or a service robot. Emotion recognition method in the robot is used by a facial image. We use a motion and a position of many facial features. apply a tracking algorithm to recognize a moving user in the mobile robot and eliminate a skin color of a hand and a background without a facial region by using the facial region detecting algorithm in objecting user image. After normalizer operations are the image enlarge or reduction by distance of the detecting facial region and the image revolution transformation by an angel of a face, the mobile robot can object the facial image of a fixing size. And materialize a multi feature selection algorithm to enable robot to recognize an emotion of user. In this paper, used a multi layer perceptron of Artificial Neural Network(ANN) as a pattern recognition art, and a Back Propagation(BP) algorithm as a learning algorithm. Emotion of user that robot recognized is expressed as a graphic LCD. At this time, change two coordinates as the number of times of emotion expressed in ANN, and change a parameter of facial elements(eyes, eyebrows, mouth) as the change of two coordinates. By materializing the system, expressed the complex emotion of human as the avatar of LCD.

동작포착 및 매핑 시스템: Kinect 기반 인간-로봇상호작용 플랫폼 (A Motion Capture and Mapping System: Kinect Based Human-Robot Interaction Platform)

  • 윤중선
    • 한국산학기술학회논문지
    • /
    • 제16권12호
    • /
    • pp.8563-8567
    • /
    • 2015
  • 본 동작포착 및 매핑 기반의 인간-로봇상호작용 플랫폼을 제안한다. 사람의 동작을 포착하고 포착된 동작에서 운동을 계획하고 기기를 작동하게 하는 포착, 처리, 실행을 수행하는 플랫폼의 설계, 운용 및 구현 과정을 소개한다. 제안된 플랫폼의 구현 사례로 신뢰성과 성능이 뛰어난 Kinect 기반 포착기, 처리기에 구현된 상호작용 사이버 아바타 로봇과 처리기를 통한 물리 로봇 제어가 기술되었다. 제안된 플랫폼과 구현 사례는 동작포착 및 매핑 기반의 새로운 기기 제어 작동 방식의 실현 방법으로 기대된다.

자기노출 심리를 이용한 유비쿼터스 로봇 콘텐츠의 효과 (The Effect on the Contents of Self-Disclosure Activities using Ubiquitous Home Robots)

  • 김수정;한정혜
    • 정보교육학회논문지
    • /
    • 제12권1호
    • /
    • pp.57-63
    • /
    • 2008
  • 본 연구는 인간의 자아표현 욕구와 창조적 욕구로 인해 자신을 대체할 산물들을 끊임없이 만들어 내는 과정에서 중요하게 작용되는 자기노출이라는 심리를 이용하여 아바타와 학습자의 얼굴을 합성하는 증강가상을 통하여 가상세계에서의 현실감을 부여함으로써 학습자의 몰입을 유도하여 그 교육적 효과를 증대하고자 하였다. 이를 실증하기 위하여 컴퓨터기반으로 콘텐츠를 개발한 후, 로봇 콘텐츠로써의 활용을 위해 컨버팅하고 자동 로딩을 통한 학습자의 사진을 아바타와 합성시켰다. 실험 결과 자기노출 기반 콘텐츠의 효과는 모든 집단의 경우에서 학습에 대한 집중도에는 긍정적인 영향을 주었으며, 학업성취도에는 유의미하지는 않지만 긍정적 효과를 가지는 것으로 나타났다. 이는 교육용 로봇을 활용한 자기노출 개념 적용에 대하여 긍정적인 결과라고 보여지는데, 보다 유의미한 결과를 얻기 위해서는 단순히 사진을 찍어 로딩하는 증강가상보다는 얼굴검출을 통한 실시간 증강가상과 같은 증강가상 효과의 증대가 필요하다고 하겠다.

  • PDF

하이퍼 수화문장을 사용한 수화 생성 시스템 (Sign Language Avatar System Based on Hyper Sign Sentence)

  • 오영준;박광현;장효영;김대진;정진우;변증남
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2006년도 춘계학술발표대회
    • /
    • pp.621-624
    • /
    • 2006
  • 본 논문은 기존의 수화 발생 시스템이 갖는 처리 성능의 한계와 신체요소의 움직임에 대한 문제점을 지적하고, 이를 개선하기 위해 하이퍼 수화문장을 제안한다. 하이퍼 수화문장은 기존 수화문장의 구조를 확장하여 수화단어와 신체효소의 동작기호로 구성된 수화문장이다. 제안한 하이퍼 수화문장 생성 방법에 따라 하이퍼 수화어절을 연결하여 수화동작을 합성하고 수화문장에 대한 아바타의 움직임을 실제 수화자와 유사하게 생성하는 시스템을 보인다.

  • PDF

Brain-Computer Interface 기반 인간-로봇상호작용 플랫폼 (A Brain-Computer Interface Based Human-Robot Interaction Platform)

  • 윤중선
    • 한국산학기술학회논문지
    • /
    • 제16권11호
    • /
    • pp.7508-7512
    • /
    • 2015
  • 뇌파로 의도를 접속하여 기계를 작동하는 뇌-기기 접속(Brain-Computer Interface, BCI) 기반의 인간-로봇상호작용(Human-Robot Interaction, HRI) 플랫폼을 제안한다. 사람의 뇌파로 의도를 포착하고 포착된 뇌파 신호에서 의도를 추출하거나 연관시키고 추출된 의도로 기기를 작동하게 하는 포착, 처리, 실행을 수행하는 플랫폼의 설계, 운용 및 구현 과정을 소개한다. 제안된 플랫폼의 구현 사례로 처리기에 구현된 상호작용 게임과 처리기를 통한 외부 장치 제어가 기술되었다. BCI 기반 플랫폼의 의도와 감지 사이의 신뢰성을 확보하기 위한 다양한 시도들을 소개한다. 제안된 플랫폼과 구현 사례는 BCI 기반의 새로운 기기 제어 작동 방식의 실현으로 확장될 것으로 기대된다.

한국 수화 아바타를 위한 수화 사전의 개선 방법 (Improvement of Sign Word Dictionary for Korean Sign Language Avatar)

  • 오영준;박광현;변증남
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2007년도 한국컴퓨터종합학술대회논문집 Vol.34 No.1 (C)
    • /
    • pp.167-170
    • /
    • 2007
  • 본 논문에서는 수화 아바타가 실제 청각장애인처럼 자연스러운 수화 동작을 표현하면서 정확한 의사를 전달할 수 있도록 동음이의어에 대한 처리를 다룬다. 기존의 수화 사전에 품사 정보를 추가하고 한글 형태소 분석기를 활용하여 동음이의어를 구분할 수 있도록 수화 사전을 개선하는 방법을 제안한다.

  • PDF