• 제목/요약/키워드: Robot Interaction

검색결과 481건 처리시간 0.032초

Human Centered Robot for Mutual Interaction in Intelligent Space

  • Jin Tae-Seok;Hashimoto Hideki
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제5권3호
    • /
    • pp.246-252
    • /
    • 2005
  • Intelligent Space is a space where many sensors and intelligent devices are distributed. Mobile robots exist in this space as physical agents, which provide human with services. To realize this, human and mobile robots have to approach each other as much as possible. Moreover, it is necessary for them to perform interactions naturally. It is desirable for a mobile robot to carry out human affinitive movement. In this research, a mobile robot is controlled by the Intelligent Space through its resources. The mobile robot is controlled to follow walking human as stably and precisely as possible. In order to follow a human, control law is derived from the assumption that a human and a mobile robot are connected with a virtual spring model. Input velocity to a mobile robot is generated on the basis of the elastic force from the virtual spring in this model. And its performance is verified by the computer simulation and the experiment.

Fuzzy Neural Network Based Sensor Fusion and It's Application to Mobile Robot in Intelligent Robotic Space

  • Jin, Tae-Seok;Lee, Min-Jung;Hashimoto, Hideki
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제6권4호
    • /
    • pp.293-298
    • /
    • 2006
  • In this paper, a sensor fusion based robot navigation method for the autonomous control of a miniature human interaction robot is presented. The method of navigation blends the optimality of the Fuzzy Neural Network(FNN) based control algorithm with the capabilities in expressing knowledge and learning of the networked Intelligent Robotic Space(IRS). States of robot and IR space, for examples, the distance between the mobile robot and obstacles and the velocity of mobile robot, are used as the inputs of fuzzy logic controller. The navigation strategy is based on the combination of fuzzy rules tuned for both goal-approach and obstacle-avoidance. To identify the environments, a sensor fusion technique is introduced, where the sensory data of ultrasonic sensors and a vision sensor are fused into the identification process. Preliminary experiment and results are shown to demonstrate the merit of the introduced navigation control algorithm.

그림모델과 파티클필터를 이용한 인간 정면 상반신 포즈 인식 (Pictorial Model of Upper Body based Pose Recognition and Particle Filter Tracking)

  • 오치민;;김민욱;이칠우
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.186-192
    • /
    • 2009
  • 본 논문은 비전을 이용한 인간 정면 상반신 포즈를 인식 방법에 대해서 기술한다. 일반적으로 HCI(Human Computer Interaction)와 HRI(Human Robot Interaction)에서는 인간이 정면을 바라볼 때 얼굴, 손짓으로 의사소통 하는 경우가 많기 때문에 본 논문에서는 인식의 범위를 인간의 정면 그리고 상반신에 대해서만 한정한다. 인간 포즈인식의 주요 두 가지 어려움은 첫째 인간은 다양한 관절로 이루어진 객체이기 때문에 포즈의 자유도가 높은 문제점 때문에 모델링이 어렵다는 것이다. 둘째는 모델링된 정보와 영상과의 매칭이 어려운 것이다. 이를 해결하기 위해 본 논문에서는 모델링이 쉬운 그림모델(Pictorial Model)을 이용해 인체를 다수 사각형 파트로 모델링 하였고 이를 이용해 주요한 상반신 포즈를 DB화 해 인식한다. DB 포즈로 표현되지 못하는 세부포즈는 인식된 주요 포즈 파라미터로 부터 파티클필터를 이용해 예측한 다수 파티클로부터 가장 높은 사후분포를 갖는 파티클을 찾아 주요 포즈를 업데이트하여 결정한다. 따라서 주요한 포즈 인식과 이를 기반으로 한 세부 포즈를 추적하는 두 단계를 통해 인체 정면 상반신 포즈를 정확하게 인식 할 수 있다.

  • PDF

인터액티브 로봇 지팡이 (Hardware Solutions for Interactive Robotic Cane)

  • 심인보;윤중선
    • 한국정밀공학회:학술대회논문집
    • /
    • 한국정밀공학회 2002년도 춘계학술대회 논문집
    • /
    • pp.338-341
    • /
    • 2002
  • A human-friendly interactive system, based on the harmonious symbiotic coexistence of humans and robots, is explored. Based on this interactive technology paradigm, a robotic cane is designed to help blind or visually impaired travelers to navigate safely and quickly among obstacles and other hazards faced by blind pedestrians. We outline a set of the hardware solutions and working methodologies that can be used for successfully implementing and extending the interactive technology to complex environments, robots, and humans. The issues discussed include the interaction of human and robot, design issue of robotic cane, hardware requirements for efficient human-robot interaction.

  • PDF

로봇과 인간의 상호작용을 위한 얼굴 표정 인식 및 얼굴 표정 생성 기법 (Recognition and Generation of Facial Expression for Human-Robot Interaction)

  • 정성욱;김도윤;정명진;김도형
    • 제어로봇시스템학회논문지
    • /
    • 제12권3호
    • /
    • pp.255-263
    • /
    • 2006
  • In the last decade, face analysis, e.g. face detection, face recognition, facial expression recognition, is a very lively and expanding research field. As computer animated agents and robots bring a social dimension to human computer interaction, interest in this research field is increasing rapidly. In this paper, we introduce an artificial emotion mimic system which can recognize human facial expressions and also generate the recognized facial expression. In order to recognize human facial expression in real-time, we propose a facial expression classification method that is performed by weak classifiers obtained by using new rectangular feature types. In addition, we make the artificial facial expression using the developed robotic system based on biological observation. Finally, experimental results of facial expression recognition and generation are shown for the validity of our robotic system.

상호작용 영상 주석 기반 사용자 참여도 및 의도 인식 (Recognizing User Engagement and Intentions based on the Annotations of an Interaction Video)

  • 장민수;박천수;이대하;김재홍;조영조
    • 제어로봇시스템학회논문지
    • /
    • 제20권6호
    • /
    • pp.612-618
    • /
    • 2014
  • A pattern classifier-based approach for recognizing internal states of human participants in interactions is presented along with its experimental results. The approach includes a step for collecting video recordings of human-human interactions or humanrobot interactions and subsequently analyzing the videos based on human coded annotations. The annotation includes social signals directly observed in the video recordings and the internal states of human participants indirectly inferred from those observed social signals. Then, a pattern classifier is trained using the annotation data, and tested. In our experiments on human-robot interaction, 7 video recordings were collected and annotated with 20 social signals and 7 internal states. Several experiments were performed to obtain an 84.83% recall rate for interaction engagement, 93% for concentration intention, and 81% for task comprehension level using a C4.5 based decision tree classifier.

로봇의 팔을 햅틱 인터페이스로 사용하여 로봇의 이동을 제어하는 기술 (Robot Mobile Control Technology Using Robot Arm as Haptic Interface)

  • 정유철;이성수
    • 전기전자학회논문지
    • /
    • 제17권1호
    • /
    • pp.44-50
    • /
    • 2013
  • 본 논문에서는 로봇의 팔을 기본 센서로 사용하여 별도의 센서 없이 사람을 따라다니는 햅틱 기반 로봇을 제안한다. 로봇 팔의 관절 각각에는 움직임을 생성하기 위한 모터가 있으며, 로봇 팔에 힘을 가하여 움직이면 각 관절의 각도가 변하면서 모터에서 그 각도를 출력 신호로 내보낼 수 있다. 따라서 사람이 로봇의 팔을 잡고 당기거나 밀면 로봇에서는 그 움직임을 각도로 읽어들이는 촉감 인터페이스로 활용할 수 있다. 구현된 로봇은 사람이 팔로 로봇 팔을 잡아끄는 움직임을 측정하여 움직이며 사람이 손을 잡고 이끎으로서 사람을 따라다닐 수 있다.

로봇의 비언어적 즉시성에 대한 사례연구 (A Case Study on the Nonverbal Immediacy of the Robot)

  • 정성미;신동희;구지향
    • 한국콘텐츠학회논문지
    • /
    • 제15권7호
    • /
    • pp.181-192
    • /
    • 2015
  • 비언어적 즉시성은 친밀감을 증대시키고 인터랙션을 활성화하는 등 대인 간 커뮤니케이션 상황에서 중요한 역할을 수행한다. 본 연구는 인간 로봇 상호작용 연구에서 논의되어 온 다양한 비언어적 행동들을 비언어적 즉시성이라는 개념으로 묶고, 이들이 어떻게 로봇에 대한 사람의 인지에 영향을 미치는지 파악하고자 사례 연구를 수행하였다. 그 결과 비언어적 즉시성의 요소들은 보다 활발한 언어적인 피드백을 동반할 때 대화의 쌍방향성에 영향을 줄 수 있는 것으로 나타났다. 또한 낱개의 비언어적 즉시성의 요소들은 그 의미를 강화할 수 있는 다른 채널이 없는 한, 의미의 해석이 일관되게 나타나지 않음을 보여주었다. 그리고 비언어적 즉시성의 요소 중 접촉은 로봇과 유사한 대상을 떠올리는 데에 영향을 미쳤다. 사람들은 대화할 때 사람과 동일한 사회적 규칙을 로봇에게 적용했지만, 자기 노출에 있어서는 로봇에게 더 솔직하다는 것이 드러났다. 이러한 연구 결과는 인간과 로봇이 상호작용하는 상황에서 효과적인 언어적, 비언어적 표현의 구성 원리를 제시한다는 측면에서 시사점을 가진다.

행동 네트워크를 이용한 감정형 제스처 기반 대화 관리 시스템 (An Emotional Gesture-based Dialogue Management System using Behavior Network)

  • 윤종원;임성수;조성배
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제37권10호
    • /
    • pp.779-787
    • /
    • 2010
  • 최근 로봇의 다양한 활용과 더불어 로봇-사람간의 상호작용에 대한 연구 또한 활발하게 진행되고 있으며, 대표적으로 자연어 처리나 대화중 제스처 생성 등의 방법이 로봇과 사람간의 의사소통에 적용되었다. 그러나 기존의 로봇-사람간의 의사소통을 위한 방법을 통해서는 정적인 의사소통만을 수행할 수 있다는 한계가 존재하며, 보다 자연스럽고 사실적인 의사소통 방법에 대한 연구가 필요하다. 본 논문에서는 보다 수준 높은 의사소통을 위해 감정형 제스처 기반 대화 관리 시스템을 제안한다. 제안하는 시스템은 베이지안 네트워크와 패턴 매칭을 이용하여 로봇과 사람간의 대화를 수행함과 동시에 로봇-사람간의 대화 도중 실시간으로 상황에 어울리는 로봇의 감정형 제스처를 생성한다 감정형 제스처 생성을 통해 로봇은 사람에게 대화를 보다 효과적으로 전달함과 더불어 사실적인 상호작용을 수행할 수 있다. 제스처 생성은 동적으로 변화하는 대화 상황에 유연하게 대처할 수 있도록 행동 네트워크를 사용하였다. 이후 제안하는 감정형 제스처 기반 시스템의 유용성을 검증하기 위해 사용성 평가를 통해 감정이니 제스처를 사용하지 않는 기존의 대화 관리 시스템과의 비교를 수행하였다.