• Title/Summary/Keyword: Human-robot interaction

Search Result 342, Processing Time 0.035 seconds

소프트웨어 로봇을 위한 인간-로봇 상호작용

  • Gwak Geun-Chang;Ji Su-Yeong;Jo Yeong-Jo
    • The Magazine of the IEIE
    • /
    • v.33 no.3 s.262
    • /
    • pp.49-55
    • /
    • 2006
  • 인간과 로봇의 자연스러운 상호작용을 위하여 영상과 음성을 기반으로 한 인간-로봇 상호작용 (HRI: Human Robot Interaction) 기술들을 소개한다. URC개념의 서버/클라이언트 구조를 갖는 소프트웨어 로봇에 수행 가능한 얼굴 인식 및 검증, 준 생체정보(semi biometrics)를 이용한 사용자 인식, 제스처인식, 화자인식 및 검증, 대화체 음성인식 기술들에 대하여 살펴본다. 이러한 인간-로봇 상호작용 기술들은 초고속 인터넷과 같은 IT 인프라를 이용하는 URC(Ubiquitous Robotic Companion) 기반의 지능형 서비스 로봇을 위한 핵심기술로서 사용되어진다.

  • PDF

Technology Trends of Range Image based Gesture Recognition (거리영상 기반 동작인식 기술동향)

  • Chang, J.Y.;Ryu, M.W.;Park, S.C
    • Electronics and Telecommunications Trends
    • /
    • v.29 no.1
    • /
    • pp.11-20
    • /
    • 2014
  • 동작인식(gesture recognition) 기술은 입력 영상으로부터 영상에 포함된 사람들의 동작을 인식하는 기술로써 영상감시(visual surveillance), 사람-컴퓨터 상호작용(human-computer interaction), 지능로봇(intelligence robot) 등 다양한 적용분야를 가진다. 특히 최근에는 저비용의 거리 센서(range sensor) 및 효율적인 3차원 자세 추정(3D pose estimation)기술의 등장으로 동작인식은 기존의 어려움들을 극복하고 다양한 산업분야에 적용이 가능할 정도로 발전을 거듭하고 있다. 본고에서는 그러한 거리영상(range image) 기반의 동작인식 기술에 대한 최신 연구동향을 살펴본다.

  • PDF

One-Cell Minifactory for Automated Manufacturing (자동 생산을 위한 윈셀 미니팩토리)

  • 김진오
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 2000.10a
    • /
    • pp.300-300
    • /
    • 2000
  • Reduced life-cycle and scale of electronic products make the conventional automated manufacturing system difficult to keep on competitiveness in these days. Reduced life-cycle requires an agile adaptation of manufacturing to new products and reduced scale requires enhanced precision as well as high speed. In this research, We propose a new concept called as "One-Cell Minifactory" in which various processes are combined to produce final modules or products and human interaction can be combined easily. We hope the proposed concept can guide new developments of automated manufacturing in electronics, optics and bio-engineering.

  • PDF

CRE: Perception Based Behavior Control Architecture for Human-Robot Interaction (CRE: 인간-로봇 상호작용을 위한 인지기반 행위제어 소프트웨어)

  • Lee, Suk-Han;Baek, Seung-Min;Park, Yeon-Chool
    • Communications of the Korean Institute of Information Scientists and Engineers
    • /
    • v.24 no.3 s.202
    • /
    • pp.12-24
    • /
    • 2006
  • 서비스 로봇의 지각과 행동에서의 신뢰성은 각 개별 요소기술의 완벽함으로부터 얻어지는 것이 아니라 비록 성능이 불완전한 요소기술들을 사용하더라도 각 요소기술들의 정보를 융합하고 능동적인 행위를 발생시키는 시스템적인 접근방식으로부터 얻어진다. 그러므로 본 연구에서는 자연스러운 HRI 구현을 위하여 "로봇인지 엔진"이라는 독창적인 통합 구조를 제안하였으며, 비동기/병렬 정보처리 구조, 다양한 지각정보들의 융합, 행위 결합을 위한 능동적인 지각정보 수집의 특징을 갖는다.

Gesture Recognition for Natural Human-Robot Interaction (인간-로봇 상호작용을 위한 제스처 인식 기술)

  • Kim, K.K.;Kim, H.J.;Cho, S.H.;Lee, J.Y.
    • Electronics and Telecommunications Trends
    • /
    • v.20 no.2 s.92
    • /
    • pp.14-20
    • /
    • 2005
  • 인간과 로봇과의 자연스러운 상호작용을 위하여 시각을 기반으로 한 사용자 의도 및 행위 인식에 대한 연구가 활발히 진행되고 있다. 제스처 인식은 시각을 기반으로 한 인식 분야에서 핵심 기술 분야로 연구되어 왔으며 최근에는 로봇이 인간에게 자연스러운 서비스를 제공해 주거나 로봇의 동작을 제어하기 위해 연구되고 있는 분야이다. 본 고에서는 기존에 제어된 제스처 인식 기술과 최근 인간-로봇의 상호작용을 위한 제스처인식 기술에 대하여 알아본다.

지능형 로봇과 얼굴 인식 융합기술

  • Kee, Seok-Cheol
    • Review of KIISC
    • /
    • v.17 no.5
    • /
    • pp.25-31
    • /
    • 2007
  • IT기술과 지능을 로봇에 융합시킴으로써, 로봇이 스스로 사용자를 인식하여 사용자가 원하는 일을 하고 원하는 정보를 검색해 주는 인간 중심적 서비스를 제공하는 것이 지능형 로봇의 궁극적인 목표이다. 사용자가 원하는 서비스를 제공하기 위해서는 다양한 의사소통 채널을 통해 인간과 로봇, 두 개체간의 상호작용 및 의사소통 연결 고리를 형성하는 인간-로봇 상호작용(HRI: Human-Robot Interaction)기술 개발이 반드시 필요하다. HRI 기술에는 얼굴 인식, 음성 인식, 제스처 인식 및 감정 인식 등 로봇이 인간의 의사표시를 인식하기 위한 기술들이 있다. 본고에서는 지능형 로봇과 로봇의 시각 지능화의 가장 핵심적인 기능인 얼굴 인식의 융합 기술 동향에 대해서 응용 서비스 및 표준화 이슈를 중심으로 살펴보고자 한다.

Autonomous Mobile Robot Control using the Wearable Devices Based on EMG Signal for detecting fire (EMG 신호 기반의 웨어러블 기기를 통한 화재감지 자율 주행 로봇 제어)

  • Kim, Jin-Woo;Lee, Woo-Young;Yu, Je-Hun;Sim, Kwee-Bo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.26 no.3
    • /
    • pp.176-181
    • /
    • 2016
  • In this paper, the autonomous mobile robot control system for detecting fire was proposed using the wearable device based on EMG(Electromyogram) signal. Myo armband is used for detecting the user's EMG signal. The gesture was classified after sending the data of EMG signal to a computer using Bluetooth communication. Then the robot named 'uBrain' was implemented to move by received data from Bluetooth communication in our experiment. 'Move front', 'Turn right', 'Turn left', and 'Stop' are controllable commands for the robot. And if the robot cannot receive the Bluetooth signal from a user or if a user wants to change manual mode to autonomous mode, the robot was implemented to be in the autonomous mode. The robot flashes the LED when IR sensor detects the fire during moving.

The Behavioral Patterns of Neutral Affective State for Service Robot Using Video Ethnography (비디오 에스노그래피를 이용한 서비스 로봇의 대기상태 행동패턴 연구)

  • Song, Hyun-Soo;Kim, Min-Joong;Jeong, Sang-Hoon;Suk, Hyeon-Jeong;Kwon, Dong-Soo;Kim, Myung-Suk
    • Science of Emotion and Sensibility
    • /
    • v.11 no.4
    • /
    • pp.629-636
    • /
    • 2008
  • In recent years, a large number of robots have been developed in several countries, and these robots have been built for the purpose to appeal to users by well designed human-robot interaction. In case of the robots developed so far, they show proper reactions only when there is a certain input. On the other hands, they cannot perform in a standby mode which means there is no input. In other words, if a robot does not make any motion in standby mode, users may feel that the robot is being turned-off or even out of work. Especially, the social service robots maintain the standby status after finishing a certain task. In this period of time, if the robots can make human-like behavioral patterns such like a person in help desk, then they are expected to make people feels that they are alive and is more likely to interact with them. It is said that even if there is no interaction with others or the environment, people normally reacts to internal or external stimuli which are created by themselves such as moving their eyes or bodies. In order to create robotic behavioral patterns for standby mode, we analyze the actual facial expression and behavior from people who are in neutral affective emotion based on ethnographic methodology and apply extracted characteristics to our robots. Moreover, by using the robots which can show those series of expression and action, our research needs to find that people can feel like they are alive.

  • PDF

A proposal for the roles of social robots introduced in educational environments (교육 환경 내 소셜 로봇의 도입과 역할 제안)

  • Shin, Ho-Sun;Lee, Kang-Hee
    • Asia-pacific Journal of Multimedia Services Convergent with Art, Humanities, and Sociology
    • /
    • v.7 no.3
    • /
    • pp.861-870
    • /
    • 2017
  • In this paper, we propose the roles of social robots in educational environments. This proposal becomes an extension of R-learning. The purpose of social robots is the communication and interaction with human. Social robots have two roles. One is similar to the role of educational service robot and the other is communication role with people in education environments. We make an scenario to explain how to operate the roles of social robots using robot jibo SDK. The scenario was designed for mild interaction with the user in the educational environment. And it was made using jibo animation part to control the external reaction of jibo and behaviors part to control the internal reaction in jibo SDK. Social robots collect data effectively, based on grafting technologies and interaction with people in educational environments. Concludingly, various data collected by social robots contribute to solving problems, developing and establishing of educational environments.

Gesture Interface for Controlling Intelligent Humanoid Robot (지능형 로봇 제어를 위한 제스처 인터페이스)

  • Bae Ki Tae;Kim Man Jin;Lee Chil Woo;Oh Jae Yong
    • Journal of Korea Multimedia Society
    • /
    • v.8 no.10
    • /
    • pp.1337-1346
    • /
    • 2005
  • In this paper, we describe an algorithm which can automatically recognize human gesture for Human-Robot interaction. In early works, many systems for recognizing human gestures work under many restricted conditions. To eliminate these restrictions, we have proposed the method that can represent 3D and 2D gesture information simultaneously, APM. This method is less sensitive to noise or appearance characteristic. First, the feature vectors are extracted using APM. The next step is constructing a gesture space by analyzing the statistical information of training images with PCA. And then, input images are compared to the model and individually symbolized to one portion of the model space. In the last step, the symbolized images are recognized with HMM as one of model gestures. The experimental results indicate that the proposed algorithm is efficient on gesture recognition, and it is very convenient to apply to humanoid robot or intelligent interface systems.

  • PDF