• Title/Summary/Keyword: Robot Interaction

Search Result 485, Processing Time 0.029 seconds

Speech emotion recognition for affective human robot interaction (감성적 인간 로봇 상호작용을 위한 음성감정 인식)

  • Jang, Kwang-Dong;Kwon, Oh-Wook
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.555-558
    • /
    • 2006
  • 감정을 포함하고 있는 음성은 청자로 하여금 화자의 심리상태를 파악할 수 있게 하는 요소 중에 하나이다. 음성신호에 포함되어 있는 감정을 인식하여 사람과 로봇과의 원활한 감성적 상호작용을 위하여 특징을 추출하고 감정을 분류한 방법을 제시한다. 음성신호로부터 음향정보 및 운율정보인 기본 특징들을 추출하고 이로부터 계산된 통계치를 갖는 특징벡터를 입력으로 support vector machine (SVM) 기반의 패턴분류기를 사용하여 6가지의 감정- 화남(angry), 지루함(bored), 기쁨(happy), 중립(neutral), 슬픔(sad) 그리고 놀람(surprised)으로 분류한다. SVM에 의한 인식실험을 한 경우 51.4%의 인식률을 보였고 사람의 판단에 의한 경우는 60.4%의 인식률을 보였다. 또한 화자가 판단한 감정 데이터베이스의 감정들을 다수의 청자가 판단한 감정 상태로 변경한 입력을 SVM에 의해서 감정을 분류한 결과가 51.2% 정확도로 감정인식하기 위해 사용한 기본 특징들이 유효함을 알 수 있다.

  • PDF

Wireless EMG-based Human-Computer Interface for Persons with Disability

  • Lee, Myoung-Joon;Moon, In-Hyuk;Kim, Sin-Ki;Mun, Mu-Seong
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 2003.10a
    • /
    • pp.1485-1488
    • /
    • 2003
  • This paper proposes a wireless EMG-based human-computer interface (HCI) for persons with disabilities. For the HCI, four interaction commands are defined by combining three elevation motions of shoulders such as left, right and both elevations. The motions are recognized by comparing EMG signals on the Levator scapulae muscles with double thresholds. A real-time EMG processing hardware is implemented for acquiring EMG signals and recognizing the motions. To achieve real-time processing, filters such as high- and low-pass filter and band-pass and -rejection filter, and a full rectifier and a mean absolute value circuit are embedded on a board with a high speed microprocessor. The recognized results are transferred to a wireless client system such as a mobile robot via a Bluetooth module. From experimental results using the implemented real-time EMG processing hardware, the proposed wireless EMG-based HCI is feasible for the disabled.

  • PDF

Engagement Analysis Technology for Tele-presence Services (텔레프레즌스 서비스를 위한 몰입도 분석 기술)

  • Yoon, H.J.;Han, M.K.;Jang, J.H.
    • Electronics and Telecommunications Trends
    • /
    • v.32 no.5
    • /
    • pp.10-19
    • /
    • 2017
  • A Telepresence service is an advanced video conferencing service at aimed providing remote users with the feeling of being present together at a particular location for a face-to-face group meeting. The effectiveness in this type of meeting can be further increased by automatically recognizing the audiovisual behaviors of the video conferencing users, accurately inferring their level of engagement from the recognized reactions, and providing proper feedback on their engagement state. In this paper, we review the recent developments of such engagement analysis techniques being utilized in various applications, such as human-robot interaction, content evaluation, telematics, and online collaboration services. In addition, we introduce a real-time engagement analysis framework employed in our telepresence service platform for an increased participation in online group collaboration settings.

Recent Research Trends of Facial Expression Recognition (얼굴표정 인식 기법의 최신 연구 동향)

  • Lee, Min Kyu;Song, Byung Cheol
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.11a
    • /
    • pp.128-130
    • /
    • 2019
  • 최근 딥러닝의 급격한 발전과 함께 얼굴표정 인식(facial expression recognition) 기술이 상당한 진보를 이루었다. 얼굴표정 인식은 컴퓨터 비전 분야에서 지속적으로 관심을 받고 있으며, 인포테인먼트 시스템(Infotainment system), 인간-로봇 상호작용(human-robot interaction) 등 다양한 분야에서 활용되고 있다. 그럼에도 불구하고 얼굴표정 인식 분야는 학습 데이터의 부족, 얼굴 각도의 변화 또는 occlusion 등과 같은 많은 문제들이 존재한다. 본 논문은 얼굴표정 인식 분야에서의 위와 같은 고유한 문제들을 다룬 기술들을 포함하여 고전적인 기법부터 최신 기법에 대한 연구 동향을 제시한다.

  • PDF

Intelligent robotic walker with actively controlled human interaction

  • Weon, Ihn-Sik;Lee, Soon-Geul
    • ETRI Journal
    • /
    • v.40 no.4
    • /
    • pp.522-530
    • /
    • 2018
  • In this study, we developed a robotic walker that actively controls its speed and direction of movement according to the user's gait intention. Sensor fusion between a low-cost light detection and ranging (LiDAR) sensor and inertia measurement units (IMUs) helps determine the user's gait intention. The LiDAR determines the walking direction by detecting both knees, and the IMUs attached on each foot obtain the angular rate of the gait. The user's gait intention is given as the directional angle and the speed of movement. The two motors in the robotic walker are controlled with these two variables, which represent the user's gait intention. The estimated direction angle is verified by comparison with a Kinect sensor that detects the centroid trajectory of both the user's feet. We validated the robotic walker with an experiment by controlling it using the estimated gait intention.

서비스 로봇의 안전 및 성능 평가 기술

  • Jeong, Yeong-Suk;Lee, Gyeong-Ho;Seo, Beom-Su
    • Information and Communications Magazine
    • /
    • v.33 no.8
    • /
    • pp.36-43
    • /
    • 2016
  • 최근 인공지능의 급부상과 함께 서비스 로봇은 물론 산업용 로봇에 이르기까지 ICT 융합을 통한 HRI(Human Robot Interaction) 지능화가 가속화되고 있다. 제조, 물류, 공공장소, 가정 등 다양한 환경에서 인간과 가까이 공존하며 상호작용하는 지능로봇의 안전과 성능에 기반한 신뢰성 확보는 성장하는 로봇 시장에 중요한 이슈로 떠오르고 있다. 2014년 실내외에서 운용되는 개인지원로봇에 대한 기본 안전 요구 표준인 ISO 13482가 공표되고 유럽, 일본을 비롯한 세계시장은 국제 표준 에 기반한 서비스 로봇의 인증을 요구하고 있다. 이에 최근 국내 로봇 기업의 해외 시장 진출에 있어 가장 우선적으로 요구받고 있는 안전 요구조건과 검증에 필요한 위험 평가 프로세스를 소개하고 서비스 로봇의 안전 및 성능 평가 기술과 표준에 대하여 살펴본다.

Hybrid Facial Representations for Emotion Recognition

  • Yun, Woo-Han;Kim, DoHyung;Park, Chankyu;Kim, Jaehong
    • ETRI Journal
    • /
    • v.35 no.6
    • /
    • pp.1021-1028
    • /
    • 2013
  • Automatic facial expression recognition is a widely studied problem in computer vision and human-robot interaction. There has been a range of studies for representing facial descriptors for facial expression recognition. Some prominent descriptors were presented in the first facial expression recognition and analysis challenge (FERA2011). In that competition, the Local Gabor Binary Pattern Histogram Sequence descriptor showed the most powerful description capability. In this paper, we introduce hybrid facial representations for facial expression recognition, which have more powerful description capability with lower dimensionality. Our descriptors consist of a block-based descriptor and a pixel-based descriptor. The block-based descriptor represents the micro-orientation and micro-geometric structure information. The pixel-based descriptor represents texture information. We validate our descriptors on two public databases, and the results show that our descriptors perform well with a relatively low dimensionality.

Telerobot control based on 3-D graphics (3차원 그래픽을 이용한 원격로보트 제어)

  • 김창회;황석용;김승호
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 1996.10b
    • /
    • pp.1527-1530
    • /
    • 1996
  • Telerobot system is being developed for the application to nuclear power plants by Korea Atomic Energy Research Institute. Human-machine interaction and interface are very important elements of telerobotic systems. The main purpose of this study is developing a control system based on 3-D graphic techniques for the easy user interface and realistic visual I information supply. This system possesses the abilities for (1) virtual work, environment modelling and simulation, (2) kinematic animation include redundant behavior (3) interfacing with a real robot system, (4) transformation between real and virtual mode within the same graphics system. This system is especially focused on enhancing the overall efficiency and reliably of nozzle dam installation task inside water chamber of steam generator in nuclear power plant.

  • PDF

A Navigation Algorithm using Locomotion Interface with Two 6-DOF Robotic Manipulators (ICCAS 2005)

  • Yoon, Jung-Won;Ryu, Je-Ha
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 2005.06a
    • /
    • pp.2211-2216
    • /
    • 2005
  • This paper describes a novel navigation algorithm using a locomotion interface with two 6-DOF parallel robotic manipulators. The suggested novel navigation system can induce user's real walking and generate realistic visual feedback during navigation, using robotic manipulators. For realistic visual feedback, the virtual environment is designed with three components; 3D object modeler for buildings and terrains, scene manager and communication manager component. The walking velocity of the user is directly translated to VR actions for navigation. Finally, the functions of the RPC interface are utilized for each interaction mode. The suggested navigation system can allow a user to explore into various virtual terrains with real walking and realistic visual feedback.

  • PDF

Design Implementation of Robots Assemble Content for Education in Cyberspace (가상공간에서 로봇조립교육을 위한 콘텐츠 디자인 구현)

  • Jung, Hoe-Jun;Park, Dea-Woo
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2011.05a
    • /
    • pp.463-466
    • /
    • 2011
  • 유무선 초고속 인터넷 연결과 모바일기기의 발달로 사이버공간을 이용하는 멀티미디어 교육용 콘텐츠에 대한 연구가 필요하다. 본 논문에서는 인터넷 가상공간에서 로봇조립에 대한 이해를 돕기 위해서 교육용 콘텐츠를 디자인하고 구현한다. 콘텐츠는 로봇 부품을 사용자가 조립해 나가는 과정으로 플래시 애니메이션 기법과 액션 스크립트을 활용해서 동영상과 상호작용을 조립과정 콘텐츠에 나타내었다. 인터넷 가상공간에서 사용자 중심의 상호 작용을 통하여 로봇 조립과정을 구현함으로써 가상공간에서 사용자 직접 조작으로 조립함으로서 교육효과를 증진시킬 수 있다. 현재의 구현과정은 이미지위주의 제한적 조립과정이지만 향후에는 3차원 모델링기반의 AR(증강현실) 구현으로 발전할 수 있다.

  • PDF