• Title/Summary/Keyword: Human robot interaction

Search Result 345, Processing Time 0.026 seconds

The Effects of Chatbot Anthropomorphism and Self-disclosure on Mobile Fashion Consumers' Intention to Use Chatbot Services

  • Kim, Minji;Park, Jiyeon;Lee, MiYoung
    • Journal of Fashion Business
    • /
    • v.25 no.6
    • /
    • pp.119-130
    • /
    • 2021
  • This study investigated the effects of the chatbot's level of anthropomorphism - closeness to the human form - and its self-disclosure - delivery of emotional exchange with the chatbot through its facial expressions and chatting message on the user's intention to accept the service. A 2 (anthropomorphism: High vs. Low) × 2 (self-disclosure through facial expressions: High vs. Low) × 2 (self-disclosure through conversation: High vs. Low) between-subject factorial design was employed for this study. An online survey was conducted and a total of 234 questionnaires were used in the analysis. The results showed that consumers used chatbot service more when emotions were disclosed through facial expressions, than when it disclosed fewer facial expressions. There was statistically significant interaction effect, indicating the relationship between chatbot's self-disclosure through facial expression and the consumers' intention to use chatbot service differs depending on the extent of anthropomorphism. In the case of "robot chatbots" with low anthropomorphism levels, there was no difference in intention to use chatbot service depending on the level of self-disclosure through facial expression. When the "human-like chatbot" with high anthropomorphism levels discloses itself more through facial expressions, consumer's intention to use the chatbot service increased much more than when the human-like chatbot disclosed fewer facial expressions. The findings suggest that chatbots' self-disclosure plays an important role in the formation of consumer perception.

A Field Study on Ubiquitous Robots in Elementary School (유비퀴터스 로봇의 초등학교 현장 실험 연구)

  • Kim, Su-Jung;Han, Jeong-Hye
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.339-346
    • /
    • 2006
  • 최근 들어 유치원과 초등학교에 로봇을 이용한 교육적 활용 연구가 시도되고 있다. 유비퀴터스 로봇 활용이 교사와 아동의 흥미 유발에 있어 매우 효과가 높은 것으로 나타나, 향후 유비쿼터스 로봇이 u-Learning 의 또 다른 매체로서의 가능성이 강조되고 있다. 이에 본 연구에서는 초등학교 수업에서 교사 보조 역할을 통한 유비퀴터스 로봇의 활용 가능성을 보기 위해, 초등 학생 6 학년의 기대 역할을 갖는 프로토 타입의 로봇과 컨텐츠를 개발하여 활용하는 실험을 실시하였다. 프로토 타입 로봇은 국어, 영어, 음악 교과를 대상으로 주기적으로 컨텐츠를 다운로드 할 수 있을 뿐만 아니라 아동의 얼굴과 이름을 저장하여 수업 운영 컨텐츠와 연동할 수 있다. 현장 실험을 통하여 아동이 유비쿼터스 로봇을 경험한 수업 시간의 횟수에 따라 로봇 외형과 수업 보조 서비스에 대한 선호도 차이를 알아봄으로써, 초등학교에서 유비퀴터스 로봇을 이용한 r-Learning에 있어서 일시적 신기효과가 아닌 지속적인 영향을 줄 수 있는 요인을 찾아보았다. 실험 결과, 지속적인 HRI 유지에 영향을 끼칠 수 있는 외형적 요인으로 로봇 얼굴과 로봇과 아동간 관계성을 지향하는 컨텐츠 개발이 필요함을 보였다.

  • PDF

Human-Robot Interaction Ontology for Knowledge Based Robot (지식 기반 로봇을 위한 인간-로봇 상호작용 온톨로지)

  • Shin, Dong su;Chang, Doo Soo;Choi, Yong Suk
    • Annual Conference of KIPS
    • /
    • 2017.04a
    • /
    • pp.877-880
    • /
    • 2017
  • 가정이나 사무실 등과 같은 다양한 현실 세계에서 서비스 로봇이 자율적으로 동작하기 위해서는 복잡한 작업을 수행할 수 있어야만 한다. 다양한 센서 데이터가 있는 서비스 환경에서 고수준의 의미 정보를 이해하는 것은 지식 기반 로봇에게 필수적인 능력 중 하나이다. 본 논문에서는 서비스 로봇에게 다양한 환경에서 주어진 작업을 효과적으로 해결할 수 있도록 저레벨의 센서 데이터와 고레벨의 의미 정보를 통합하는 인간-로봇 상호작용 온톨로지를 소개한다. 지능형 로봇 지식에는 다양한 서비스의 확장성을 위해 사용자, 로봇, 인지, 환경, 행위 5가지 온톨로지로 분류한다. 지능형 로봇 지식은 일반 지식 뿐만 아니라 로봇의 수행 능력, 구성요소 등의 전문 지식까지 정의하고 서비스 에이전트 간 상호작용을 위한 인터페이스를 표준화함으로써 지능형 로봇에 적합한 지능을 제공한다. Turtlebot2을 이용한 실험을 통해 온톨로지 기반의 통합 로봇 지식의 높은 효율성을 확인 할 수 있었다.

Manufacturing 2DOF Inflatable Joint Actuator by Pneumatic Control (공압제어를 통한 2DOF 팽창식 관절 액추에이터 제작)

  • Oh, Namsoo;Lee, Haneol;Rodrigue, Hugo
    • The Journal of Korea Robotics Society
    • /
    • v.13 no.2
    • /
    • pp.92-96
    • /
    • 2018
  • In this paper, a soft robotic arm which can prevent impact injury during human-robot interaction is introduced. Two degrees of freedom joint are required to realize free movement of the robotic arm. A robotic joint concept with a single degree of freedom is presented using simple inflatable elements, and then extended to form a robotic joint with two degrees of freedom joint using similar manufacturing methods. The robotic joint with a single degree of freedom has a joint angle of $0^{\circ}$ bending angle when both chamber are inflated at equal pressures and maximum bending angles of $28.4^{\circ}$ and $27.1^{\circ}$ when a single chamber if inflated. The robotic joint with two degrees of freedom also has a bending angle of $0^{\circ}$ in both direction when all three chambers are inflated at equal pressures. When either one or two chambers were pressurized, the robotic joint performed bending towards the uninflated chambers.

Tiny and Blurred Face Alignment for Long Distance Face Recognition

  • Ban, Kyu-Dae;Lee, Jae-Yeon;Kim, Do-Hyung;Kim, Jae-Hong;Chung, Yun-Koo
    • ETRI Journal
    • /
    • v.33 no.2
    • /
    • pp.251-258
    • /
    • 2011
  • Applying face alignment after face detection exerts a heavy influence on face recognition. Many researchers have recently investigated face alignment using databases collected from images taken at close distances and with low magnification. However, in the cases of home-service robots, captured images generally are of low resolution and low quality. Therefore, previous face alignment research, such as eye detection, is not appropriate for robot environments. The main purpose of this paper is to provide a new and effective approach in the alignment of small and blurred faces. We propose a face alignment method using the confidence value of Real-AdaBoost with a modified census transform feature. We also evaluate the face recognition system to compare the proposed face alignment module with those of other systems. Experimental results show that the proposed method has a high recognition rate, higher than face alignment methods using a manually-marked eye position.

Improvement of Gesture Recognition using 2-stage HMM (2단계 히든마코프 모델을 이용한 제스쳐의 성능향상 연구)

  • Jung, Hwon-Jae;Park, Hyeonjun;Kim, Donghan
    • Journal of Institute of Control, Robotics and Systems
    • /
    • v.21 no.11
    • /
    • pp.1034-1037
    • /
    • 2015
  • In recent years in the field of robotics, various methods have been developed to create an intimate relationship between people and robots. These methods include speech, vision, and biometrics recognition as well as gesture-based interaction. These recognition technologies are used in various wearable devices, smartphones and other electric devices for convenience. Among these technologies, gesture recognition is the most commonly used and appropriate technology for wearable devices. Gesture recognition can be classified as contact or noncontact gesture recognition. This paper proposes contact gesture recognition with IMU and EMG sensors by using the hidden Markov model (HMM) twice. Several simple behaviors make main gestures through the one-stage HMM. It is equal to the Hidden Markov model process, which is well known for pattern recognition. Additionally, the sequence of the main gestures, which comes from the one-stage HMM, creates some higher-order gestures through the two-stage HMM. In this way, more natural and intelligent gestures can be implemented through simple gestures. This advanced process can play a larger role in gesture recognition-based UX for many wearable and smart devices.

Facial expression recognition-based contents preference inference system (얼굴 표정 인식 기반 컨텐츠 선호도 추론 시스템)

  • Lee, Yeon-Gon;Cho, Durkhyun;Jang, Jun Ik;Suh, Il Hong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2013.01a
    • /
    • pp.201-204
    • /
    • 2013
  • 디지털 컨텐츠의 종류와 양이 폭발적으로 증가하면서 컨텐츠 선호도 투표는 강한 파급력을 지니게 되었다. 하지만 컨텐츠 소비자가 직접 투표를 해야 하는 현재의 방법은 사람들의 투표 참여율이 저조하며, 조작 위험성이 높다는 문제점이 있다. 이에 본 논문에서는 컨텐츠 소비자의 얼굴 표정에 드러나는 감정을 인식함으로써 자동으로 컨텐츠 선호도를 추론하는 시스템을 제안한다. 본 논문에서 제안하는 시스템은 기존의 수동 컨텐츠 선호도 투표 시스템의 문제점인 컨텐츠 소비자의 부담감과 번거로움, 조작 위험성 등을 해소함으로써 보다 편리하고 효율적이며 신뢰도 높은 서비스를 제공하는 것을 목표로 한다. 따라서 본 논문에서는 컨텐츠 선호도 추론 시스템을 구축하기 위한 방법을 구체적으로 제안하고, 실험을 통하여 제안하는 시스템의 실용성과 효율성을 보인다.

  • PDF

Speech emotion recognition for affective human robot interaction (감성적 인간 로봇 상호작용을 위한 음성감정 인식)

  • Jang, Kwang-Dong;Kwon, Oh-Wook
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.555-558
    • /
    • 2006
  • 감정을 포함하고 있는 음성은 청자로 하여금 화자의 심리상태를 파악할 수 있게 하는 요소 중에 하나이다. 음성신호에 포함되어 있는 감정을 인식하여 사람과 로봇과의 원활한 감성적 상호작용을 위하여 특징을 추출하고 감정을 분류한 방법을 제시한다. 음성신호로부터 음향정보 및 운율정보인 기본 특징들을 추출하고 이로부터 계산된 통계치를 갖는 특징벡터를 입력으로 support vector machine (SVM) 기반의 패턴분류기를 사용하여 6가지의 감정- 화남(angry), 지루함(bored), 기쁨(happy), 중립(neutral), 슬픔(sad) 그리고 놀람(surprised)으로 분류한다. SVM에 의한 인식실험을 한 경우 51.4%의 인식률을 보였고 사람의 판단에 의한 경우는 60.4%의 인식률을 보였다. 또한 화자가 판단한 감정 데이터베이스의 감정들을 다수의 청자가 판단한 감정 상태로 변경한 입력을 SVM에 의해서 감정을 분류한 결과가 51.2% 정확도로 감정인식하기 위해 사용한 기본 특징들이 유효함을 알 수 있다.

  • PDF

Engagement Analysis Technology for Tele-presence Services (텔레프레즌스 서비스를 위한 몰입도 분석 기술)

  • Yoon, H.J.;Han, M.K.;Jang, J.H.
    • Electronics and Telecommunications Trends
    • /
    • v.32 no.5
    • /
    • pp.10-19
    • /
    • 2017
  • A Telepresence service is an advanced video conferencing service at aimed providing remote users with the feeling of being present together at a particular location for a face-to-face group meeting. The effectiveness in this type of meeting can be further increased by automatically recognizing the audiovisual behaviors of the video conferencing users, accurately inferring their level of engagement from the recognized reactions, and providing proper feedback on their engagement state. In this paper, we review the recent developments of such engagement analysis techniques being utilized in various applications, such as human-robot interaction, content evaluation, telematics, and online collaboration services. In addition, we introduce a real-time engagement analysis framework employed in our telepresence service platform for an increased participation in online group collaboration settings.

Recent Research Trends of Facial Expression Recognition (얼굴표정 인식 기법의 최신 연구 동향)

  • Lee, Min Kyu;Song, Byung Cheol
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.11a
    • /
    • pp.128-130
    • /
    • 2019
  • 최근 딥러닝의 급격한 발전과 함께 얼굴표정 인식(facial expression recognition) 기술이 상당한 진보를 이루었다. 얼굴표정 인식은 컴퓨터 비전 분야에서 지속적으로 관심을 받고 있으며, 인포테인먼트 시스템(Infotainment system), 인간-로봇 상호작용(human-robot interaction) 등 다양한 분야에서 활용되고 있다. 그럼에도 불구하고 얼굴표정 인식 분야는 학습 데이터의 부족, 얼굴 각도의 변화 또는 occlusion 등과 같은 많은 문제들이 존재한다. 본 논문은 얼굴표정 인식 분야에서의 위와 같은 고유한 문제들을 다룬 기술들을 포함하여 고전적인 기법부터 최신 기법에 대한 연구 동향을 제시한다.

  • PDF