• Title/Summary/Keyword: 사람과 로봇간의 상호 작용

Search Result 24, Processing Time 0.029 seconds

Color and Blinking Control to Support Facial Expression of Robot for Emotional Intensity (로봇 감정의 강도를 표현하기 위한 LED 의 색과 깜빡임 제어)

  • Kim, Min-Gyu;Lee, Hui-Sung;Park, Jeong-Woo;Jo, Su-Hun;Chung, Myung-Jin
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.547-552
    • /
    • 2008
  • Human and robot will have closer relation in the future, and we can expect that the interaction between human and robot will be more intense. To take the advantage of people's innate ability of communication, researchers concentrated on the facial expression so far. But for the robot to express emotional intensity, other modalities such as gesture, movement, sound, color are also needed. This paper suggests that the intensity of emotion can be expressed with color and blinking so that it is possible to apply the result to LED. Color and emotion definitely have relation, however, the previous results are difficult to implement due to the lack of quantitative data. In this paper, we determined color and blinking period to express the 6 basic emotions (anger, sadness, disgust, surprise, happiness, fear). It is implemented on avatar and the intensities of emotions are evaluated through survey. We figured out that the color and blinking helped to express the intensity of emotion for sadness, disgust, anger. For fear, happiness, surprise, the color and blinking didn't play an important role; however, we may improve them by adjusting the color or blinking.

  • PDF

TDOA-Based Sound Source Localization to Control Intelligent Service Robot's Attention (지능형 서비스 로봇의 주의집중을 위한 시간지연 기반 실시간 음원추적 기술개발)

  • Bae, Kyung-Sook;Lee, Jae-Yeon;Kwak, Keun-Chang;Yoon, Ho-Sub
    • IEMEK Journal of Embedded Systems and Applications
    • /
    • v.2 no.4
    • /
    • pp.227-232
    • /
    • 2007
  • 인간과 상호작용하는 로봇의 경우, 자연스러운 움직임과 행동은 사람에게 친근감을 제공한다. 그러한 자연스러운 움직임과 행동의 기반이 되는 요소기술들 중 하나로 음원추적을 꼽을 수 있다. 본 논문에서는 3개의 마이크를 장착한 로봇에서의 시간지연기반 음원추적 시스템에 대해 소개한다. 개발된 음원추적 시스템을 지능형 서비스 로봇 WEVER-R2에 적용한 결과, 에러율 ${\pm}15$도 이내에서 93% 이상의 성공률을 보였다.

  • PDF

A Design of Real Time Drawing Techniques and Systems of Human Portrait for Humanoid Robot (휴머노이드 로봇을 위한 실시간 초상화 드로잉 기법 및 시스템 설계)

  • Song, Myeongjin;Kim, Baul;Ryu, Yunji;Lee, Geunjoo;Kim, Yongduk;Kim, Sangwook
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.1410-1413
    • /
    • 2010
  • 유비쿼터스와 로봇 제어기술이 융합하여 상호작용 하면서 로봇 기술이 빠르게 발전하고 있다. 그 중 인간의 생각과 행동을 대신 해주는 서비스 로봇인 휴머노이드 로봇에 대한 관심이 높아지고 있다. 본 연구는 휴머노이드 로봇을 이용하여 초상화를 실시간으로 빨리 그리는 새로운 기법과 그 기법을 적용하는 소프트웨어 시스템을 제안한다. 이때 사람을 인지하는 것, 종이위에서 붓(펜)이 움직이는 궤적과 속도를 제어하는 기술이 핵심이다. 더욱이 유비쿼터스 환경에서 중요한 컨트롤 포인트로 인식되고 있는 모바일 기기를 이용한 로봇 제어 기술도 계획 중이다. 본 과제에서는 로봇의 궤적을 최적화 하여 드로잉 속도를 빠르게 하고, 더 부드럽고 자연스러운 초상화를 드로잉 하며 실시간과 적응성을 높인다.

SVM Based Facial Expression Recognition for Expression Control of an Avatar in Real Time (실시간 아바타 표정 제어를 위한 SVM 기반 실시간 얼굴표정 인식)

  • Shin, Ki-Han;Chun, Jun-Chul;Min, Kyong-Pil
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.1057-1062
    • /
    • 2007
  • 얼굴표정 인식은 심리학 연구, 얼굴 애니메이션 합성, 로봇공학, HCI(Human Computer Interaction) 등 다양한 분야에서 중요성이 증가하고 있다. 얼굴표정은 사람의 감정 표현, 관심의 정도와 같은 사회적 상호작용에 있어서 중요한 정보를 제공한다. 얼굴표정 인식은 크게 정지영상을 이용한 방법과 동영상을 이용한 방법으로 나눌 수 있다. 정지영상을 이용할 경우에는 처리량이 적어 속도가 빠르다는 장점이 있지만 얼굴의 변화가 클 경우 매칭, 정합에 의한 인식이 어렵다는 단점이 있다. 동영상을 이용한 얼굴표정 인식 방법은 신경망, Optical Flow, HMM(Hidden Markov Models) 등의 방법을 이용하여 사용자의 표정 변화를 연속적으로 처리할 수 있어 실시간으로 컴퓨터와의 상호작용에 유용하다. 그러나 정지영상에 비해 처리량이 많고 학습이나 데이터베이스 구축을 위한 많은 데이터가 필요하다는 단점이 있다. 본 논문에서 제안하는 실시간 얼굴표정 인식 시스템은 얼굴영역 검출, 얼굴 특징 검출, 얼굴표정 분류, 아바타 제어의 네 가지 과정으로 구성된다. 웹캠을 통하여 입력된 얼굴영상에 대하여 정확한 얼굴영역을 검출하기 위하여 히스토그램 평활화와 참조 화이트(Reference White) 기법을 적용, HT 컬러모델과 PCA(Principle Component Analysis) 변환을 이용하여 얼굴영역을 검출한다. 검출된 얼굴영역에서 얼굴의 기하학적 정보를 이용하여 얼굴의 특징요소의 후보영역을 결정하고 각 특징점들에 대한 템플릿 매칭과 에지를 검출하여 얼굴표정 인식에 필요한 특징을 추출한다. 각각의 검출된 특징점들에 대하여 Optical Flow알고리즘을 적용한 움직임 정보로부터 특징 벡터를 획득한다. 이렇게 획득한 특징 벡터를 SVM(Support Vector Machine)을 이용하여 얼굴표정을 분류하였으며 추출된 얼굴의 특징에 의하여 인식된 얼굴표정을 아바타로 표현하였다.

  • PDF

Interactive Face Recognition System Based on CUDA (CUDA 기반의 인터랙티브 얼굴 인식 시스템)

  • Kim, Jung-Sik;Kim, Jong-Yoon;Kim, Jin-Mo;Cho, Hyung-Je
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06c
    • /
    • pp.369-372
    • /
    • 2011
  • 본 논문에서는 가상현실 및 게임, 로봇인지 분야에서 쓰일 수 있는 실시간 얼굴인식을 제안한다. 현대 사회는 영상처리 기술의 발달로 인하여 많은 자동화 시스템이 개발된다. 빠르게 발전하는 정보화 시대에 사람과 컴퓨터 사이의 상호작용(Interaction)은 매우 중요하며 보다 빠르고 정확한 시스템이 요구된다. 전통적인 얼굴인식 방법인 주성분 분석(PCA)은 영상의 크기에 따라 계산의 복잡도가 증가하고, 특징 벡터를 구하기 위해 많은 연산을 해야 하는 문제가 발생하지만 GPU를 이용할 경우 반복적 계산의 효율적 처리가 가능하여 뛰어난 성능을 낼 수 있는 장점이 있다. 본 논문에서는 이러한 범용 GPU사용 기술 중 nVidia에서 제공하는 CUDA를 활용한 실시간 얼굴 인식 시스템을 제안하고, 실험을 통해 성능을 검증한다.

A Study on Face Recognition Performance Comparison of Real Images with Images from LED Monitor (LED 모니터 출력 영상과 실물 영상의 얼굴인식 성능 비교)

  • Cho, Mi-Young;Jeong, Young-Sook;Chun, Byung-Tae
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.50 no.5
    • /
    • pp.144-149
    • /
    • 2013
  • With the increasing of service robots, human-robot interaction for natural communication between user and robots is becoming more and more important. Especially, face recognition is a key issue of HRI. Even though robots mainly use face detection and recognition to provide various services, it is still difficult to guarantee of performance due to insufficient test methods in real service environment. Now, face recognition performance of most robots is evaluation for engine without consideration for robots. In this paper, we show validity of test method using LED monitor through performance comparison of real images with from images LED monitor.

Text-Mining Analysis on the Interaction between the American Consumers Aged over 60 and Companion Pets Robots: Focused on Amazon Reviews for Joy For All Companion Pets (텍스트 마이닝을 활용한 미국 노년 소비자와 애완용 로봇 간 상호작용에 대한 분석: Joy For All Companion Pets에 대한 아마존 리뷰를 중심으로)

  • Chung, Yea-Eun;Lee, Yu Lim;Chung, Jae-Eun
    • Journal of Digital Convergence
    • /
    • v.19 no.10
    • /
    • pp.469-489
    • /
    • 2021
  • This study explores consumers' responses to socially assistive robotics by using text-mining method focusing on Companion Pets from Hasbro as it gives emotional support. We conducted text frequency analysis, LDA analysis using R programming. The key findings are 1)the most frequently used words the mimicry of living pets and the appearance of companion pets, 2)the five topics were derived from the LDA analysis and classified keywords in each topic split between positive and negative, 3)user, product, environment affect the interaction between consumer and companion pets, 4)consumers who have difficulty in cognition and physical conditions use companion pets to replace living pets. This study provides an understanding of consumer responses in companion pets and gives practical implications that may improve the efficacy of usage for consumers and understand the companion robot, which provides emotional support in COVID-19.

A Study on Deep Learning Based RobotArm System (딥러닝 기반의 로봇팔 시스템 연구)

  • Shin, Jun-Ho;Shim, Gyu-Seok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.901-904
    • /
    • 2020
  • 본 시스템은 세 단계의 모델을 복합적으로 구성하여 이루어진다. 첫 단계로 사람의 음성언어를 텍스트로 전환한 후 사용자의 발화 의도를 분류해내는 BoW방식을 이용해 인간의 명령을 이해할 수 있는 자연어 처리 알고리즘을 구성한다. 이후 YOLOv3-tiny를 이용한 실시간 영상처리모델과 OctoMapping모델을 활용하여 주변환경에 대한 3차원 지도생성 후 지도데이터를 기반으로하여 동작하는 기구제어 알고리즘 등을 ROS actionlib을 이용한 관리자시스템을 구성하여 ROS와 딥러닝을 활용한 편리한 인간-로봇 상호작용 시스템을 제안한다.

Recognition of 3D Environment for Intelligent Robots (지능로봇을 위한 3차원 환경인식)

  • Jang, Dae-Sik
    • Journal of Internet Computing and Services
    • /
    • v.7 no.5
    • /
    • pp.135-145
    • /
    • 2006
  • This paper presents a novel approach to real-time recognition of 3D environment and objects for intelligent robots. First. we establish the three fundamental principles that humans use for recognizing and interacting with the environment. These principles have led to the development of an integrated approach to real-time 3D recognition and modeling, as follows: 1) It starts with a rapid but approximate characterization of the geometric configuration of workspace by identifying global plane features. 2) It quickly recognizes known objects in environment and replaces them by their models in database based on 3D registration. 3) It models the geometric details on the fly adaptively to the need of the given task based on a multi-resolution octree representation. SIFT features with their 3D position data, referred to here as stereo-sis SIFT, are used extensively, together with point clouds, for fast extraction of global plane features, for fast recognition of objects, for fast registration of scenes, as well as for overcoming incomplete and noisy nature of point clouds. The experimental results show the feasibility of real-time and behavior-oriented 3D modeling of workspace for robotic manipulative tasks.

  • PDF

Design and Development of Modular Replaceable AI Server for Image Deep Learning in Social Robots on Edge Devices (엣지 디바이스인 소셜 로봇에서의 영상 딥러닝을 위한 모듈 교체형 인공지능 서버 설계 및 개발)

  • Kang, A-Reum;Oh, Hyun-Jeong;Kim, Do-Yun;Jeong, Gu-Min
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.13 no.6
    • /
    • pp.470-476
    • /
    • 2020
  • In this paper, we present the design of modular replaceable AI server for image deep learning that separates the server from the Edge Device so as to drive the AI block and the method of data transmission and reception. The modular replaceable AI server for image deep learning can reduce the dependency between social robots and edge devices where the robot's platform will be operated to improve drive stability. When a user requests a function from an AI server for interaction with a social robot, modular functions can be used to return only the results. Modular functions in AI servers can be easily maintained and changed by each module by the server manager. Compared to existing server systems, modular replaceable AI servers produce more efficient performance in terms of server maintenance and scale differences in the programs performed. Through this, more diverse image deep learning can be included in robot scenarios that allow human-robot interaction, and more efficient performance can be achieved when applied to AI servers for image deep learning in addition to robot platforms.