• 제목/요약/키워드: 감정형 로봇

검색결과 34건 처리시간 0.029초

행동 네트워크를 이용한 감정형 제스처 기반 대화 관리 시스템 (An Emotional Gesture-based Dialogue Management System using Behavior Network)

  • 윤종원;임성수;조성배
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제37권10호
    • /
    • pp.779-787
    • /
    • 2010
  • 최근 로봇의 다양한 활용과 더불어 로봇-사람간의 상호작용에 대한 연구 또한 활발하게 진행되고 있으며, 대표적으로 자연어 처리나 대화중 제스처 생성 등의 방법이 로봇과 사람간의 의사소통에 적용되었다. 그러나 기존의 로봇-사람간의 의사소통을 위한 방법을 통해서는 정적인 의사소통만을 수행할 수 있다는 한계가 존재하며, 보다 자연스럽고 사실적인 의사소통 방법에 대한 연구가 필요하다. 본 논문에서는 보다 수준 높은 의사소통을 위해 감정형 제스처 기반 대화 관리 시스템을 제안한다. 제안하는 시스템은 베이지안 네트워크와 패턴 매칭을 이용하여 로봇과 사람간의 대화를 수행함과 동시에 로봇-사람간의 대화 도중 실시간으로 상황에 어울리는 로봇의 감정형 제스처를 생성한다 감정형 제스처 생성을 통해 로봇은 사람에게 대화를 보다 효과적으로 전달함과 더불어 사실적인 상호작용을 수행할 수 있다. 제스처 생성은 동적으로 변화하는 대화 상황에 유연하게 대처할 수 있도록 행동 네트워크를 사용하였다. 이후 제안하는 감정형 제스처 기반 시스템의 유용성을 검증하기 위해 사용성 평가를 통해 감정이니 제스처를 사용하지 않는 기존의 대화 관리 시스템과의 비교를 수행하였다.

하이브리드 구조에 의한 감정 반응 시스템 (Three-Layered Hybrid Architecture for Emotional Reactive System)

  • 정준영;이동욱;이호길
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2008년도 춘계학술대회 학술발표회 논문집
    • /
    • pp.54-55
    • /
    • 2008
  • 본 논문에서는 인간형 로봇의 태스크 실행 중 자율 감정 생성을 위하여 Three-layered hybrid architecture에 기반한 감정 반응 시스템을 제안한다. Three-layered hybrid architecture는 Deliberative layer, Reactive layer Hardware abstraction layer의 3단계의 계층으로 되어 있으며, 모바일 로봇의 자율 동작을 위해서 개발되었다. 본 연구에서는 저자가 개발중인 안드로이드 EveR-2의 감정 시스템에 적용하여 로봇의 태스크 동작 중에 외부의 자극들로부터 자신의 감정을 생성하고, 생성된 감정과 태스크를 조합하여 자신의 행동을 변화시키며 인간과 상호작용하는 로봇 감정 시스템을 구현하였다.

  • PDF

이동로봇에서의 2D얼굴 영상을 이용한 사용자의 감정인식 (Emotion Recognition of User using 2D Face Image in the Mobile Robot)

  • 이동훈;서상욱;고광은;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 추계학술대회 학술발표 논문집 제16권 제2호
    • /
    • pp.131-134
    • /
    • 2006
  • 본 논문에서는 가정용 로봇 및 서비스 로봇과 같은 이동로봇에서 사용자의 감정을 인식하는 방법중 한가지인 얼굴영상을 이용한 감정인식 방법을 제안한다. 얼굴영상인식을 위하여 얼굴의 여러 가지 특징(눈썹, 눈, 코, 입)의 움직임 및 위치를 이용하며, 이동로봇에서 움직이는 사용자를 인식하기 위한 움직임 추적 알고리즘을 구현하고, 획득된 사용자의 영상에서 얼굴영역 검출 알고리즘을 사용하여 얼굴 영역을 제외한 손과 배경 영상의 피부색은 제거한다. 검출된 얼굴영역의 거리에 따른 영상 확대 및 축소, 얼굴 각도에 따른 영상 회전변환 등의 정규화 작업을 거친 후 이동 로봇에서는 항상 고정된 크기의 얼굴 영상을 획득 할 수 있도록 한다. 또한 기존의 특징점 추출이나 히스토그램을 이용한 감정인식 방법을 혼합하여 인간의 감성 인식 시스템을 모방한 로봇에서의 감정인식을 수행한다. 본 논문에서는 이러한 다중 특징점 추출 방식을 통하여 이동로봇에서의 얼굴 영상을 이용한 사용자의 감정인식 시스템을 제안한다.

  • PDF

국내 감성로봇 연구 현황 (State-of-the-Art of Domestic Emotional Robots)

  • 차고음;김은진;이강희
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2017년도 제55차 동계학술대회논문집 25권1호
    • /
    • pp.161-162
    • /
    • 2017
  • 외부환경을 인식하고 상황을 판단해 자율적으로 행동하는 지능형 서비스 로봇은 앞으로 새로운 시장을 열어줄 것으로 기대되며 이와 관련된 연구와 개발이 빠르게 확대되고 있다. 이러한 서비스 로봇에게 가장 중요한 기능은 인간과의 원활한 상호작용이다. 여기서 말하는 상호작용이란 단순히 인간이 원하는 것을 명령하고, 로봇이 이 명령을 수행하는 것에 그치는 것이 아니라, 로봇이 스스로 인간의 감정을 파악하고, 이에 대한 적절한 로봇 자신의 감정 표출이나 서비스, 행동을 제공함으로써 직접적인 소통이 이루어지는 것을 의미한다. 이렇게 로봇이 자연스럽게 인간과 함께 공존하기 위해서 감성 로봇(Emotional Robot) 분야에서 관련된 연구가 활발히 진행되고 있다 본 논문에서는 국내의 감성 로봇의 연구 현황과 발전 방향에 대해 서술한다.

  • PDF

에디팅 툴킷을 이용한 로봇의 멀티모달 감정/의사 표현 (Multi-modal Robot Emotion/Intention Expression using Editing Toolkit)

  • 김우현;박정우;이원형;김원화;정명진
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2009년도 제40회 하계학술대회
    • /
    • pp.1819_1820
    • /
    • 2009
  • 본 논문에서는 로봇의 감정과 의사표현을 위해서 3D모델 기반의 시뮬레이션이 가능한 에디팅 툴킷을 이용하였고, 사람과 로봇의 감정 상호 작용과 로봇이 제공하는 서비스의 구현을 위해서 다양한 멀티모달 표현을 생성하였다. 로봇은 얼굴표정, 그리고 목과 팔의 움직임으로 멀티모달 표현을 하였으며, 멀티모달 감정/의사 표현을 구성하는 각 모달리티별 표현들은 에디팅 툴킷을 통하여 동기화되었다. 이렇게 생성된 로봇의 멀티모달 감정/의사 표현은 DB형태로 저장되고, 이를 재조합하고 수정하여 새로운 표현을 생성할 수 있도록 하였다.

  • PDF

지능형 서비스 로봇 기술표준화 및 시장전망

  • 정연구
    • TTA 저널
    • /
    • 통권101호
    • /
    • pp.16-21
    • /
    • 2005
  • 로봇 산업은 향후 IT, BT에 버금가는 시장을 형성할 잠재력이 있다. 또한 로봇산업은 지능화와 시스템화 기술로서 타분야에 미치는 기술적 파급효과가 크다. 기계, 전자 등 부품·소재기술부터, S/W 기술, 문화콘텐츠까지를 망라하는 통합기술의 결정체라 할만 하다. 정보통신부는‘지능형 서비스 로봇’을“인간과 상호작용을 통해 인간의 명령 및 감정을 이해하고 반응하며, 정보통신기술을 바탕으로 인간에게 다양한 서비스를 제공하는 로봇”이라고 정의하고 있다. 이번 호는 우리 기업들이 도전하고 개척해야 하는 거대 시장인‘지능형 서비스 로봇’산업 선점을 위한 핵심 요소인 표준화 및 시장동향을 국내 표준화를 선도하는‘TTA 지능형 서비스 로봇 프로젝트그룹’의장으로부터 들어본다

  • PDF

지능형 로봇과 얼굴 인식 융합기술

  • 기석철
    • 정보보호학회지
    • /
    • 제17권5호
    • /
    • pp.25-31
    • /
    • 2007
  • IT기술과 지능을 로봇에 융합시킴으로써, 로봇이 스스로 사용자를 인식하여 사용자가 원하는 일을 하고 원하는 정보를 검색해 주는 인간 중심적 서비스를 제공하는 것이 지능형 로봇의 궁극적인 목표이다. 사용자가 원하는 서비스를 제공하기 위해서는 다양한 의사소통 채널을 통해 인간과 로봇, 두 개체간의 상호작용 및 의사소통 연결 고리를 형성하는 인간-로봇 상호작용(HRI: Human-Robot Interaction)기술 개발이 반드시 필요하다. HRI 기술에는 얼굴 인식, 음성 인식, 제스처 인식 및 감정 인식 등 로봇이 인간의 의사표시를 인식하기 위한 기술들이 있다. 본고에서는 지능형 로봇과 로봇의 시각 지능화의 가장 핵심적인 기능인 얼굴 인식의 융합 기술 동향에 대해서 응용 서비스 및 표준화 이슈를 중심으로 살펴보고자 한다.

감정 분류를 이용한 표정 연습 보조 인공지능 (Artificial Intelligence for Assistance of Facial Expression Practice Using Emotion Classification)

  • 김동규;이소화;봉재환
    • 한국전자통신학회논문지
    • /
    • 제17권6호
    • /
    • pp.1137-1144
    • /
    • 2022
  • 본 연구에서는 감정을 표현하기 위한 표정 연습을 보조하는 인공지능을 개발하였다. 개발한 인공지능은 서술형 문장과 표정 이미지로 구성된 멀티모달 입력을 심층신경망에 사용하고 서술형 문장에서 예측되는 감정과 표정 이미지에서 예측되는 감정 사이의 유사도를 계산하여 출력하였다. 사용자는 서술형 문장으로 주어진 상황에 맞게 표정을 연습하고 인공지능은 서술형 문장과 사용자의 표정 사이의 유사도를 수치로 출력하여 피드백한다. 표정 이미지에서 감정을 예측하기 위해 ResNet34 구조를 사용하였으며 FER2013 공공데이터를 이용해 훈련하였다. 자연어인 서술형 문장에서 감정을 예측하기 위해 KoBERT 모델을 전이학습 하였으며 AIHub의 감정 분류를 위한 대화 음성 데이터 세트를 사용해 훈련하였다. 표정 이미지에서 감정을 예측하는 심층신경망은 65% 정확도를 달성하여 사람 수준의 감정 분류 능력을 보여주었다. 서술형 문장에서 감정을 예측하는 심층신경망은 90% 정확도를 달성하였다. 감정표현에 문제가 없는 일반인이 개발한 인공지능을 이용해 표정 연습 실험을 수행하여 개발한 인공지능의 성능을 검증하였다.

컴패니언 로봇의 멀티 모달 대화 인터랙션에서의 감정 표현 디자인 연구 (Design of the emotion expression in multimodal conversation interaction of companion robot)

  • 이슬비;유승헌
    • 디자인융복합연구
    • /
    • 제16권6호
    • /
    • pp.137-152
    • /
    • 2017
  • 본 연구는 실버세대를 위한 컴패니언 로봇의 인터랙션 경험 디자인을 위해 사용자 태스크- 로봇 기능 적합도 매핑에 기반한 로봇 유형 분석과 멀티모달 대화 인터랙션에서의 로봇 감정표현 연구를 수행하였다. 노인의 니즈 분석을 위해 노인과 자원 봉사자를 대상으로 FGI, 에스노그래피를 진행하였으며 로봇 지원 기능과 엑추에이터 매칭을 통해 로봇 기능 조합 유형에 대한 분석을 하였다. 도출된 4가지 유형의 로봇 중 표정 기반 대화형 로봇 유형으로 프로토타이핑을 하였으며 에크만의 얼굴 움직임 부호화 시스템(Facial Action Coding System: FACS)을 기반으로 6가지 기본 감정에 대한 표정을 시각화하였다. 사용자 실험에서는 로봇이 전달하는 정보의 정서코드에 맞게 로봇의 표정이 변화할 때와 로봇이 인터랙션 사이클을 자발적으로 시작할 때 사용자의 인지와 정서에 미치는 영향을 이야기 회상 검사(Story Recall Test: STR)와 표정 감정 분석 소프트웨어 Emotion API로 검증하였다. 실험 결과, 정보의 정서코드에 맞는 로봇의 표정 변화 그룹이 회상 검사에서 상대적으로 높은 기억 회상률을 보였다. 한편 피험자의 표정 분석에서는 로봇의 감정 표현과 자발적인 인터랙션 시작이 피험자들에게 정서적으로 긍정적 영향을 주고 선호되는 것을 확인하였다.

지능형 로봇과의 공존에 대한 중학생들의 인식 조사 (A Study on Middle School Students' Perception on Intelligent Robots as companions.)

  • 김양은;김현철
    • 컴퓨터교육학회논문지
    • /
    • 제22권4호
    • /
    • pp.35-45
    • /
    • 2019
  • 미래 세대들은 지능형 로봇과 공존에 대해 어떻게 인식하고 있는지는 SW와 인공지능 교육을 어떻게 설계하고 진행해야 하는지에 중요한 요소가 된다. 본 연구는 중학생 1학년 214명을 대상으로 설문 조사를 진행하였으며 인식의 차이를 확인하기 위해 예상되는 문제 상황에 대해 문제를 해결하는 과정과 대상에 대한 감정이입 여부를 통해 살펴보았다. 분석 결과, 첫째, 형태가 명시적이지 않은 경우에는 상하관계로 인식하고 있었고 둘째, 인간 형태의 경우에는 지능형 로봇을 대상으로 인식하고 대상과 의사소통 할 준비가 되어있었다. 셋째, 다수가 지능형 로봇에 감정을 느끼고 있었다. 넷째, 단순 기계 형태의 로봇에 대해서는 막연한 불안함을 느끼고 있었다. 본 연구는 지능형 로봇에 관한 인식을 확인한 사례 연구로서의 의의를 지니며 향후 중학생뿐만 아니라 다양한 연령층을 대상으로 로봇과 공존하며 살아갈 수 있는가에 대한 인식에 대해 고민하고 정립하는 것이 필요하다.