• 제목/요약/키워드: Emotional Facial Expression

검색결과 125건 처리시간 0.024초

에이전트의 표정과 목소리 정서의 교차양상지각 (Crossmodal Perception of Mismatched Emotional Expressions by Embodied Agents)

  • 조유숙;석지혜;한광희
    • 감성과학
    • /
    • 제12권3호
    • /
    • pp.267-278
    • /
    • 2009
  • 오늘날 가상 세계에서 인간과 인간, 컴퓨터와 인간의 상호작용을 좀 더 효율적으로 도와줄 수 있는 매개체로서 에이전트에 대한 관심이 증대되고 있다. 특히 에이전트의 정서표현도 인간의 정서 표현처럼 해석할 수 있고 그에 대해 인간의 정서표현에 반응하는 것과 마찬가지의 방식으로 반응한다는 연구들이 있어왔다. 그렇다면 에이전트의 정서표현이 표정과 목소리에서 서로 불일치한다면 어떤 쪽에 더 치중해서 에이전트의 정서를 해석할지 또는 어느 한 쪽에 치중하는 것이 아니라 두 정서 모두 조합해서 받아들일지 알아보고자 했다. 또한 만약 표정과 목소리의 두 가지 정서를 조합해서 인지한다면 표정이나 목소리에서는 표현되지 않은 제 3의 정서를 느끼지는 않는 것인지 알아보았다. 실험은 표정(4) $\times$ 목소리(4)로 이루어졌다. 실험 결과 사람들은 에이전트의 한 가지 채널에 지배받아서 정서를 인지하는 것이 아니라 표정(시각)과 목소리(청각) 두 채널 모두를 조합해서 정서를 인지하는 것으로 나타났다. 또한 두 채널의 정서가 불일치할 때에는 혼란에 빠져 무슨 정서인지 모르게 되는 것이 아니라 또 다른 실망, 지루함, 지친, 반가운 등의 제 3의 정서를 느끼는 것으로 나타났다.

  • PDF

음성 인터페이스와의 상호작용에서 AI 음성이 성별에 따른 사용자의 감성 만족도에 미치는 영향 (Moderating Effects of User Gender and AI Voice on the Emotional Satisfaction of Users When Interacting with a Voice User Interface)

  • 신종규;강준모;박영진;김상호
    • 감성과학
    • /
    • 제25권3호
    • /
    • pp.127-134
    • /
    • 2022
  • 본 연구의 목적은 음성 인터페이스(Voice User Interface, VUI)를 이루는 설계변수 중 사용자에게 긍정적인 감성을 유발하는 설계변수를 확인하는 것이다. 특히, 사용자의 성별과 설계변수의 조절 효과를 분석하여 VUI와 상호작용하는 동안 사용자가 만족할 수 있는 적절한 설계변수 수준을 찾아보고자 하였다. 선행연구를 통해 VUI에 사용되는 음성설계변수 중에서 사용자의 감성 만족도에 영향을 미칠 수 있는 설계변수 6가지를 도출하였다. 설계변수는 수준을 조절할 수 있도록 Wizard of OZ를 활용하여 VUI 시스템을 구현하였고, 6가지 설계변수의 수준을 조합하여 사용자와 음성으로 대화를 할 수 있도록 구성하였다. 실험에 참여한 사용자는 총 80명으로, 남/여 성비를 고려하여 각 40명씩 모집하였다. 사용자는 VUI와 주어진 임무에 대한 정답을 알아내기 위해 자연스러운 대화를 진행하며, 그동안의 얼굴표정 변화에 대한 이미지 데이터를 수집 및 표정 분석 소프트웨어를 통해 Valence 점수로 변환하였다. Valence 데이터를 기반으로 빈도 및 카이제곱 분석을 통해 확인한 결과, 사용자의 성별과 AI gender간의 조절효과가 유의한 것으로 나타났다. 이 결과는 VUI를 설계할 때 사용자의 성별 차이를 고려하는 것이 좋다는 것을 의미한다. 결론적으로, 남성 사용자의 경우 성인/남성/높은 톤의 음성, 여성 사용자의 경우 성인/여성/중간톤의 음성이 향후 만족스러운 인터랙션 구현을 위한 VUI 설계에 주요한 가이드라인인 것을 확인하였다. 본 연구의 결과를 통해 향후 다양한 인적 요소를 고려하여 UX 관점에서 인간-AI 상호작용을 보다 섬세하게 분석할 수 있을 것이며, 표정을 통한 실시간 감성 측정을 위한 기초연구로 활용될 수 있을 것이다.

감정표현을 위한 FACS 기반의 안드로이드 헤드의 개발 (Development of FACS-based Android Head for Emotional Expressions)

  • 최동운;이덕연;이동욱
    • 방송공학회논문지
    • /
    • 제25권4호
    • /
    • pp.537-544
    • /
    • 2020
  • 본 논문에서는 FACS(Facial Action Coding System)에 기반을 둔 안드로이드 로봇 헤드의 개발을 통한 감정표현 방법을 제안한다. 안드로이드 로봇은 인간과 가까운 외모를 가진 로봇을 말하며, 인공 피부, 인공 근육을 가지고 있다. 감정 표현을 로봇으로 구현하기 위해서는 인공 근육의 개수와 배치를 정하여야 하는데 이를 위해 인간의 얼굴 움직임을 해부학적으로 분석하였다. FACS는 해부학을 기반으로 하여 표정을 만들 때의 얼굴의 움직임을 분석한 시스템이다. FACS에서는 표정은 AU(Action Unit)의 조합으로 만들어지며, 이 AU를 기반으로 로봇의 인공 근육의 수와 위치를 정하게 된다. 개발된 안드로이드 헤드는 30개의 인공 근육에 해당되는 모터와 와이어를 가지고 있으며, 표정 구현을 위한 인공 피부를 가지고 있다. 제한된 머리 공간에 많은 모터를 탑재하기 위해 spherical joint와 스프링을 이용하여 초소형 안구 모듈이 개발되었고, 와이어 경로의 효율적인 설계를 기반으로 30개의 모터가 배치되었다. 제작된 안드로이드 헤드는 30 자유도를 가지고 13개의 기본 감정 표현을 구현 가능하였고, 전시회에서 일반 관람객들을 대상으로 인식률을 평가 받았다.

A Study on the Image of Male Flight Attendant on Customer Satisfaction

  • Kim, Min-Ji;Park, Hye-Yoon;Park, So-Yeon
    • 유통과학연구
    • /
    • 제15권8호
    • /
    • pp.37-46
    • /
    • 2017
  • Purpose - Many studies have shown the effects of the external images of female flight attendants on the customers' satisfaction. Recently, the perception of male flight attendants has become more important and positive, and airlines are hiring a significant number of male flight attendants every year. Due to the lack of research on the male flight attendant, however, the images of male flight attendants were investigated for this study. Research, design, data and methodology - Using survey techniques with 204 respondents, this study used analytical data based their resulting analysis. Results - The study examined whether the image of the male flight attendant affects the cognitive and emotional perceptions of customers. The focus of the present study is the external image of the male flight attendant, and the following image-component divisions were formed: hairstyle, body type, uniform, speech, and facial expression. Conclusions - The study purpose sought to determine whether the image of the male flight attendant exert effects on the emotional and cognitive images of airlines, and if these images have a positive effect on the customers' satisfaction and loyalty for an airline, so that airlines can use the external image of the male flight attendant to help with its own image reinforcement.

지능형 표정로봇, 휴머노이드 ICHR (Intelligent Countenance Robot, Humanoid ICHR)

  • 변상준
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2006년도 학술대회 논문집 전문대학교육위원
    • /
    • pp.175-180
    • /
    • 2006
  • In this paper, we develope a type of humanoid robot which can express its emotion against human actions. To interact with human, the developed robot has several abilities to express its emotion, which are verbal communication with human through voice/image recognition, motion tracking, and facial expression using fourteen Servo Motors. The proposed humanoid robot system consists of a control board designed with AVR90S8535 to control servor motors, a framework equipped with fourteen server motors and two CCD cameras, a personal computer to monitor its operations. The results of this research illustrate that our intelligent emotional humanoid robot is very intuitive and friendly so human can interact with the robot very easily.

  • PDF

카카오톡 이모티콘 캐릭터 디자인에서 웃음 유발 요인에 관한 연구 (Study on Laughter-arousing Factors of Character Designs of Kakaotalk Emoticons)

  • 이은경;최명식;김치용
    • 한국멀티미디어학회논문지
    • /
    • 제18권2호
    • /
    • pp.253-259
    • /
    • 2015
  • The spread of smartphones enabled the two-way communication through the Internet, and character emoticons added fun and comfort to communication among users. To figure out laughter-arousing factors, a survey about emoticon designs of Kakaotalk Itemstore was conducted, targeting university students in their twenties. An interaction of 'user-preferred emoticons' and 'laughter-arousing emoticons' was analyzed. 90% of 'user-preferred emoticons' were 'humorous emoticons', and 84% of respondents answered that there is a relationship between 'user-preferred emoticons' and 'laughter-arousing emoticons'. Consequently, a high interaction between the 'rank of emoticons' and 'laughter-arousing emoticons' was derived. Also, factors of laughter-arousing emoticons were analyzed by studying the ranks of emoticon from 1st to 8th of Kakaotalk Itemstore. Two-divisional figures reminding pure kids, maximization of emotional expression by omission or exaggeration of mouth, and smoothness by concave curves aroused laughter. Intuitively understandable gestures were employed in terms of action. Furthermore, two-divisional figures' acting with comparably small body, hands and foot to their head, and people-mimicking motions of animals with cuteness and familiarity enabled arousal of laughter. In facial expressions, humorous articulation of sad, busy or mad expression enabled positive communion among users.

표상 유사성 분석을 이용한 연령별 얼굴 정서 차원 비교 (Comparison Between Core Affect Dimensional Structures of Different Ages using Representational Similarity Analysis)

  • 김종완
    • 감성과학
    • /
    • 제26권1호
    • /
    • pp.33-42
    • /
    • 2023
  • 기존의 연령별 얼굴정서 인식 비교 연구에서는 정서별로 연령 간에 어떤 차이가 있는지 밝혔다. 이에 Kim(2021) 연구에서는 개별 정서가 아닌 정서공간에서 표상된 정서를 연령 간 비교하였다는 점에서 의의가 있으나, 기술적(descriptive) 비교만 시행하였을 뿐, 통계적 유의미 검증을 하지 않았다는 한계가 있다. 본 연구에서는 표상 유사성 분석(representational similarity analysis) 방법을 통해 연령간 실제 데이터 및 정서 모델 유사성행렬을 직접적으로 비교하였다. 또한 개인차 다차원척도법(individual differences multidimensional scaling)을 통해 연령간 정서 차원에 대한 비중을 비교하였다. 그 결과 실제 데이터 비교에서 노년 집단은 청년 및 중년 집단과 가장 유사하지 않았으며, 쾌불쾌 차원이 포함된 정서 모델과의 유사성 비교에서도 가장 유사하지 않았다. 또한 노년 집단은 각성 차원에 대한 비중이 청년 및 중년 집단과 유사하지 않음이 발견되었다. 본 연구는 실제 데이터, 정서 모델, 그리고 정서 차원 비중이라는 세 가지 측정치에 대해 노년 집단과 청년 및 중년 집단과의 차이를 통계적으로 검증하였다는 점에서 의의가 있다.

가상현실 수업시뮬레이션에서 가상학생과의 정서적 상호작용이 사용자의 시선응시 및 가상실재감에 미치는 영향 (The Effects of Emotional Interaction with Virtual Student on the User's Eye-fixation and Virtual Presence in the Teaching Simulation)

  • 류지헌;김국현
    • 한국콘텐츠학회논문지
    • /
    • 제20권2호
    • /
    • pp.581-593
    • /
    • 2020
  • 이 연구의 목적은 가상현실 시뮬레이션에서 아바타에 대한 사용자의 주의집중이 어떻게 일어나는가를 분석하기 위한 것이다. 주의집중 정도를 알기 위해서 시선추적 기법을 적용했으며, 이를 통하여 사용자가 아바타의 어느 부분에 초점을 두고 있는지 검증하고자 하였다. 이 연구에서는 수업시뮬레이션에서 아바타에 대한 사용자의 시선응시 시간과 가상실재감을 분석했다. 실험참가자는 대학생 45명(여학생=21명, 남학생=24명)이었다. 이 연구에서는 가상현실 기반의 수업시뮬레이션이 사용되었으며, 교권침해에 대한 시나리오들이 적용되었다. 종속변수는 아바타에 대한 사용자의 시선응시시간이며 3개의 관심영역(AOI)에 대한 차이분석을 실시했다. 또한 실험조건에 대한 사용자의 가상실재감(공간실재감, 몰두감, 사실성)을 측정했다. 실험참가자는 두 가지 시나리오를 모두 경험했으며, 반복측정에 의한 다변량분산분석을 실시했다. 연구결과에 의하면 시나리오와 AOI에 의한 유의미한 상호작용이 있었고, 시나리오와 AOI에 따른 주효과도 유의미한 차이가 보였다. 시나리오의 유형과 상관없이 사용자는 언제나 아바타의 얼굴표정에 상당히 많은 시선응시를 하고 있는 것으로 나타났다.

감정 기반 모바일 손제스쳐 애니메이션 제작 시스템 (Emotion Based Gesture Animation Generation Mobile System)

  • 이정숙;변혜원
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.129-134
    • /
    • 2009
  • 최근 모바일의 문자 서비스를 사용하여 사람들과 소통하는 사용자가 늘어나고 있다. 하지만 기존 문자 서비스의 문장과 이모티콘 만으로는 자신의 감정을 정확히 표현하기 어렵다. 이러한 점에 착안하여, 본 논문에서는 문자 내용이 나타내는 감정과 분위기 및 뉘앙스를 정확하고 재미있게 전달하기 위해서 캐릭터 애니메이션을 활용하였다. 문자 내용의 감정을 말보다 역동적이고 뚜렷하게 전달하기 위해서 캐릭터의 얼굴 표정과 손제스쳐로 감정과 내용을 나타내는 감정 기반 모바일 손제스쳐 애니메이션 제작 시스템을 제안한다. Michel[1]등은 화자의 스타일을 나타낸 손제스쳐 애니메이션 제작을 위해서 인터뷰 영상을 분석하고 손제스쳐가 자연스럽게 연결되는 애니메이션 생성을 위한 손제스쳐 생성 그래프를 제안하였다. 본 논문에서는 Michel[1]의 논문을 확장하여 캐릭터의 감정을 손제스쳐로 과장되게 표현한 디즈니 애니메이션에서 단어의 감정을 표현하는 손제스쳐를 추출하고 자연스럽게 연결된 모바일 3차원 애니메이션으로 제작하는 것에 초점을 맞춘다. 특히 입력된 문장의 감정에 맞는 손제스쳐를 선택하는 감정 손제스쳐 생성 그래프를 제안하고 감정의 자연스러운 흐름을 반영하는 방법을 제시한다. 제안된 시스템의 타당성과 기존 서비스와의 대체 적정도를 알아보기 위해서 사용자 반응을 조사 분석한다.

  • PDF

챗봇의 사회적 현존감을 위한 비언어적 감정 표현 방식 (Non-verbal Emotional Expressions for Social Presence of Chatbot Interface)

  • 강민정
    • 한국콘텐츠학회논문지
    • /
    • 제21권1호
    • /
    • pp.1-11
    • /
    • 2021
  • 챗봇과 친밀한 관계를 느끼고 대화에 몰입감을 높이기 위해 인간의 감정을 정확히 인지하고 그에 적합한 감정적 반응을 표현하는 인공지능 연구가 활발히 진행되고 있다. 따라서 본 연구에서는 챗봇이 감정을 표현할 때 사람같이 느끼게 하는 사회적 현존감을 높이는 비언어적 표현 방식에 대해서 밝히고자 한다. 본 연구는 우선 배경연구를 진행하여 표정이 가장 감정을 잘 드러내는 비언어적 표현이며 움직임은 관계몰입에 중요하다는 것을 파악하였다. 이를 바탕으로 감정에 따라 사회적 현존감이 느껴지는 표현 방식을 밝히기 위해 5가지 기본 감정인, 기쁨, 슬픔, 놀람, 두려움, 화남을 동적 텍스트, 동적 제스처, 정적 표정 이모티콘으로 자극물을 준비하여 설문조사를 통해 가장 사회적 현존감이 느껴지는 표현 방식을 각 감정별로 택하도록 하였다. 설문 결과 기쁨과 같은 긍정적이고 각성 상태가 높은 감정에서는 동적인 표현이, 슬픔과 화남과 같은 부정적인 감정에서는 정적 표정 이모티콘이, 놀람, 두려움과 같은 중립적 감정의 경우 의미를 확실히 알 수 있는 동적 텍스트가 주로 선택되었다. 본 연구 결과는 챗봇 개발 시 감정을 표현하는 방식을 정할 때 중요한 참고자료가 될 것으로 기대한다.