• 제목/요약/키워드: 얼굴감정 표현

검색결과 92건 처리시간 0.021초

멀티 모달 감정인식 시스템 기반 상황인식 서비스 추론 기술 개발 (Development of Context Awareness and Service Reasoning Technique for Handicapped People)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.34-39
    • /
    • 2009
  • 사람의 감정은 주관적인 인식 작용으로서 충동적인 성향을 띄고 있으며 무의식중의 사람의 욕구와 의도를 표현하고 있다. 이는 유비쿼터스 컴퓨팅 환경이나 지능형 로봇의 사용자가 처한 환경의 상황정보 중에서 사용자의 의도를 가장 많이 포함하고 있는 정보라고 할 수 있다. 이러한 사용자의 감정을 파악할 수 있는 지표는 사람의 얼굴 영상에서의 표정과 음성신호에서의 Spectrum 통계치 및 생체신호(근전위, 뇌파, 등)등 이다. 본 논문에서는 감정인식 활용의 편의와 효율성 향상을 주목적으로 하여 사용자의 얼굴 영상과 음성을 이용한 감정인식에 대하여 개별 결과물만을 산출하고 그 인식률을 검토한다. 또한 임의의 상황에서의 인식률 향상을 위하여 영상과 음성의 특징을 기반으로 최적의 특징 정보들을 구별해 내고, 각각의 개별 감정 특징에 대한 융합을 시도하는 특징 융합 기반의 Multi-Modal 감정인식 기법을 구현한다. 최종적으로 감정인식 결과를 이용하여 유비쿼터스 컴퓨팅 환경에서 발생 가능한 상황 설정 시나리오와 베이지만 네트워크를 통해 유비쿼터스 컴퓨팅 서비스의 확률 추론 가능성을 제시하고자 한다.

PCA을 이용한 얼굴 표정의 감정 인식 방법 (Emotion Recognition Method of Facial Image using PCA)

  • 김호덕;양현창;박창현;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제16권6호
    • /
    • pp.772-776
    • /
    • 2006
  • 얼굴 표정인식에 관한 연구는 대부분 얼굴의 정면 화상을 가지고 연구를 한다. 얼굴 표정인식에 큰 영향을 미치는 대표적인 부위는 눈과 입이다. 그래서 표정 인식 연구자들은 눈, 눈썹, 입을 중심으로 표정 인식이나 표현 연구를 해왔다. 그러나 일상생활에서 카메라 앞에서는 대부분의 사람들은 눈동자의 빠른 변화의 인지가 어렵다. 또한 많은 사람들이 안경을 쓰고 있다. 그래서 본 연구에서는 눈이 가려진 경우의 표정 인식을 Principal Component Analysis (PCA)를 이용하여 시도하였다.

소비자 시선 분석을 통한 소셜로봇 태도 형성 메커니즘 연구: 로봇의 얼굴을 중심으로 (A Study on the Mechanism of Social Robot Attitude Formation through Consumer Gaze Analysis: Focusing on the Robot's Face)

  • 하상집;이은주;유인진;박도형
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.243-262
    • /
    • 2022
  • 본 연구는 소셜로봇 디자인 연구의 흐름 중 하나인 로봇의 외형에 관하여 시선 추적(Eye Tracking)을 활용하여 로봇에 대한 사용자의 태도를 형성하는 메커니즘을 발견하고, 로봇 디자인 시 참고할 수 있는 구체적인 인사이트를 발굴하고자 하였다. 소셜로봇의 몸 전체, 얼굴, 눈, 입술 등을 관심 영역(Area of Interest: AOI)으로 설정하여 측정된 사용자의 시선 추적 지표와 디자인평가 설문을 통하여 파악된 사용자의 태도를 연결하여 소셜로봇 디자인의 연구 모형을 구성하였다. 구체적으로 본 연구에서 사용된 시선 추적 지표는 고정된 시간(Fixation), 첫 응시 시간(First Visit), 전체 머문 시간(Total Viewed), 그리고 재방문 횟수(Revisits)이며, 관심 영역인 AOI(Areas of Interests)는 소셜로봇의 얼굴, 눈, 입술, 그리고 몸체로 설계하였다. 그리고 디자인평가 설문을 통하여 소셜로봇의 감정 표현(Expressive), 인간다움(Human-like), 얼굴 두각성(Face-highlighted) 등의 소비자 신념을 수집하였고, 종속변수로 로봇에 대한 태도를 설정하였다. 시선 반응에 따른 소셜로봇에 대한 태도를 형성하는 과정에서 두가지 경로를 통해 영향을 미치는 것을 확인되었다. 첫번째는 시선이 태도에 직접적으로 미치는 영향으로 소셜로봇의 얼굴과 눈의 응시에 따라 긍정적인 태도 인 것으로 나타났다. 구체적으로, 로봇의 첫 응시 시점이 이를수록 눈에서는 머문 시간이 길고 재방문 빈도가 낮을수록 로봇에 대한 태도를 긍정적으로 평가하였다. 즉 소셜로봇을 얼굴보다 눈에 집중해서 보게 될 때 피험자들이 로봇에 대한 판단에 있어 직접적으로 영향을 주는 것으로 나타났다. 두번째로는 로봇에 대한 인지적 지각된 측면을 고려하여 얼굴 두각성(Face-highlighted), 의인화(Human-like), 감정 표현(Expressive)이 태도에 미치는 영향의 결과로 모두 긍정적인 영향을 미치는 것으로 나타났다. 또한 소셜로봇에 대한 지각이 구체적으로 로봇의 어떤 외형적 요소가 연관성을 가지는지 살펴본 결과 소셜로봇의 얼굴과 입술에 머문 시간이 길수록 입술을 다시 주시하지 않을수록 Face-highlighted에 긍정적인 영향을 주는 것으로 나타났다. 그리고 전신은 첫 응시가 늦을수록, 입술은 첫 응시가 빠르고 시선이 고정된 시간이 짧을수록 Human-like에 긍정적인 영향이 미치는 것으로 나타났다. 마지막으로 소셜로봇의 얼굴에 머문 시간은 길수록 Expressive에 긍정적인 영향이 미치는 것으로 나타났다.

컴패니언 로봇의 멀티 모달 대화 인터랙션에서의 감정 표현 디자인 연구 (Design of the emotion expression in multimodal conversation interaction of companion robot)

  • 이슬비;유승헌
    • 디자인융복합연구
    • /
    • 제16권6호
    • /
    • pp.137-152
    • /
    • 2017
  • 본 연구는 실버세대를 위한 컴패니언 로봇의 인터랙션 경험 디자인을 위해 사용자 태스크- 로봇 기능 적합도 매핑에 기반한 로봇 유형 분석과 멀티모달 대화 인터랙션에서의 로봇 감정표현 연구를 수행하였다. 노인의 니즈 분석을 위해 노인과 자원 봉사자를 대상으로 FGI, 에스노그래피를 진행하였으며 로봇 지원 기능과 엑추에이터 매칭을 통해 로봇 기능 조합 유형에 대한 분석을 하였다. 도출된 4가지 유형의 로봇 중 표정 기반 대화형 로봇 유형으로 프로토타이핑을 하였으며 에크만의 얼굴 움직임 부호화 시스템(Facial Action Coding System: FACS)을 기반으로 6가지 기본 감정에 대한 표정을 시각화하였다. 사용자 실험에서는 로봇이 전달하는 정보의 정서코드에 맞게 로봇의 표정이 변화할 때와 로봇이 인터랙션 사이클을 자발적으로 시작할 때 사용자의 인지와 정서에 미치는 영향을 이야기 회상 검사(Story Recall Test: STR)와 표정 감정 분석 소프트웨어 Emotion API로 검증하였다. 실험 결과, 정보의 정서코드에 맞는 로봇의 표정 변화 그룹이 회상 검사에서 상대적으로 높은 기억 회상률을 보였다. 한편 피험자의 표정 분석에서는 로봇의 감정 표현과 자발적인 인터랙션 시작이 피험자들에게 정서적으로 긍정적 영향을 주고 선호되는 것을 확인하였다.

가상현실 에이전트와의 감성적 상호작용 기법 (Affective interaction to emotion expressive VR agents)

  • 최아영
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제22권5호
    • /
    • pp.37-47
    • /
    • 2016
  • 최근 인간과 에이전트 간의 감성적인 상호작용을 지원하기 위해 에이전트의 기쁨, 슬픔 등의 얼굴 표정에 대한 사용자의 반응을 분석하는 연구들이 진행되었다. 그러나 기존의 연구에서는 사용자가 긍정적 혹은 부정적으로 평가하는 지를 검증하기 위해 주로 설문지를 통해 사용자 피드백을 획득하는 방법을 사용하였다. 본 연구에서는 인간과 에이전트 상호작용에서 에이전트의 얼굴 표정에 대한 사용자의 생체신호를 측정하여 감성적인 영향이 있는지 살펴보았다. 일관성 있는 생체 신호 해석 결과를 도출하기 위해 실시간으로 심박수와 피부전도도 등의 생체 신호를 획득하고, 명시적 혹은 비명시적인 피드백 분석방법을 통합하여, 해석을 안정적으로 하도록 하였다. 실험결과 에이전트의 긍정(혹은 부정)적인 얼굴 표정이 사용자의 긍정(혹은 부정)적인 반응을 이끌어 냄을 확인할 수 있었다. 또한, 인간과 에이전트와의 상호작용에서도 인간과 인간의 상호작용과 유사하게 에이전트의 긍정적인 얼굴 표정이 사용자의 부정적인 감정을 감소시킴을 확인할 수 있었다. 본 연구는 인간과 에이전트의 감성적인 상호작용을 위해 에이전트의 얼굴 표정을 디자인하기 위한 근거로 활용할 수 있다.

IPTV 및 스마트폰을 위한 감성 메신저의 개발 (Development of an Emotional Messenger for IPTV and Smart Phone)

  • 성민영;남궁찬;백선욱;안성혜
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 추계학술발표대회
    • /
    • pp.1533-1535
    • /
    • 2010
  • 사용자의 감정을 자동으로 인식하고 3D 캐릭터 애니메이션을 통해 표현한다면 기기를 통한 통신에 더 풍부한 감성을 부여하여 의사 소통의 효과를 높일 수 있다. 본 논문에서는 IPTV와 스마트폰 기기에서 구동되는 감성 메신저의 개발에 대해 기술한다. 이를 위해 문장 및 음색 분석을 통한 감정 인식, 영상 속의 얼굴 표정 추적, 그리고 개인화된 3D 캐릭터의 표정 및 몸동작 애니메이션을 통해 감정을 전달하는 감성 메신저를 제안하고 그 효과를 서술한다. Naive Bayes 알고리즘을 이용한 채팅 문장에서의 자동 감성 인식이 개발되었으며 실험을 통해 성능 및 효과를 검증한다.

감정표현을 위한 FACS 기반의 안드로이드 헤드의 개발 (Development of FACS-based Android Head for Emotional Expressions)

  • 최동운;이덕연;이동욱
    • 방송공학회논문지
    • /
    • 제25권4호
    • /
    • pp.537-544
    • /
    • 2020
  • 본 논문에서는 FACS(Facial Action Coding System)에 기반을 둔 안드로이드 로봇 헤드의 개발을 통한 감정표현 방법을 제안한다. 안드로이드 로봇은 인간과 가까운 외모를 가진 로봇을 말하며, 인공 피부, 인공 근육을 가지고 있다. 감정 표현을 로봇으로 구현하기 위해서는 인공 근육의 개수와 배치를 정하여야 하는데 이를 위해 인간의 얼굴 움직임을 해부학적으로 분석하였다. FACS는 해부학을 기반으로 하여 표정을 만들 때의 얼굴의 움직임을 분석한 시스템이다. FACS에서는 표정은 AU(Action Unit)의 조합으로 만들어지며, 이 AU를 기반으로 로봇의 인공 근육의 수와 위치를 정하게 된다. 개발된 안드로이드 헤드는 30개의 인공 근육에 해당되는 모터와 와이어를 가지고 있으며, 표정 구현을 위한 인공 피부를 가지고 있다. 제한된 머리 공간에 많은 모터를 탑재하기 위해 spherical joint와 스프링을 이용하여 초소형 안구 모듈이 개발되었고, 와이어 경로의 효율적인 설계를 기반으로 30개의 모터가 배치되었다. 제작된 안드로이드 헤드는 30 자유도를 가지고 13개의 기본 감정 표현을 구현 가능하였고, 전시회에서 일반 관람객들을 대상으로 인식률을 평가 받았다.

감정 자세 인식을 위한 자세특징과 감정예측 모델 (Posture features and emotion predictive models for affective postures recognition)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제12권6호
    • /
    • pp.83-94
    • /
    • 2011
  • 감정 컴퓨팅의 대표적 연구 주제는 기계가 사람의 감정을 인식하여 이에 적절히 대응하는 것이다. 감정 인식 연구에서는 얼굴과 목소리 단서를 이용하여 감정을 포착하는데 집중했으며 최근에 와서 행동자세를 주요 수단으로 이용하고 있다. 본 연구의 목적은 감정 표현에서 중요한 역할을 담당하는 자세 특징을 포착하고 확인하여 감정을 판별하는 것이다. 이를 위해 먼저 자세포착시스템으로 다양한 감정 자세를 수집하여 감정별 특징을 공간적 특징으로 설명한다. 그리고 동작을 취하는 행위자가 의도하는 감정과 관찰자가 인지하는 감정 간에 통계적으로 의미 있는 상관관계가 있음을 표준통계기술을 통해 확인한다. 6가지 주요 감정을 판별하기 위해 판별 분석법을 이용하여 감정 자세 예측 모델을 구축하고 자세 특징을 측정한다. 제안 특징과 모델의 평가는 행위자-관찰자 감정 자세 집단의 상관관계를 이용하여 수행한다. 정량적 실험 결과는 제안된 자세 특징으로 감정을 잘 판별하며 감정 예측 모델이 잘 수행됨을 보여준다.

얼굴 표정 인식을 위한 Densely Backward Attention 기반 컨볼루션 네트워크 (Convolutional Network with Densely Backward Attention for Facial Expression Recognition)

  • 서현석;;이승룡
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.958-961
    • /
    • 2019
  • Convolutional neural network(CNN)의 등장으로 얼굴 표현 인식 연구는 많은 발전을 이루었다. 그러나, 기존의 CNN 접근법은 미리 학습된 훈련모델에서 Multiple-level 의 의미적 맥락을 포함하지 않는 Attention-embedded 문제가 발생한다. 사람의 얼굴 감정은 다양한 근육의 움직임과 결합에 기초하여 관찰되며, CNN 에서 딥 레이어의 산출물로 나온 특징들의 결합은 많은 서브샘플링 단계를 통해서 class 구별와 같은 의미 정보의 손실이 일어나기 때문에 전이 학습을 통한 올바른 훈련 모델 생성이 어렵다는 단점이 있다. 따라서, 본 논문은 Backbone 네트워크의 Multi-level 특성에서 Channel-wise Attention 통합 및 의미 정보를 포함하여 높은 인식 성능을 달성하는 Densely Backwarnd Attention(DBA) CNN 방법을 제안한다. 제안하는 기법은 High-level 기능에서 채널 간 시멘틱 정보를 활용하여 세분화된 시멘틱 정보를 Low-level 버전에서 다시 재조정한다. 그런 다음, 중요한 얼굴 표정의 묘사를 분명하게 포함시키기 위해서 multi-level 데이터를 통합하는 단계를 추가로 실행한다. 실험을 통해, 제안된 접근방법이 정확도 79.37%를 달성 하여 제안 기술이 효율성이 있음을 증명하였다.

소비자 시선 분석을 통한 소셜로봇 태도 형성 메커니즘 연구: 로봇의 얼굴을 중심으로 (A Study on the Mechanism of Social Robot Attitude Formation through Consumer Gaze Analysis: Focusing on the Robot's Face)

  • 하상집;이은주;유인진;박도형
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제64차 하계학술대회논문집 29권2호
    • /
    • pp.409-414
    • /
    • 2021
  • 본 연구는 소셜로봇 디자인 연구의 흐름 중 하나인 로봇의 외형에 관하여 시선 추적을 활용하고자 한다. 소셜로봇의 몸 전체, 얼굴, 눈, 입술 등의 관심 영역으로부터 측정된 사용자의 시선 추적 지표와 디자인평가 설문을 통하여 파악된 사용자의 태도를 연결하여 소셜로봇의 디자인에 연구 모형을 구성하였다. 구체적으로 로봇에 대한 사용자의 태도를 형성하는 메커니즘을 발견하여 로봇 디자인 시 참고할 수 있는 구체적인 인사이트를 발굴하고자 하였다. 구체적으로 본 연구에서 사용된 시선 추적 지표는 고정된 시간(Fixation), 첫 응시 시간(First Visit), 전체 머문 시간(Total Viewed), 그리고 재방문 횟수(Revisits)이며, 관심 영역인 AOI(Areas of Interests)는 소셜로봇의 얼굴, 눈, 입술, 그리고 몸체로 설계하였다. 그리고 디자인평가 설문을 통하여 소셜로봇의 감정 표현, 인간다움, 얼굴 두각성 등의 소비자 신념을 수집하였고, 종속변수로 로봇에 대한 태도로 설정하였다.

  • PDF