• 제목/요약/키워드: facial expression generation

검색결과 32건 처리시간 0.024초

3차원 얼굴 표정 애니메이션을 위한 기대효과의 자동 생성 (Automatic Anticipation Generation for 3D Facial Animation)

  • 최정주;김동선;이인권
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권1호
    • /
    • pp.39-48
    • /
    • 2005
  • 전통적인 2차원 애니메이션 제작기법에 의하면, 애니메이션의 기대효과(Anticipation)는 동작에 대한 준비단계로서 사실적이고 풍부한 표현을 하는데 중요한 역할을 한다고 알려져 있다. 얼굴 표정 애니메이션 데이타가 충분히 길다고 가정하면, 특정한 얼굴 표정에 대한 기대효과가 주어진 애니메이션 데이타에 존재할 가능성이 높다. 본 논문에서는 주어진 얼굴 표정 애니메이션 데이타로부터 얼굴 표정의 기대효과를 자동으로 추출하여 추가하는 방법을 제시한다. 먼저 애니메이션 데이타에 대해 중요요소분석법(Principal Component Analysis)을 적용하여 얼굴 모델의 모든 정점을 비슷한 움직임의 방향을 갖는 요소(Component)의 집합으로 분류한다. 각각의 요소에 대하여, 반대 방향의 움직임을 갖는 보정 애니메이션 데이타를 파 요소에 대한 기대효과로서 추출하고, 이 중에서 얼굴 모델의 위상정보를 보존하는 최적의 기대효과를 주어진 보정의 기대효과로 선택한다. 선택된 기대효과는 애니메이션 데이타의 연속성과 재생 시간을 유지하도록 주어진 표정과 적절히 합성(Blend)한다. 모션캡쳐 및 키프레임 작업에 의한 3차원 얼굴 보정 애니메이션 데이타를 입력으로 하여 기대효과론 자동으로 생성하는 실험격과를 제시한다. 본 논문은 전통적인 2차원 애니메이션 제자방법 중 하나인 기대효과를 3차원 얼굴 표정 애니메이션에 적용하는 새로운 방법을 제시하여, 애니메이션 제작자가 얼굴 표정을 선택하는 간단한 상호작용만으로도 기대효과가 추가된 3차원 얼굴 보정 애니메이션을 손쉽게 얻을 수 있다.

딥러닝을 활용한 예술로봇의 관객 감정 파악과 공감적 표정 생성 (Estimation and Generation of Facial Expression Using Deep Learning for Art Robot)

  • 노진아
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2019년도 춘계종합학술대회
    • /
    • pp.183-184
    • /
    • 2019
  • 본 논문에서는 로봇과 사람의 자연스러운 감정 소통을 위한 비디오 시퀀스 표정생성 대화 시스템을 제안한다. 제안된 시스템에서는 실시간 비디오 데이터로 판단된 관객의 감정 상태를 반영한 대답을 하며, 딥러닝(Deep Learning)을 활용하여 대화의 맥락에 맞는 로봇의 표정을 실시간 생성한다. 본 논문에서 관객의 표정을 위해 3만여개의 비디오 데이터로 학습한 결과 88%의 학습 정확도로 표정 생성이 가능한 것으로 확인되었다. 본 연구는 로봇 표정 생성에 딥러닝 방식을 적용한 것에 그 의의가 있으며 향후 대화 시스템 자체에도 딥러닝 방식을 확대 적용하기 위한 초석이 될 수 있다는 점에 의의가 있다.

  • PDF

대화 영상 생성을 위한 한국어 감정음성 및 얼굴 표정 데이터베이스 (Korean Emotional Speech and Facial Expression Database for Emotional Audio-Visual Speech Generation)

  • 백지영;김세라;이석필
    • 인터넷정보학회논문지
    • /
    • 제23권2호
    • /
    • pp.71-77
    • /
    • 2022
  • 본 연구에서는 음성 합성 모델을 감정에 따라 음성을 합성하는 모델로 확장하고 감정에 따른 얼굴 표정을 생성하기 위한 데이터 베이스를 수집한다. 데이터베이스는 남성과 여성의 데이터가 구분되며 감정이 담긴 발화와 얼굴 표정으로 구성되어 있다. 성별이 다른 2명의 전문 연기자가 한국어로 문장을 발음한다. 각 문장은 anger, happiness, neutrality, sadness의 4가지 감정으로 구분된다. 각 연기자들은 한 가지의 감정 당 약 3300개의 문장을 연기한다. 이를 촬영하여 수집한 전체 26468개의 문장은 중복되지 않으며 해당하는 감정과 유사한 내용을 담고 있다. 양질의 데이터베이스를 구축하는 것이 향후 연구의 성능에 중요한 역할을 하므로 데이터베이스를 감정의 범주, 강도, 진정성의 3가지 항목에 대해 평가한다. 데이터의 종류에 따른 정확도를 알아보기 위해 구축된 데이터베이스를 음성-영상 데이터, 음성 데이터, 영상 데이터로 나누어 평가를 진행하고 비교한다.

감정 기반 모바일 손제스쳐 애니메이션 제작 시스템 (Emotion Based Gesture Animation Generation Mobile System)

  • 이정숙;변혜원
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.129-134
    • /
    • 2009
  • 최근 모바일의 문자 서비스를 사용하여 사람들과 소통하는 사용자가 늘어나고 있다. 하지만 기존 문자 서비스의 문장과 이모티콘 만으로는 자신의 감정을 정확히 표현하기 어렵다. 이러한 점에 착안하여, 본 논문에서는 문자 내용이 나타내는 감정과 분위기 및 뉘앙스를 정확하고 재미있게 전달하기 위해서 캐릭터 애니메이션을 활용하였다. 문자 내용의 감정을 말보다 역동적이고 뚜렷하게 전달하기 위해서 캐릭터의 얼굴 표정과 손제스쳐로 감정과 내용을 나타내는 감정 기반 모바일 손제스쳐 애니메이션 제작 시스템을 제안한다. Michel[1]등은 화자의 스타일을 나타낸 손제스쳐 애니메이션 제작을 위해서 인터뷰 영상을 분석하고 손제스쳐가 자연스럽게 연결되는 애니메이션 생성을 위한 손제스쳐 생성 그래프를 제안하였다. 본 논문에서는 Michel[1]의 논문을 확장하여 캐릭터의 감정을 손제스쳐로 과장되게 표현한 디즈니 애니메이션에서 단어의 감정을 표현하는 손제스쳐를 추출하고 자연스럽게 연결된 모바일 3차원 애니메이션으로 제작하는 것에 초점을 맞춘다. 특히 입력된 문장의 감정에 맞는 손제스쳐를 선택하는 감정 손제스쳐 생성 그래프를 제안하고 감정의 자연스러운 흐름을 반영하는 방법을 제시한다. 제안된 시스템의 타당성과 기존 서비스와의 대체 적정도를 알아보기 위해서 사용자 반응을 조사 분석한다.

  • PDF

고유광류 분석에 의한 얼굴 표정 생성 (Generation of Facial Expression through Analyzing Eigen-Optical-Flows)

  • 김경수;최형일
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1998년도 춘계학술대회 학술발표 논문집
    • /
    • pp.165-168
    • /
    • 1998
  • 얼굴을 인식하는 연구 분야는 얼굴 영상을 분석하는 과정을 거친다. 또한, 얼굴 영상 분석은 얼굴 영상을 이용하는 모든 분야의 연구에 필요한 전처리 과정이라고 할 수 있다. 그러나 얼굴 영상을 분석하는 일은 많은 비용이 든다. 본 연구에서는 이러한 분석과정을 거치지 않고 얼굴 영상을 변형한다. 입력되어지는 얼굴 영상에 나타나는 얼굴 표정을 파악하기 위하여 입력되는 데이터의 변화를 가장 잘 표현해 주는 것으로 널리 알려져 있는 고유 벡터를 이용하며, 기존의 영상을 변형한새로운 영상을 생성하기 위해서 가장 직관적으로 사용할 수 있지만, 광류 영상을 구하는 과정이 시간적으로 많은 비용을 요구하기 때문에, 본 연구에서는 일반 영상에 대한 고유 벡터와 광류 영상에 대한 교유 벡터를 이용하여 고유 벡터 공간 상의 가중치 벡터를 전달하는 방법으로 영상을 처리할 때마다 수행하여야 하는 광류 계산과정을 제거하였다.

  • PDF

방송조명에서 언더라이트의 표현 양식과 의미 창출에 관한 연구 (A Study on the Mode of Address and Meaning Creation of Underlight in Broadcasting Lighting)

  • 김영진;박구만
    • 방송공학회논문지
    • /
    • 제21권5호
    • /
    • pp.749-759
    • /
    • 2016
  • 방송의 영상콘텐츠가 HDTV로 제작되고 모니터가 대형화되면서 방송 조명에서 피사체의 얼굴 표현이 더욱 중요한 과제가 되었다. HDTV는 빛에 의한 영상 표현의 정밀성의 확대로 피사체의 인물 모델링은 좀 더 부드럽고 깨끗한 영상이미지가 필요하다. 디지털 시대의 인물에 비춰지는 조명 방식도 새로운 변화가 필요하게 되었다. HD 영상에서 피사체의 미적 표현을 위한 언더라이트의 표현 특성을 이용한 인물 모델링 방식이 주목받고 있다. 이에 본 연구에서는 언더라이트 광원의 강도, 거리, 크기가 인물 모델링 특성에 어떻게 영향을 미치는지 실험 측정하여 비교 분석하였다. 실험 결과를 종합적으로 살펴보면 언더라이트의 최적의 효과를 나타내기 위해서 강도는 총 밝기 대비 17%∼25.5%, 거리는 40cm이후, 크기는 최소한 20cm이상이 되어야만 좋은 결과를 가져올 수 있음을 보여주고 있다. 이러한 데이터는 향후 고화질 영상에서 인물을 좀 더 부드럽고 깨끗한 이미지를 얻는데 활용도가 높은 자료가 될 것이다.

중국 사진가 샤오취안의 다큐멘터리적 초상사진에 관한 연구 : <우리들 세대>에 나타난 표현방식을 중심으로 (A Study on Xiao Quan's Documentary Portrait Focused on the Expression Method of )

  • 류원;양종훈;이상은
    • 한국콘텐츠학회논문지
    • /
    • 제18권12호
    • /
    • pp.108-117
    • /
    • 2018
  • 샤오취안은 정체되어 있던 중국의 다큐멘터리적 초상사진의 새로운 극복으로 평가되고 있다. 획일화되어 있던 집단적 접근 방식을 벗어나 사진가의 독창성에 기반한 개별적 접근방식의 형태를 제시했다. 특히, 샤오취안은 <우리들 세대>를 통해 중국의 개혁개방 이후 1980-90년대 문화, 예술 발전에 큰 역할을 한 인물들이 살아온 시대에 대한 자신의 감정과 해석을 일정한 사진적 형식을 통해 표현하고자 했다. 샤오취안은 촬영 대상과의 소통을 기반으로 인물의 진정한 내면적 모습을 파악하고 이에 영향을 끼친 시대적 배경 및 사상을 구현했다. 그는 촬영 대상의 복장과 생활환경을 활용해 그 시대의 문화, 예술적 흐름을 반영하고자 했다. 구도적으로도 화면 구조의 변화를 활용해 촬영 대상과 배경의 상징적 결합을 시도했다. 또한 인물의 표정을 통해 표현되는 감정을 시각적으로 구현해 사회상을 표현했다. 본 연구는 중국 초상사진의 다큐멘터리적 표현방식을 제시할 뿐만 아니라 역사적 기록으로써의 초상사진의 가치를 제고하는 기회를 제공한다.

긍정감정을 유도하기 위한 모방학습을 이용한 상호작용 시스템 프로토타입 개발 (Development of An Interactive System Prototype Using Imitation Learning to Induce Positive Emotion)

  • 오찬해;강창구
    • 한국정보전자통신기술학회논문지
    • /
    • 제14권4호
    • /
    • pp.239-246
    • /
    • 2021
  • 컴퓨터 그래픽스 및 HCI 분야에서 캐릭터를 만들고 자연스럽게 상호작용하는 시스템에 관한 많은 연구가 있었다. 이와 같은 연구들은 사용자의 행동에 대한 반응에 중점을 두었으며, 사용자에게 긍정적 감정을 끌어내기 위한 캐릭터의 행동 연구는 여전히 어려운 문제로 남아있다. 본 논문에서는 인공지능 기술을 이용하여 가상 캐릭터의 움직임에 따른 사용자의 긍정적 감정을 끌어내기 위한 상호작용 시스템 프로토타입을 개발한다. 제안된 시스템은 표정 인식과 가상 캐릭터의 동작 생성으로 구분된다. 표정 인식을 위해 깊이 카메라를 사용하며 인식된 사용자의 표정 데이터는 동작 생성으로 전달된다. 우리는 개인화된 상호작용 시스템 개발을 위하여 학습모델로서 모방학습을 사용한다. 동작 생성에서는 최초 사용자의 표정 데이터에 따라 무작위 행동을 수행하고 지속적인 모방학습을 통하여 사용자가 긍정적 감정을 끌어낼 수 있는 행동을 학습한다.

감정표현을 위한 FACS 기반의 안드로이드 헤드의 개발 (Development of FACS-based Android Head for Emotional Expressions)

  • 최동운;이덕연;이동욱
    • 방송공학회논문지
    • /
    • 제25권4호
    • /
    • pp.537-544
    • /
    • 2020
  • 본 논문에서는 FACS(Facial Action Coding System)에 기반을 둔 안드로이드 로봇 헤드의 개발을 통한 감정표현 방법을 제안한다. 안드로이드 로봇은 인간과 가까운 외모를 가진 로봇을 말하며, 인공 피부, 인공 근육을 가지고 있다. 감정 표현을 로봇으로 구현하기 위해서는 인공 근육의 개수와 배치를 정하여야 하는데 이를 위해 인간의 얼굴 움직임을 해부학적으로 분석하였다. FACS는 해부학을 기반으로 하여 표정을 만들 때의 얼굴의 움직임을 분석한 시스템이다. FACS에서는 표정은 AU(Action Unit)의 조합으로 만들어지며, 이 AU를 기반으로 로봇의 인공 근육의 수와 위치를 정하게 된다. 개발된 안드로이드 헤드는 30개의 인공 근육에 해당되는 모터와 와이어를 가지고 있으며, 표정 구현을 위한 인공 피부를 가지고 있다. 제한된 머리 공간에 많은 모터를 탑재하기 위해 spherical joint와 스프링을 이용하여 초소형 안구 모듈이 개발되었고, 와이어 경로의 효율적인 설계를 기반으로 30개의 모터가 배치되었다. 제작된 안드로이드 헤드는 30 자유도를 가지고 13개의 기본 감정 표현을 구현 가능하였고, 전시회에서 일반 관람객들을 대상으로 인식률을 평가 받았다.

얼굴 메이크업을 도와주는 지능형 스마트 거울 앱의설계 (Design of an Intellectual Smart Mirror Appication helping Face Makeup)

  • 오선진;이윤석
    • 문화기술의 융합
    • /
    • 제8권5호
    • /
    • pp.497-502
    • /
    • 2022
  • 최근 젊은 세대를 중심으로 정보의 유통이나 공유 수단으로 텍스트보다는 비주얼 기반의 정보 전달을 선호하는 경향이 뚜렷하며, 인터넷상의 유투브나 1인 방송 등을 통한 정보의 유통이 일상화되고 있다. 즉, 젊은 세대들은 대부분의 원하는 정보를 이러한 유통 과정을 거쳐 습득하게 되며 활용하는 상황이다. 또한, 많은 젊은 세대들은 자신을 개성있게 꾸미고 장식하는 데에 매우 과감하고 적극적이다. 얼굴 화장이나 헤어 스타일링 및 패션 연출에 있어 남녀구분 없이 적극적인 표현과 시도를 통해 개인의 개성을 거리낌이 없이 연출하는 경향이 있다. 특히, 얼굴 메이크업은 여자들은 물론이고 최근 남자들 사이에서도 관심의 대상이 되고 있으며, 자신의 개성을 표출할 수 있는 중요한 수단으로 인식되는 상황이다. 본 연구에서는 이러한 시대적 흐름에 발맞추어 자신의 독특한 개성을 나타내기 위한 얼굴메이크업을 연출하기 위해 자신의 얼굴 모양, 헤어 컬러 및 스타일, 피부 톤, 패션 스타일과 의상 컬러 등과 잘 어울리는 얼굴 메이크업을 구현하도록 인터넷상의 유명한 전문 메이크업 아티스트 들의 유투브나 1인 방송 영상 중 관련영상을 효율적으로 검색하여 추천하고, 사용자의 평소 검색 패턴과 외모 특징들을 학습시켜 축적된 정보를 바탕으로 최적의 솔루션을 제공할 수 있도록 인공지능 기법을 도입하며, 추천된 영상을 통해 자세한 메이크업 과정을 실제 단계별로 수행하면서 메이크업 스킬을 습득하도록 하는 지능형 스마트 거울 앱을 설계하고 구현하고자 한다.