• 제목/요약/키워드: 상호표정 요소

검색결과 34건 처리시간 0.025초

3차원 얼굴 표정 애니메이션을 위한 기대효과의 자동 생성 (Automatic Anticipation Generation for 3D Facial Animation)

  • 최정주;김동선;이인권
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권1호
    • /
    • pp.39-48
    • /
    • 2005
  • 전통적인 2차원 애니메이션 제작기법에 의하면, 애니메이션의 기대효과(Anticipation)는 동작에 대한 준비단계로서 사실적이고 풍부한 표현을 하는데 중요한 역할을 한다고 알려져 있다. 얼굴 표정 애니메이션 데이타가 충분히 길다고 가정하면, 특정한 얼굴 표정에 대한 기대효과가 주어진 애니메이션 데이타에 존재할 가능성이 높다. 본 논문에서는 주어진 얼굴 표정 애니메이션 데이타로부터 얼굴 표정의 기대효과를 자동으로 추출하여 추가하는 방법을 제시한다. 먼저 애니메이션 데이타에 대해 중요요소분석법(Principal Component Analysis)을 적용하여 얼굴 모델의 모든 정점을 비슷한 움직임의 방향을 갖는 요소(Component)의 집합으로 분류한다. 각각의 요소에 대하여, 반대 방향의 움직임을 갖는 보정 애니메이션 데이타를 파 요소에 대한 기대효과로서 추출하고, 이 중에서 얼굴 모델의 위상정보를 보존하는 최적의 기대효과를 주어진 보정의 기대효과로 선택한다. 선택된 기대효과는 애니메이션 데이타의 연속성과 재생 시간을 유지하도록 주어진 표정과 적절히 합성(Blend)한다. 모션캡쳐 및 키프레임 작업에 의한 3차원 얼굴 보정 애니메이션 데이타를 입력으로 하여 기대효과론 자동으로 생성하는 실험격과를 제시한다. 본 논문은 전통적인 2차원 애니메이션 제자방법 중 하나인 기대효과를 3차원 얼굴 표정 애니메이션에 적용하는 새로운 방법을 제시하여, 애니메이션 제작자가 얼굴 표정을 선택하는 간단한 상호작용만으로도 기대효과가 추가된 3차원 얼굴 보정 애니메이션을 손쉽게 얻을 수 있다.

배경색채가 얼굴 표정에서 전달되는 감성에 미치는 영향 (The Influence of Background Color on Perceiving Facial Expression)

  • 손호원;최다미;석현정
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2009년도 춘계학술대회
    • /
    • pp.51-54
    • /
    • 2009
  • 다양한 미디어에서 인물과 색채는 가장 중심적인 요소로서 활용되므로 인물의 표정에서 느껴지는 감성과 색채 자극에 대한 감성적 반응에 연구는 심리학 분야에서 각각 심도 있게 연구되어왔다. 본 연구에서는 감성 자극물로서의 얼굴 표정과 색채가 상호 작용을 하였을 때 이에 대한 감성적 반응에 대하여 조사하는데 그 목적이 있다. 즉, 인물의 표정과 배경 색상을 배치하였을 때 인물의 표정에서 느껴지는 감성이 어떻게 변하는지에 관한 실험 연구를 진행하여 이를 미디어에서 활용할 수 있는 방안을 제시하고자 한다. 60명의 피실험자들을 대상으로 진행한 실험연구에서는 Ekman의 7가지의 universal facial expression 중 증오(Contempt)의 표정을 제외한 분노(Anger), 공포(Fear), 역겨움(Disgusting), 기쁨(Happiness), 슬픔(Sadness), 놀람(Surprising) 등의 6가지의 표정의 이미지를 인물의 표정으로 활용하였다. 그리고, 배경 색채로서 빨강, 노랑, 파랑, 초록의 색상들을 기준으로 각각 밝은(light), 선명한(vivid), 둔탁한(dull), 그리고 어두운(dark) 등의 4 가지 톤(tone)의 영역에서 색채를 추출하였고, 추가로 무채색의 5 가지 색상이 적용되었다. 총 120 장(5 가지 얼굴표정 ${\times}$ 20 가지 색채)의 표정에서 나타나는 감성적 표현을 평가하도록 하였으며, 각각의 피실험자는 무작위 순위로 60개의 자극물을 평가하였다. 실험에서 측정된 데이터는 각 표정별로 분류되었으며 배경에 적용된 색채에 따라 얼굴 표현에서 나타나는 감성적 표현이 다름을 보여주었다. 특히 색채에 대한 감성적 반응에 대한 기존연구에서 제시하고 있는 자료를 토대로 색채와 얼굴표정의 감성이 상반되는 경우, 얼굴표정에서 나타나는 감성적 표현이 약하게 전달되었음을 알 수 있었으며, 이는 부정적인 얼굴표정일수록 더 두드러지는 것으로 나타났다. 이러한 현상은 색상과 톤의 경우 공통적으로 나타나는 현상으로서 광고 및 시각 디자인 분야의 실무에서 활용될 수 있다.

  • PDF

DMC 카메라의 블록기하 안정성 분석 (Stability Analysis of DMC's Block Geometry)

  • 이재원;이동민
    • 대한토목학회논문집
    • /
    • 제29권6D호
    • /
    • pp.771-779
    • /
    • 2009
  • GIS의 자료기반이 되는 수치지도는 주로 재래식 항공사진측량에 의해서 제작되고 있다. 따라서 촬영된 아날로그 항공사진은 필름의 현상, 인화, 스캐닝 작업 과정을 거쳐 수치지도 제작에 이용되고 있다. 하지만 디지털 항측카메라의 개발로 촬영된 사진의 전처리과정 없이 직접 디지털 영상의 획득이 가능하여 항공사진의 효율성이 극대화 되고 있는 실정이다. 본 연구 에서는 면형방식 카메라인 DMC(Digital Modular Camera) 영상의 블록구성에 따른 기하적 안정성을 검증하기 위하여 횡스트립의 유무, GPS/INS 외부표정요소의 유무 및 지상기준점 수를 달리한 조건으로 블록조정을 수행하였다. 각 조건별 블록조정의 결과로 부터 외부표정요소에 대한 잔차의 변화를 계산하여 정확도를 상호 비교하였다. 연구 결과 횡스트립 추가 시 블록은 기하학적으로 약 30% 안정함을 알 수 있었고, 외부표정요소에서는 횡스트립 추가 시 표준편차의 평균에서 X축으로 2cm, Y축으로 3cm, Z축으로 3cm 더 우수하였으며, omega는 6", phi는 4", kappa는 3" 더 우수하게 나타났다.

친밀도, 공감도, 긍정도에 따른 얼굴 근육의 미세움직임 반응 차이 (Research on Micro-Movement Responses of Facial Muscles by Intimacy, Empathy, Valence)

  • 조지은;박상인;원명주;박민지;황민철
    • 한국콘텐츠학회논문지
    • /
    • 제17권2호
    • /
    • pp.439-448
    • /
    • 2017
  • 얼굴 표정은 상호간의 소통에 있어 중요한 의미를 갖는다. 얼굴 근육의 움직임은 감성 정보를 제공하는데, 이는 사회적 관계를 향상하는 데 중요한 역할을 한다. 그러나 얼굴의 단순 움직임만으로는 복잡한 사회 감성을 인식하기에 정확하지 않다. 본 연구의 목적은 친밀도, 공감도, 긍정도와 같은 사회감성을 인식하기 위한 얼굴의 미세 움직임을 분석하는 것이다. 76명의 피험자를 대상으로 상기 사회감성을 유발하는 자극을 제시하였고 카메라를 사용하여 얼굴 표정을 측정하였다. 결론적으로 친밀함, 공감도, 긍정도의 사회 감성에서 얼굴의 미세움직임이 다르게 나타났다. 총 44개의 얼굴 근육 중 3개의 무의식 근육과 18개의 의식 근육의 움직임 양을 추출한 후, 고속푸리에변환(Fast Fourier Tranform, FFT)을 통하여 (Dominant) Frequency 대역을 확인하였다. 독립 t-검정 결과, 친밀도 상황에서는 코 주변과 볼 주변 근육, 공감도 상황에서는 입 주변 근육, 긍정도 상황에서는 턱 주변 근육에서 유의한 차이를 보였다. 이는 애니메이션의 가상 아바타 등 얼굴 표정의 새로운 표현요소를 제안하고 근육에 따른 사회감성 인식의 기초 연구로서 활용 가능할 것으로 사료 된다.

모션 데이터를 이용한 3차원 아바타 얼굴 표정 제어 (Facial Expression Control of 3D Avatar using Motion Data)

  • 김성호;정문렬
    • 정보처리학회논문지A
    • /
    • 제11A권5호
    • /
    • pp.383-390
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간 적으로 선택하게 함으로써 3차원 아바타의 얼굴 표정을 제어하는 기법을 제안하고, 해당 시스템을 구축한다. 본 시스템에서는 얼굴 모션 캡쳐 데이터로 구성된 2400여개의 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정에서 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 이 경로를 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 원하는 표정을 실시간 적으로 선택함으로써 제어한다. 이를 도와주기 위해 표정공간을 다차원 스케일링 기법을 이용하여 2차원 공간으로 가시화 했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 해본 결과, 3차원 아바타의 실시간 얼굴 표정 제어가 필요한 각 분야에서 매우 유용하게 사용될 것으로 판단되었다.24시간 경과시킨 후 치아의 장축에 따라 절단하여 침투된 색소의 정도를 광학현미경상에서 40배로 관찰하였다. 각각의 실험결과는 ANOVA/Tukey's test 및 Kruskal-Wallis non-parametric independent analysis와 Mann-Whitney U test에 의하여 통계 분석하여 다음과 같은 결론을 얻었다. 1. 대조군에 있어서 혼합형 복합레진의 미세인장 결합강도는 미세혼합형에 비하여 높았으며, 실험군 사이에는 유의차를 보이지 않았다. 2.모든 복합레진의 미세인장 결합강도는 와동의 C-factor증가에 따라 감소하는 경향을 나타내었고, 혼합형 복합레진의 실험군은 대조군에 비하여 낮게 나타났으며, 미세혼합형 복합레진에서는 유의차를 보이지 않았다. 3. 절단측 및 치은측 변연부의 미세누출정도는 혼합형 복합레진이 미세혼합형에 비하여 대체로 높게 나타났다. 4. 모든 실험군에서 미세누출은 C-factor증가에 따라 증가하였고 절단측에 비하여 치은측 변연이 높게 나타났으나 통계학적 유의차는 보이지 않았다. C-factor의 변화에 대하여 필러함량과 탄성계수가 높은 혼합형 복합레진이 미세혼합형에 비하여 더 민감한 결과를 보인다. 이는 복합레진 수복시 재료의 선택과 중합수축의 적절한 조절이 중요한 요소임을 시사한다.s에서는 1주, 2주에서 강한 염증반응을 보였으나 12주에서는 염증반응이 감소하였다. 4) 새로 개발된 봉함제 Adseal-1,2는 1주, 2주에서는 가장 약한 염증반응을 보이나 4주, 12주 후에는 AH Plus와 비슷한 수준의 염증 반응을 보였다. 5) Pulp Canal Sealer를 제외한 모든 군에서 인정할 만한 생체친화성을 보였다. 6)

감성 인식 컴퓨팅 기술을 적용한 이러닝 상호작용 기술 연구 (Enhancing e-Learning Interactivity vla Emotion Recognition Computing Technology)

  • 박정현;김인옥;정상목;송기상;김종백
    • 컴퓨터교육학회논문지
    • /
    • 제11권2호
    • /
    • pp.89-98
    • /
    • 2008
  • 학습자와 이러닝 시스템 사이의 상호작용은 이러닝 시스템의 효율성을 결정짓는 중요한 요소이다. 기존의 웹기반 콘텐츠의 경우에도 다양한 상호작용 기능이 채용되고 있지만 학습자들은 인간-컴퓨터 상호작용 기술의 한계에 따른 실시간 인간 교사로부터 받는 것과 같은 피드백을 경험하는 것은 한계가 있다. 본 논문에서는 학습자의 얼굴 표정을 이용하여 감정을 인식하는 시스템을 개발하고 튜터링 시스템에 통합시켰다. 관찰되는 학습자의 감정 변화에 대하여 인간 교사가 하듯이 적합한 피드백 메시지를 제공하여 이러닝 환경에서 나타날 수 있는 학습자의 고립감을 제거할 수 있도록 하였다. 본 체제를 실제 수업에 도입한 결과 학업 성취도의 개선과 이러닝 학습의 흥미도 개선이 유의미하게 이루어질 수 있음을 보였다.

  • PDF

음성 인터페이스와의 상호작용에서 AI 음성이 성별에 따른 사용자의 감성 만족도에 미치는 영향 (Moderating Effects of User Gender and AI Voice on the Emotional Satisfaction of Users When Interacting with a Voice User Interface)

  • 신종규;강준모;박영진;김상호
    • 감성과학
    • /
    • 제25권3호
    • /
    • pp.127-134
    • /
    • 2022
  • 본 연구의 목적은 음성 인터페이스(Voice User Interface, VUI)를 이루는 설계변수 중 사용자에게 긍정적인 감성을 유발하는 설계변수를 확인하는 것이다. 특히, 사용자의 성별과 설계변수의 조절 효과를 분석하여 VUI와 상호작용하는 동안 사용자가 만족할 수 있는 적절한 설계변수 수준을 찾아보고자 하였다. 선행연구를 통해 VUI에 사용되는 음성설계변수 중에서 사용자의 감성 만족도에 영향을 미칠 수 있는 설계변수 6가지를 도출하였다. 설계변수는 수준을 조절할 수 있도록 Wizard of OZ를 활용하여 VUI 시스템을 구현하였고, 6가지 설계변수의 수준을 조합하여 사용자와 음성으로 대화를 할 수 있도록 구성하였다. 실험에 참여한 사용자는 총 80명으로, 남/여 성비를 고려하여 각 40명씩 모집하였다. 사용자는 VUI와 주어진 임무에 대한 정답을 알아내기 위해 자연스러운 대화를 진행하며, 그동안의 얼굴표정 변화에 대한 이미지 데이터를 수집 및 표정 분석 소프트웨어를 통해 Valence 점수로 변환하였다. Valence 데이터를 기반으로 빈도 및 카이제곱 분석을 통해 확인한 결과, 사용자의 성별과 AI gender간의 조절효과가 유의한 것으로 나타났다. 이 결과는 VUI를 설계할 때 사용자의 성별 차이를 고려하는 것이 좋다는 것을 의미한다. 결론적으로, 남성 사용자의 경우 성인/남성/높은 톤의 음성, 여성 사용자의 경우 성인/여성/중간톤의 음성이 향후 만족스러운 인터랙션 구현을 위한 VUI 설계에 주요한 가이드라인인 것을 확인하였다. 본 연구의 결과를 통해 향후 다양한 인적 요소를 고려하여 UX 관점에서 인간-AI 상호작용을 보다 섬세하게 분석할 수 있을 것이며, 표정을 통한 실시간 감성 측정을 위한 기초연구로 활용될 수 있을 것이다.

지상 레이져 매핑시스템 구현을 위한 4S-Van 시스템 설계 (The design of 4S-Van for implementation of ground-laser mapping system)

  • 김성백;이승용;김민수
    • Spatial Information Research
    • /
    • 제10권3호
    • /
    • pp.407-419
    • /
    • 2002
  • 본 연구에서는 레이져 매핑 시스템 구현을 위한 4S-Van 시스템의 설계에 대해 논하였다. 레이져 센서는 대상물의 3차원값을 기존의 사진측량에 비해 정확하고 빠르게 측정가능한 센서이다. 4S-Van 에 장착된 레이져의 광의 발사위치와 방향을 결정하기 위해 약결합 방식의 (D)GPS/INS 통합 알고리즘을 사용하였다. 레이져 매핑을 실현하기 위한 기초적이고 예비적인 실험으로서 현 시스템에 장착된 센서를 고려하여(D)GPS/INS 통합 알고리즘의 성능테스트와 장착된 CCD 카메라의 보정을 위해 근거리사진측량 기법중의 하나인 self-calibration 기법을 통해 외부표정요소와 내부표정요소를 획득하였다. 3대의 레이져 스케너를 동시에 작동시켜 데이터간의 상호보정을 통해 정밀도 향상을 시도하였다. 향후 레이져 데이터와 CCD 영상을 통해 확보된 질감 정보를 이용하여 컴퓨터 공간상에 지형지물에 대해 3차원 시각화 및 도시모델링 구축에 활용할 계획이다.

  • PDF

<한국어 립씽크를 위한 3D 디자인 시스템 연구> ()

  • 신동선;정진오
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 2부
    • /
    • pp.362-369
    • /
    • 2006
  • 3 차원 그래픽스에 적용하는 한국어 립씽크 합성 체계를 연구하여, 말소리에 대응하는 자연스러운 립씽크를 자동적으로 생성하도록 하는 디자인 시스템을 연구 개발하였다. 페이셜애니메이션은 크게 나누어 감정 표현, 즉 표정의 애니메이션과 대화 시 입술 모양의 변화를 중심으로 하는 대화 애니메이션 부분으로 구분할 수 있다. 표정 애니메이션의 경우 약간의 문화적 차이를 제외한다면 거의 세계 공통의 보편적인 요소들로 이루어지는 반면 대화 애니메이션의 경우는 언어에 따른 차이를 고려해야 한다. 이와 같은 문제로 인해 영어권 및 일본어 권에서 제안되는 음성에 따른 립싱크 합성방법을 한국어에 그대로 적용하면 청각 정보와 시각 정보의 부조화로 인해 지각의 왜곡을 일으킬 수 있다. 본 연구에서는 이와 같은 문제점을 해결하기 위해 표기된 텍스트를 한국어 발음열로 변환, HMM 알고리듬을 이용한 입력 음성의 시분할, 한국어 음소에 따른 얼굴특징점의 3 차원 움직임을 정의하는 과정을 거쳐 텍스트와 음성를 통해 3 차원 대화 애니메이션을 생성하는 한국어 립싱크합성 시스템을 개발 실제 캐릭터 디자인과정에 적용하도록 하였다. 또한 본 연구는 즉시 적용이 가능한 3 차원 캐릭터 애니메이션뿐만 아니라 아바타를 활용한 동적 인터페이스의 요소기술로서 사용될 수 있는 선행연구이기도 하다. 즉 3 차원 그래픽스 기술을 활용하는 영상디자인 분야와 HCI 에 적용할 수 있는 양면적 특성을 지니고 있다. 휴먼 커뮤니케이션은 언어적 대화 커뮤니케이션과 시각적 표정 커뮤니케이션으로 이루어진다. 즉 페이셜애니메이션의 적용은 보다 인간적인 휴먼 커뮤니케이션의 양상을 지니고 있다. 결국 인간적인 상호작용성이 강조되고, 보다 편한 인간적 대화 방식의 휴먼 인터페이스로 그 미래적 양상이 변화할 것으로 예측되는 아바타를 활용한 인터페이스 디자인과 가상현실 분야에 보다 폭넓게 활용될 수 있다.

  • PDF

뉴미디어 아트에 나타난 비언어적 표현 -표정과 소리의 사례연구를 중심으로 (Nonverbal Expressions in New Media Art -Case Studies about Facial Expressions and Sound)

  • 유미;안경희
    • 한국콘텐츠학회논문지
    • /
    • 제19권10호
    • /
    • pp.146-156
    • /
    • 2019
  • 뉴미디어 아트는 장소와 시간적 제약에서 벗어나 테크놀로지의 혜택을 예술로 승화하고 관람자와 새로운 소통 방식을 제시한다. 본 논문은 초기의 뉴미디어 아트에서 나타난 비언어적 의사소통 방식의 경향을 분석하고자 표정과 소리에 관한 사례들을 연구했다. 결과적으로 뉴미디어 아트에 나타난 디지털 패러다임은 비선형성 사고를 갖게 하여 몰입과 지각적 분절감을 느끼게 하였음을 발견하였다. 뉴미디어 아트에서 표정은 '시각적 왜곡화, 확장화, 가상화'를 통해 얼굴 표현의 공간성과 시간성을 극복했고 디지털 환경 속에서 얼굴 구성 요소의 결합과 분리는 새로운 방식의 소통을 가능하게 하였다. 뉴미디어 아트에서 소리는 청각 감각에 머물지 않고 다른 감각과 협응하여 다감각화와 공감각화를 추구하며 공간의 확장성과 감각과 수용자의 상호작용성의 특성을 드러내며 발전하고 있었다.