• 제목/요약/키워드: 얼굴아바타

검색결과 72건 처리시간 0.025초

3차원 아바타의 실시간 얼굴표정제어를 위한 표정공간의 생성방법 (Generation Method of Expression Space for Realtime Facial Expression Control of 3D Avatar)

  • 김성호
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (A)
    • /
    • pp.109-111
    • /
    • 2006
  • 본 논문은 애니메이터로 하여금 얼굴 표정들의 공간으로부터 일련의 표정을 선택하게 함으로써 3차원 아바타의 표정을 실시간적으로 제어할 수 있도록 하기 위한 표정공간의 생성방법에 관하여 기술한다. 본 시스템에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정이 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 한 표정에서 다른 표정까지 거쳐 갈 수 있는 경로를 캡쳐된 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정 제어는 애니메이터들이 표정공간을 항해할 때 실시간적으로 수행된다. 이를 도와주기 위해 표정공간을 차원 스케일링 기법을 이용하여 2차원 공간으로 가시화하였고, 애니메이터들로 하여금 본 시스템을 사용하여 실시간 표정 제어를 수행하게 했는데, 본 논문은 그 결과를 평가한다.참여하는 빈들 간의 관계를 분석하여 워크플로우에 대한 성능 측정이 가능하도록 한다. 또한 제안된 메트릭을 통하여 EJB 어플리케이션의 성능 향상을 도모할 수 있도록 한다.로 표면 위로 자라났고, 부종은 창상 밑 조직까지 감소하였으며, 육아조직은 교원질 섬유로 대체되었다. 창상 유발 21일 후, 다른 창상에 비해, HG 처치창은 유의적으로 창상 표면이 거의 재생성 상피로 덮였으며, 육아조직은 창상 유발 14일 후와 비교해서 유의적으로 교원질 섬유로 대체되었다. 위의 모든 결과에서 보듯이, 개에서 전층피부 창상의 처치 시 HG의 사용은 HC와 생리 식염수에 비해 창상치유 복구기의 치유 속도를 촉진하는 것으로 사료된다.시범학교의 자녀를 들 부모들은 환경관련문제에 대한 의식 및 환경관련 제품에 대한 구매행동의 변화가 두드러지게 나타났다.EX>$d^{2+}$ + SA처리구는 두 화합물의 이중 효과에 의해 전반적인 생리 활성을 억제하여, 결국에는 식물의 고사를 유도하는 것으로 사료된다.목에 대한 보안'이 가장 중요한 것으로 나타났다. 본 연구에서는 솔루션 선정요인에 관한 중요도를 e-마켓플레이스의 유형과 산업 별로 평가해보았는데, 여기에서 밝혀진 중요도를 통해 e 마켓플레이스를 구축하고 자 하는 기업은 솔루션을 자체 개발하거나 구입할 때 올바른 의사결정을 할 수 있다. 그리고 솔루션을 제공하려는 기업측면에서는 e-마켓플레이스를 구축하고자 하는 기업에게 유형과 산업별로 적절한 솔루션을 제공할 수 있다.순환이 뇌대사 및 수술 후 신경학적 결과에 보다 유익한 효과를 제공해 줄 수 있음

  • PDF

아바타 표현과정 속 자기동일시와 만족도에 관한 연구 (A Study on the Self-identity and Satisfaction through Avatar Expression Process)

  • 여예강;신춘성
    • 스마트미디어저널
    • /
    • 제11권6호
    • /
    • pp.18-29
    • /
    • 2022
  • 본 연구는 아바타 설정에 있어 사용자에게 미치는 영향력에 대한 표현속성들을 알아보기 위해 아바타 표현과정과 표현요소별 만족도 및 자기동일시에 대한 평가항목 모형을 제안한다. 제안한 아바타표현 평가방법은 아바타 제작 및 표현 제작과정을 바탕으로 표현용이성과 표현요소를 반영하여 자아동일시와 만족도로 구성하였다. 제안한 평가모형을 평가하기 위해 대표적인 메타버스를 선정해 17인의 사용자를 바탕으로 아바타 설정과정 및 결과를 비교 관찰하는 실험을 진행하였다. 참여자는 각각 실사형 아바타와 캐릭터형 아바타를 완성한 후 설문조사를 시행한 결과, 대부분 제작과정에 대한 이해도는 높았고, 표현요소가 다양할수록 아바타 표현과정에 만족도가 높아지는 것을 알 수 있었다. 머리 모양과 얼굴형이 가장 중요한 비중의 표현요소였고, 의상과 전체적 조화에 대부분이 시간을 투여한 것으로 나타났다. 대부분 참여자는 자신과 최대한 가까운 현실적인 모습으로 표현하고자 하였다. 하지만 자기동일시와 관련한 항목은 표현과 제작과정에 있어 유의미한 상관관계가 나타나지는 않았다. 본 연구는 아바타 표현과정에서 나타나는 의사 결정 요소와 만족도가 형성될 수 있는 방향과 자기동일시에 영향을 미치는 요소를 확인할 수 있었다. 또한, 향후 아바타가 사용자에게 지속적 영향력을 가지는 방법에 대한 기초 연구가 될 것이다.

사이버공간에서 실질적인 아바타를 위한 TBCC 얼굴매칭기법 (TBCC Face Matching Method For Essential Avatar In Cyber-Space)

  • 조종근;백두원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2001년도 춘계학술발표논문집 (하)
    • /
    • pp.891-894
    • /
    • 2001
  • 본 논문은 서로 다른 얼굴이미지 사이의 얼굴매칭기법의 새로운 방법인 TBCC(T-Block constraints Condition)얼굴매칭기법을 제안한다. 본 논문에서 제안하는 방법은 T영역안의 이목구비에다가 제어영역을 두고, T영역과 제어영역들을 분리하여 2개의 영상으로 각각 만든 다음에 각각의 correspondence가 있는 영상끼리 와핑(Warping)을 한 후에, 제어영역들은 2단계구조를 가진 계층적인 선형조합(Linear Combination)모델에 적용시켜 최적의 위치를 찾아낸 후에, T영역에 와핑시켜서 하나의 합성사진을 만들어 낸다. 합성사진에서 피부색이 다른 문제는 정규분표를 이용한 크로스디졸브(Cross-Dissolve)방법인 이미지프로세싱 기법을 새롭게 적용하며, 그리고, T모양의 자국이 남는 것은 본 논문에서 제안하는 T-Block Color Interpolation방법을 적용해서 해결한다.

  • PDF

정면 얼굴 이미지를 이용한 캐리커쳐 생성 시스템 (Caricature Generation System using A Front-View Facial Image)

  • 이현철;허기택
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 추계학술발표논문집 (상)
    • /
    • pp.657-660
    • /
    • 2002
  • 컴퓨터그래픽의 급격한 기술 발달과 사용자 층의 다양한 멀티미디어 정보에 대한 요구로 기존의 단순한 2차원 영상 정보는 점차 3차원 정보로 표현되어가고 있고, 사용자의 예술 및 개인 문화에 대한 관심도가 높아지면서 독특한 자신만의 개성을 표현할 수 있는 아바타, 캐리커처와 같은 표현매체에 대한 욕구가 증가하고 있다. 그러나 기존의 펜이나 화필로 그리는 케리커쳐는 예술성, 정교함 그리고 자신만의 독특한 특징적인 개성을 표현 할 수 있는 장점이 있으나 장소, 시간, 인원 등에서 응용성과 확장성이 제한 될 수밖에 없고, 이에 따른 제작비용이나 소요 시간, 노력 등이 많이 소요된다. 본 논문에서는 기존에 수동으로 이루어지고 있는 캐리커쳐를 한 장의 정면 얼굴 이미지를 이용하여 3차원 얼굴 모델을 생성하고, 각 얼굴 영역의 특징 요소를 스플라인으로 표현하여 스플라인의 제어선과 제어점을 조정하여 자동으로 캐리커쳐를 생성하는 시스템을 개발하는데 목적이 있다.

  • PDF

가상현실 수업시뮬레이션에서 가상학생과의 정서적 상호작용이 사용자의 시선응시 및 가상실재감에 미치는 영향 (The Effects of Emotional Interaction with Virtual Student on the User's Eye-fixation and Virtual Presence in the Teaching Simulation)

  • 류지헌;김국현
    • 한국콘텐츠학회논문지
    • /
    • 제20권2호
    • /
    • pp.581-593
    • /
    • 2020
  • 이 연구의 목적은 가상현실 시뮬레이션에서 아바타에 대한 사용자의 주의집중이 어떻게 일어나는가를 분석하기 위한 것이다. 주의집중 정도를 알기 위해서 시선추적 기법을 적용했으며, 이를 통하여 사용자가 아바타의 어느 부분에 초점을 두고 있는지 검증하고자 하였다. 이 연구에서는 수업시뮬레이션에서 아바타에 대한 사용자의 시선응시 시간과 가상실재감을 분석했다. 실험참가자는 대학생 45명(여학생=21명, 남학생=24명)이었다. 이 연구에서는 가상현실 기반의 수업시뮬레이션이 사용되었으며, 교권침해에 대한 시나리오들이 적용되었다. 종속변수는 아바타에 대한 사용자의 시선응시시간이며 3개의 관심영역(AOI)에 대한 차이분석을 실시했다. 또한 실험조건에 대한 사용자의 가상실재감(공간실재감, 몰두감, 사실성)을 측정했다. 실험참가자는 두 가지 시나리오를 모두 경험했으며, 반복측정에 의한 다변량분산분석을 실시했다. 연구결과에 의하면 시나리오와 AOI에 의한 유의미한 상호작용이 있었고, 시나리오와 AOI에 따른 주효과도 유의미한 차이가 보였다. 시나리오의 유형과 상관없이 사용자는 언제나 아바타의 얼굴표정에 상당히 많은 시선응시를 하고 있는 것으로 나타났다.

유행몰입도에 따른 아바타 꾸미기에 관한 연구

  • 이현정;김미영;이민경
    • 복식문화학회:학술대회논문집
    • /
    • 복식문화학회 2004년도 정기총회 및 춘계학술대회
    • /
    • pp.28-30
    • /
    • 2004
  • 정보 기술의 발전으로 인해 서로 다른 곳에 있는 사람들이 인터넷을 통하여 하나의 가상 공간을 공유할 수 있게 되었고, 인터넷의 발달은 사람들이 가상공간에서 머무는 시간을 길어지게 하였다. 사람들은 오프라인의 편지보다는 온라인의 메일을 더 선호하게 되었으며, 얼굴을 마주하고 앉아 대화를 나누는 것보다 스크린을 마주하고 온라인에서 채팅을 하는 것이 자연스러운 생활의 일부가 되었다. (중략)

  • PDF

웹 응용을 위한 MPEC-4 얼굴 애니메이션 파라미터 추출 및 구현 (Extraction and Implementation of MPEG-4 Facial Animation Parameter for Web Application)

  • 박경숙;허영남;김응곤
    • 한국정보통신학회논문지
    • /
    • 제6권8호
    • /
    • pp.1310-1318
    • /
    • 2002
  • 본 연구에서는 기존의 방법에 비하여 값비싼 3차원 스캐너나 카메라를 이용하지 않고 정면과 측면 영상을 이용하여 3차원 모델을 생성하는 3차원 얼굴 모델러와 애니메이터를 개발하였다. 이 시스템은 특정한 플랫폼과 소프트웨어에 독립적으로 웹상에서 애니메이션 서버에 접속함으로써 3차원 얼굴 모델을 애니메이션 할 수 있으며 자바 3D API를 이용하여 구현하였다. 얼굴모델러는 입력 영상으로부터 MPEG-4 FDP(Facial Definition Parameter) 특징점을 추출하여 일반 얼굴모델을 특징점에 따라 변형시켜 3차원 얼굴 모델을 생성한다 애니메이터는 FAP(Facial Animation Parameter)에 따라 얼굴모델을 애니메이션하고 렌더링한다. 본 시스템은 웹 상에서 아바타를 제작하는 데 사용될 수 있다.

SMS 메시지에 따른 모바일 3D 아바타의 입술 모양과 음성 동기화 (Lip and Voice Synchronization with SMS Messages for Mobile 3D Avatar)

  • 윤재홍;송용규;김은석;허기택
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 추계 종합학술대회 논문집
    • /
    • pp.682-686
    • /
    • 2006
  • 모바일 3D 엔진을 탑재한 단말기의 등장과 모바일 콘텐츠 시장의 성장에 따라 3D 모바일 콘텐츠 서비스에 대한 관심이 고조되고 있다. 모바일 3D 아바타는 개인화된 모바일 기기 사용자의 개성을 표출할 수 있는 가장 효과적인 상품이다. 그러나 3D 아바타 표현 방법은 PC기반의 가상환경에서 캐릭터의 얼굴 표정 및 입술 모양 변화에 따른 자연스럽고 사실적인 표현에 대한 연구들이 주로 이루어 졌다. 본 논문에서는 모바일 환경에서 수신된 SMS 메시지를 3D 모바일 아바타에 적용하여 입술 모양 및 음성과 동기화 시키는 방법을 제안한다. 제안된 방법은 수신된 메시지 문장을 음절단위로 분해하여 모바일 3D 아바타의 입술 모양과 해당 음성을 동기화 시킴으로써, 모바일 아바타의 자연스럽고 효과적인 SMS 메시지 읽기 서비스를 구현할 수 있도록 해준다.

  • PDF

아바타를 활용한 브랜드 개성의 시각화에 관한 연구 (A Study on the Visualization of Brand Personality by Utilizing the Avatar)

  • 송민정;정경원
    • 디자인학연구
    • /
    • 제19권1호
    • /
    • pp.215-224
    • /
    • 2006
  • 경쟁이 심화됨에 따라 브랜드 신뢰성의 중요성이 커지고 있다. 고객들은 브랜드에 대한 신뢰를 바탕으로 선택을 하는 경향이 있기 때문이다. 기업들이 경쟁사와 차별화 되며 신뢰성이 있는 브랜드 이미지를 구축하려는 다양한 시도의 결과로 브랜드 개성이라는 개념이 생겨났다. 브랜드 개성은 브랜드 아이덴티티 확립이라는 기업의 목적과 자신이 선택한 브랜드를 통해 자신의 이미지를 표현하려는 소비자의 목적을 동시에 만족시켜주는 수단이 되고 있다. 브랜드 개성의 중요성이 커짐에 따라, 많은 학자들이 다양한 방법을 동원하여 그것을 명확하게 측정하기 위한 시도를 전개했다. 그러나 대다수의 연구들은 측정과 데이터의 분식에 많은 노력과 오랜 시간이 소요될 뿐만 아니라, 그 결과를 명확하게 시각화할 수 없는 언어적, 정량적 방법에 의존하고 있는 실정이다. 이에 본 연구는 아바타를 활용하여 새롭고 가시적인 브랜드 개성 측정 방법을 개발하는 것을 목표로 한다. 본 연구의 결과는 다음과 같다. 첫째, 아바타는 브랜드 개성을 시각화하는 효과적인 매체가 될 수 있다는 가정(假定)이 입증되었다. 아바타는 얼굴과 의복, 자세와 동작 등을 통해 인간의 개성을 나타내 줄 수 있으므로, 목적에 부합되도록 특별하게 디자인된 아바타는 법인(法人)의 특성을 대변하는 브랜드의 개성을 독창적으로 표현해 줄 수 있다. 둘째, 브랜드 개성이 여러 가지 유형으로 분류될 수 있고, 그 분류가 브랜드 개성 아바타를 디자인하는 데 필요한 지침으로 활용될 수 있다는 점이 명확해졌다. 셋째, 특별하게 디자인된 브랜드 개성 아바타의 효용성을 실제로 활용하여 실험을 한 결과, 아바타가 구체적이고 직관적으로 브랜드 개성을 측정하는 데 효과적인 것으로 나타났다. 정확성 검증 실험을 통해서는 아바타들이 브랜드 개성 유형을 적절하게 표현하고 있음을 밝혔으며, 특히 아바타를 이용하여 기존 브랜드들의 개성을 측정해 본 결과, 아바타가 언어보다 브랜드 개성의 판단에 효과적이라는 것이 입증되었다.

  • PDF

VRmeeting: 웹상에서 실시간 화상 대화 지원 분산 가상 환경 (VRmeeting : Distributed Virtual Environment Supporting Real Time Video Chatting on WWW)

  • 정헌만;탁진현;이세훈;왕창종
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2000년도 추계학술발표논문집 (상)
    • /
    • pp.715-718
    • /
    • 2000
  • 다중 사용자 분산 가상환경 시스템에서는 참여자들 사이의 의사 교환을 위해 텍스트 중심의 채팅과 TTS 등을 지원하고 언어 외적인 의사교환을 지원하기 위해 참여자의 대리자인 아바타에 몸짓이나 얼굴 표정 및 감정등을 표현할 수 있도록 애니메이션 기능을 추가하여 사용한다. 하지만 아바타 애니메이션으로 참여자의 의사 및 감정 표현을 표현하는 데는 한계가 있기 때문에 자유로운 만남 및 대화를 지원할 수 있는 환경이 필요하다. 따라서 이러한 문제를 해결하기 위해서는 참여자의 얼굴과 음성을 가상 공간상에 포함시킴으로써 보다 분명하고 사실적인 의사교환과 감정표현이 가능할 것이다. 이 논문에서는 컴퓨터 네트워크를 통해 형성되는 다중 사용자 가상 환경에서 참여자들의 의사 교환 및 감정 표현을 극대화하고 자유로운 만남과 대화를 제공하는 실시간 화상 대화가 가능한 분산 가상 환경 시스템을 설계하였다. 설계한 시스템은 참여자들의 거리와 주시 방향에 따라 이벤트의 양을 동적으로 제어함으로써 시스템의 부하를 최적화할 수 있는 구조를 갖고 있다.

  • PDF