• 제목/요약/키워드: Virtual character

검색결과 226건 처리시간 0.027초

감성인식에 따른 가상 캐릭터의 미소 표정변화에 관한 연구 (Study of expression in virtual character of facial smile by emotion recognition)

  • 이동엽
    • 만화애니메이션 연구
    • /
    • 통권33호
    • /
    • pp.383-402
    • /
    • 2013
  • 본 연구에서는 감성 변화에 따라 나타나는 얼굴 표정에 대한 해부학적 접근방식으로 근육 체계에 의해서 부호화하는 얼굴 움직임 부호화 시스템(FACS, Facial Action Coding System)을 얼굴표정에 적용하고 이를 바탕으로 듀센스마일(Duchenne smile)을 가상 캐릭터에 적용하여 검증해 보고자 한다. 인간의 표정을 인식하는 방식이 동일하게 가상의 캐릭터에도 적용된다는 선행연구를 바탕으로 애니메이션, 게임 등의 캐릭터에 보다 사실적인 표정을 담을 수 있는 연구 방식을 제안하고자 한다. 실험을 위해 훈련된 연극전공 학생들에게 정서 유발 실험을 통해 듀센 스마일과 일반 스마일을 추출하였다. 추출된 표정을 바탕으로 얼굴 근육 데이터를 표집하여 입과 입술주변의 근육과 다른 부위의 얼굴 표정 빈도를 산출하여 얻어진 데이터를 가상 캐릭터에 적용해 보았다. 그 결과 미소 표정에서 근육의 움직임은 협골 대근육의 수축으로 인한 입술 끝이 상향운동을 하며 안륜근이 수축하며 뺨이 올라가고 눈의 아래쪽 외측 눈꺼풀이 올라가는 표정이 나타났다. 개방성과 관련된 입주변 근육(AU25, AU26, AU27)과 코주위 근육(AU9)이 함께 협골근과 광대근 주변 근육의 움직임이 표현되었다. 그중 듀센 미소는 협골 대근육과 안륜근이 동시에 움직이는 형태로 발생되었다. 이를 바탕으로 본인의 의지에 의해 수행 가능한 광대근육과 감성적 정서에 공감하여 웃음의 형태로 나타나는 안륜근을 구분하고 이를 가상의 캐릭터의 근육에 적용하여 인간의 표정과 가상의 캐릭터 표정이 서로 구분 가능한지를 설문을 통해 알아보고자 하였다.

모션 패치 (Motion Patches)

  • 최명걸;이강훈;이제희
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권1_2호
    • /
    • pp.119-127
    • /
    • 2006
  • 가상환경에서의 실시간 캐릭터 애니메이션은 컴퓨터 게임 및 가상현실 분야에서 중요한 문제이다. 최근에는 캐릭터 애니메이션의 사실성을 높이기 위해 대규모 동작 캡쳐 데이타를 활용하고 있다. 그러나 거대하고 복잡한 가상환경을 만들기 위해서는 현실 환경에서 동작을 캡쳐하고 이를 넓은 가상환경에 적용해야하는 어려움이 따른다. 본 논문에서는 애니메이션 캐릭터가 몇 가지 빌딩 블록(building block)들로 건설된 넓은 가상공간에서 자유롭게 활동하게 하는 새로운 방법을 제안한다. 빌딩 블록들은 반복적인 형태로 배열되어 더 큰 환경을 생성할 수 있다. 이러한 각각의 블록들을 모션 패치(motion patch)라고 부른다. 모션 패치는 해당 블록 내부에서 캐릭터가 수행할 수 있는 동작들에 대한 정보를 가지고 있다. 본 논문은 다수의 캐릭터가 방대하고 복잡한 가상환경 속에서 실시간으로 애니메이션되고 제어되는 예제들을 통해 이 논문에서 제시하는 방법이 다양한 목적에 유용하게 사용될 수 있음을 보인다.

시각적 특징 맵을 이용한 자율 가상 캐릭터의 실시간 주목 시스템 (Realtime Attention System of Autonomous Virtual Character using Image Feature Map)

  • 차명희;김기협;조경은;엄기현
    • 한국멀티미디어학회논문지
    • /
    • 제12권5호
    • /
    • pp.745-756
    • /
    • 2009
  • 자율 가상 캐릭터는 인공시각을 이용하여 가상 환경을 인지하고 인지한 정보를 바탕으로 상황에 맞게 판단하여 지능적인 인간처럼 행동한다. 자율 가상 캐릭터는 주로 인공 시각을 이용하여 환경을 인식하며 현재까지 연구된 대부분의 인공 시각은 정해진 시야각에 들어온 정보를 여과 없이 모두 인지하는 방법을 사용하고 었다. 그러나 이러한 시각 체계는 한 번에 너무 많은 정보를 저장함으로 시스템의 효율성과 현실성을 떨어뜨리며, 게임과 같은 동적 환경에서는 실시간 처리가 어렵다. 따라서 실제 인간과 같은 시각 체계를 구현하려면 주목한 정보만 저장하는 시각적 주목 알고리즘이 필요하다. 본 논문에서는 인공 시각을 통해 얻은 정보 중에서 시각적으로 중요한 정보만올 저장하는 주목 시각 기법을 연구하고 이를 구현하기 위해 기존 주목 맵을 향상시켜 적용하였다. 특히 주목 맵 요소 중에서 처리 속도가 느린 방위 랩을 제거하고 침입자 검출을 적용한 동적 특정 맵을 추가하여 향상된 주목 맵을 제안하였다. 실험을 통해 자율 가상 캐릭터가 3차원 가상 환경에서 정적 동적 객체에 대한 주목 영역을 정확하게 찾는 것을 확인하였으며, 처리 속도 또한 기존 연구보다 1.6배 정도 향상되었음을 확인하였다.

  • PDF

로봇 캐릭터와의 상호작용에서 사용자의 시선 배분 분석 (Analysis of User's Eye Gaze Distribution while Interacting with a Robotic Character)

  • 장세윤;조혜경
    • 로봇학회논문지
    • /
    • 제14권1호
    • /
    • pp.74-79
    • /
    • 2019
  • In this paper, we develop a virtual experimental environment to investigate users' eye gaze in human-robot social interaction, and verify it's potential for further studies. The system consists of a 3D robot character capable of hosting simple interactions with a user, and a gaze processing module recording which body part of the robot character, such as eyes, mouth or arms, the user is looking at, regardless of whether the robot is stationary or moving. To verify that the results acquired on this virtual environment are aligned with those of physically existing robots, we performed robot-guided quiz sessions with 120 participants and compared the participants' gaze patterns with those in previous works. The results included the followings. First, when interacting with the robot character, the user's gaze pattern showed similar statistics as the conversations between humans. Second, an animated mouth of the robot character received longer attention compared to the stationary one. Third, nonverbal interactions such as leakage cues were also effective in the interaction with the robot character, and the correct answer ratios of the cued groups were higher. Finally, gender differences in the users' gaze were observed, especially in the frequency of the mutual gaze.

사건재연 시스템 개발 (Development of A News Event Reenactment System)

  • 윤여천;변혜원;전성규;박창섭
    • 방송공학회논문지
    • /
    • 제7권1호
    • /
    • pp.21-27
    • /
    • 2002
  • 본 논문에서는 카메라 영상으로 획득학기 어려운 화재나 살인 등의 뉴스 사건을 시청자들에게 효과적으로 전달하기 위해서 다수의 가상캐릭터가 등장하는 애니메이션을 신속하고 편리하게 제작할 수 있는 사건재연 시스템의 개발 기법을 소개한다. 본 시스템은 미리 구축된 다양한 동작 및 모델 라이브러리를 이용함으로써, 고가의 동작포착 장비와 연기자가 없어도 다수의 가상캐릭터 애니메이션을 신속하게 제어할 수 있다. 가상캐릭터의 움직임은 사용자가 정의한 경로에 따라 이동되며, 동작 사이의 자연스런 연결 기능이 제공되어진다. 또한 가상캐릭터와 가상환경의 상호작용을 보다 정확하게 제어하기 위해서 특정한 프레임에서의 가상캐릭터의 자세를 쉽게 조절할 수 있도록 설계되었다. 본 시스템은 사용자 편의를 위해서 대화형 또는 스크립트 기반(MEL: Maya Embedded Language)의 인터페이스 모두가 지원되어지며, 3차원 그래픽 소프트웨어인 Maya의 플러그인(Plug-in) 소프트웨어 형태로 개발디어졌으므로 Maya의 고성능 그래픽 기능의 활용이 가능하다.

Application of Virtual Studio Technology and Digital Human Monocular Motion Capture Technology -Based on <Beast Town> as an Example-

  • YuanZi Sang;KiHong Kim;JuneSok Lee;JiChu Tang;GaoHe Zhang;ZhengRan Liu;QianRu Liu;ShiJie Sun;YuTing Wang;KaiXing Wang
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.106-123
    • /
    • 2024
  • This article takes the talk show "Beast Town" as an example to introduce the overall technical solution, technical difficulties and countermeasures for the combination of cartoon virtual characters and virtual studio technology, providing reference and experience for the multi-scenario application of digital humans. Compared with the live broadcast that combines reality and reality, we have further upgraded our virtual production technology and digital human-driven technology, adopted industry-leading real-time virtual production technology and monocular camera driving technology, and launched a virtual cartoon character talk show - "Beast Town" to achieve real Perfectly combined with virtuality, it further enhances program immersion and audio-visual experience, and expands infinite boundaries for virtual manufacturing. In the talk show, motion capture shooting technology is used for final picture synthesis. The virtual scene needs to present dynamic effects, and at the same time realize the driving of the digital human and the movement with the push, pull and pan of the overall picture. This puts forward very high requirements for multi-party data synchronization, real-time driving of digital people, and synthetic picture rendering. We focus on issues such as virtual and real data docking and monocular camera motion capture effects. We combine camera outward tracking, multi-scene picture perspective, multi-machine rendering and other solutions to effectively solve picture linkage and rendering quality problems in a deeply immersive space environment. , presenting users with visual effects of linkage between digital people and live guests.

제한된 모션 센서와 애니메이션 데이터를 이용한 캐릭터 동작 제어 (Character Motion Control by Using Limited Sensors and Animation Data)

  • 배태성;이은지;김하은;박민지;최명걸
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제25권3호
    • /
    • pp.85-92
    • /
    • 2019
  • 디지털 스토리텔링에 등장하는 3차원 가상 캐릭터에는 외형뿐만 아니라 자세나 동작에서도 캐릭터의 개성이 반영된 고유의 스타일이 부여된다. 그러나 사용자가 웨어러블 동작센서를 사용하여 직접 캐릭터의 신체 동작을 제어하는 경우 캐릭터 고유의 스타일이 무시될 수 있다. 본 연구에서는 가상 캐릭터를 위해 제작된 소량의 애니메이션 데이터만을 이용하는 검색 기반 캐릭터 동작 제어 기술을 사용하여 캐릭터 고유의 스타일을 유지하는 기술을 제시한다. 대량의 학습 데이터를 필요로하는 기계학습법을 피하는 대신 소량의 애니메이션 데이터로부터 사용자의 자세와 유사한 캐릭터 자세를 직접 검색하여 사용하는 기술을 제안한다. 제시된 방법을 검증하기 위해 전문가에 의해 제작된 가상현실 게임용 캐릭터 모델과 애니메이션 데이터를 사용하여 실험하였다. 평범한 사람의 모션캡쳐 데이터를 사용했을 때와의 결과를 비교하여 캐릭터 스타일이 보존됨을 증명하였다. 또한 동작센서의 개수를 달리한 실험을 통해 제시된 방법의 확장성을 증명하였다.

GPU를 이용한 3차원 캐릭터의 빠른 2차 피부 변형 계산 (Computing Fast Secondary Skin Deformation of a 3D Character using GPU)

  • 김종혁;최정주
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제18권2호
    • /
    • pp.55-62
    • /
    • 2012
  • 본 논문에서는 GPU의 정점 셰이더에서 각 정점별 질량-스프링 모의 실험을 수행하여, 매우 빠른 속도로 피부의 2차 변형을 표현하는 새로운 방법을 제안한다. 3차원 캐릭터의 각 피부 정점에 대해, 길이가 0인 스프링으로 가상 정점을 연결하고, 캐릭터 동작에 따라서 피부 정점의 위치 및 속도가 변화하면, 질량-스프링 모의 실험을 통해 렌더링 될 가상 정점의 위치를 GPU의 정점 셰이더를 사용하여 병렬적으로 계산한다. 본 논문에서 제시하는 방법을 통해 피부의 재질 특성을 반영하는 2차 변형을 매우 빠르게 표현할 수 있으며, 각 피부 정점에 제안한 방법을 동적으로 적용하면 전통적인 2차원 애니메이션에서 관찰되는 수축-팽창(squash-and-stretch), 추종(follow-through)과 같은 효과도 매우 빠른 연산시간에 효과적으로 표현할 수 있다. 따라서 본 논문의 결과는 게임과 같은 실시간 응용분야에서 가상 캐릭터의 피부 변형을 표현하는데 효과적으로 사용될 수 있다.

Facial Feature Based Image-to-Image Translation Method

  • Kang, Shinjin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권12호
    • /
    • pp.4835-4848
    • /
    • 2020
  • The recent expansion of the digital content market is increasing the technical demand for various facial image transformations within the virtual environment. The recent image translation technology enables changes between various domains. However, current image-to-image translation techniques do not provide stable performance through unsupervised learning, especially for shape learning in the face transition field. This is because the face is a highly sensitive feature, and the quality of the resulting image is significantly affected, especially if the transitions in the eyes, nose, and mouth are not effectively performed. We herein propose a new unsupervised method that can transform an in-wild face image into another face style through radical transformation. Specifically, the proposed method applies two face-specific feature loss functions for a generative adversarial network. The proposed technique shows that stable domain conversion to other domains is possible while maintaining the image characteristics in the eyes, nose, and mouth.

가상현실 공간상에서 물체의 크기와 실제 크기간의 비교연구 (Comparison of the Size of objects in the Virtual Reality Space and real space)

  • 김윤정
    • 만화애니메이션 연구
    • /
    • 통권49호
    • /
    • pp.383-398
    • /
    • 2017
  • VR 가상현실 콘텐츠는 여러 분야에서 사용하는 매체가 되고 있다. 가상현실 콘텐츠가 현실감이 있기 위해서는 가상현실상의 물체들의 스케일이 실제의 크기와 같아야 하고, 또 같은 크기로 사용자에게 느껴져야 할 필요가 있다. 하지만 현실에서 느껴지는 캐릭터의 크기와 비교해서 가상현실 공간상의 캐릭터의 크기는 수치상으로 같은 크기로 제작했다 하더라도 사용자가 HMD로 영상안의 사물을 바라봤을 때 크기의 왜곡이 느껴지기도 한다. 본 논문에서는 가상현실상에서 크기와 관련된 요건들을 알아보고, 이러한 요건들이 가상현실에서는 어떠한 차이점을 가져오는지, 차이점이 사용자에게 어떠한 영향을 미치는지를 알아보고자 하였다. 가상현실 공간상에서 물체의 크기와 실제 공간에서의 물체 크기를 비교해보는 실험과 설문을 통해 원거리와 근거리에서 스케일의 왜곡이 어떻게 일어나고 있는지 살펴보고자 하였다. 이 연구가 가상현실 개발자에게 도움이 되는 연구가 되길 바란다.