• 제목/요약/키워드: face animation

검색결과 119건 처리시간 0.023초

Implementation of Face Animation For MPEG-4 SNHC

  • Lee, Ju-Sang;Yoo, Ji-Sang;Ahn, Chie-Teuk
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 KOBA 방송기술 워크샵 KOBA Broadcasting Technology Workshop
    • /
    • pp.141-144
    • /
    • 1999
  • MPEG-4 SNHC FBA(face and body animation) group is going to standardize the MPEG-4 system for low-bit rate communication with the implementation and animation of human body and face on virtual environment. In the first version of MPEG-4 standard, only the face object will be implemented and animated by using FDP (face definition parameter) and FAP(facial animation parameter), which are the abstract parameters of human face for low-bit rate coding. In this paper, MPEG-4 SNHC face object and it's animation were implemented based on the computer graphics tools such as VRML and OpenGL.

Online Face Avatar Motion Control based on Face Tracking

  • Wei, Li;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제12권6호
    • /
    • pp.804-814
    • /
    • 2009
  • In this paper, a novel system for avatar motion controlling by tracking face is presented. The system is composed of three main parts: firstly, LCS (Local Cluster Searching) method based face feature detection algorithm, secondly, HMM based feature points recognition algorithm, and finally, avatar controlling and animation generation algorithm. In LCS method, face region can be divided into many small piece regions in horizontal and vertical direction. Then the method will judge each cross point that if it is an object point, edge point or the background point. The HMM method will distinguish the mouth, eyes, nose etc. from these feature points. Based on the detected facial feature points, the 3D avatar is controlled by two ways: avatar orientation and animation, the avatar orientation controlling information can be acquired by analyzing facial geometric information; avatar animation can be generated from the face feature points smoothly. And finally for evaluating performance of the developed system, we implement the system on Window XP OS, the results show that the system can have an excellent performance.

  • PDF

애니메이션 캐릭터 얼굴의 3차원 회전정보 측정 (Estimation of 3D Rotation Information of Animation Character Face)

  • 장석우;원선희;최형일
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권8호
    • /
    • pp.49-56
    • /
    • 2011
  • 최근들어 문화산업이 발전함에 따라 애니메이션 콘텐츠가 급속히 보급되고 있다. 본 논문에서는 사람의 얼굴 영상 대신 2차원의 애니메이션 캐릭터 영상을 효과적으로 분석하여 캐릭터의 얼굴을 추출한 후, 3차원적인 얼굴의 회전정보를 측정하고, 이를 3차원 얼굴 모델로 표현하는 방법을 제안한다. 제안된 시스템은 처음으로 입력되는 애니메이션 캐릭터 얼굴을 받아들여 얼굴과 얼굴의 주요 구성요소들의 주요 색상을 학습하고, 이를 주색상 모델로 생성한다. 그런 다음, 생성된 주색상 모델을 이용하여 새롭게 입력되는 애니메이션 캐릭터의 얼굴영역과 눈영역을 추출한 후, 추출된 영역으로부터 기준 좌표계와 대상 좌표계를 설정한다. 그리고 이 두 좌표계의 기하학적인 관계를 이용하여 애니메이션 캐릭터 얼굴이 3차원적으로 회전한 정보를 추출한다. 마지막으로, 추출된 3차원 회전정보를 시각적으로 용이하게 확인하기 위해서 3차원의 얼굴 모델에 회전정보를 반영하여 화면에 표현한다. 본 논문의 실험에서는 제안된 애니메이션 캐릭터 얼굴의 3차원 회전 정보 추출 방법의 성능을 평가하기 위한 실험결과를 보인다.

A Study on the Realization of Virtual Simulation Face Based on Artificial Intelligence

  • Zheng-Dong Hou;Ki-Hong Kim;Gao-He Zhang;Peng-Hui Li
    • Journal of information and communication convergence engineering
    • /
    • 제21권2호
    • /
    • pp.152-158
    • /
    • 2023
  • In recent years, as computer-generated imagery has been applied to more industries, realistic facial animation is one of the important research topics. The current solution for realistic facial animation is to create realistic rendered 3D characters, but the 3D characters created by traditional methods are always different from the actual characters and require high cost in terms of staff and time. Deepfake technology can achieve the effect of realistic faces and replicate facial animation. The facial details and animations are automatically done by the computer after the AI model is trained, and the AI model can be reused, thus reducing the human and time costs of realistic face animation. In addition, this study summarizes the way human face information is captured and proposes a new workflow for video to image conversion and demonstrates that the new work scheme can obtain higher quality images and exchange effects by evaluating the quality of No Reference Image Quality Assessment.

해부학 기반의 3차원 얼굴 모델링을 이용한 얼굴 표정 애니메이션 (facial Expression Animation Using 3D Face Modelling of Anatomy Base)

  • 김형균;오무송
    • 한국정보통신학회논문지
    • /
    • 제7권2호
    • /
    • pp.328-333
    • /
    • 2003
  • 본 논문에서는 얼굴의 표정 변화에 영향을 주는 해부학에 기반한 18개의 근육군쌍을 바탕으로 하여 얼굴 표정 애니메이션을 위한 근육의 움직임을 조합할 수 있도록 하였다. 개인의 이미지에 맞춰 메쉬를 변형하여 표준 모델을 만든 다음, 사실감을 높이기 위해 개인 얼굴의 정면과 측면 2장의 이미지를 이용하여 메쉬에 매핑하였다. 얼굴의 표정 생성을 애니메이션 할 수 있는 원동력이 되는 근육 모델은 Waters의 근육모델을 수정하여 사용하였다. 이러한 방법을 사용하여 텍스처가 입혀진 변형된 얼굴을 생성하였다. 또한, Ekman이 제안한 6가지 얼굴 표정을 애니메이션 하였다.

3차원 모델을 사용한 애니메이션 캐릭터 얼굴의 합성 (Synthesizing Faces of Animation Characters Using a 3D Model)

  • 장석우;김계영
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권8호
    • /
    • pp.31-40
    • /
    • 2012
  • 본 논문에서는 3차원의 얼굴모델을 생성하여 사용자의 얼굴을 애니메이션 캐릭터의 얼굴에 자연스럽게 합성하는 새로운 방법을 제안한다. 제안된 방법에서는 먼저 정면과 측면의 직교하는 2장의 2차원 얼굴영상을 입력 받아 얼굴의 주요 특징을 템플릿 스테이크를 이용하여 추출하고, 추출된 특징점에 맞게 일반적인 3차원 얼굴 모델을 변형시킴으로써 사용자의 얼굴 형태에 적합한 얼굴 모델을 생성한다. 그리고 2장의 얼굴 영상으로부터 얻어지는 텍스처 맵을 3차원의 얼굴 모델에 매핑하여 현실감 있는 개인화된 얼굴 모델을 생성한다. 그런 다음, 개인화된 3차원의 얼굴모델을 애니메이션 캐릭터 얼굴의 위치, 크기, 표정, 회전 정보를 반영하여 캐릭터 얼굴에 자연스럽게 합성함으로써 현실감 있는 사용자 맞춤형 애니메이션을 제작한다. 실험에서는 제안된 캐릭터 얼굴 합성 방법의 성능을 검증하기 위해서 수행한 여러 가지 실험결과를 보인다. 본 논문에서 제안된 방법은 애니메이션 영화, 게임, 캐릭터를 이용한 여러 가지 응용 분야에서 유용하게 활용될 것으로 기대된다.

주색상 기반의 애니메이션 캐릭터 얼굴과 구성요소 검출 (Face and Its Components Extraction of Animation Characters Based on Dominant Colors)

  • 장석우;신현민;김계영
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권10호
    • /
    • pp.93-100
    • /
    • 2011
  • 애니메이션 캐릭터의 감정과 성격을 가장 잘 표출해 낼 수 있는 부분이 캐릭터의 얼굴이므로 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 효과적으로 분석하여 필요한 정보를 추출하는 연구의 필요성이 증가하고 있는 추세이다. 본 논문에서는 애니메이션 캐릭터 얼굴의 특성에 맞게 수정한 메쉬모델을 정의하고, 주색상 정보를 이용하여 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 효과적으로 검출하는 방법을 제안한다. 제안된 시스템은 먼저 애니메이션 캐릭터 얼굴에 맞는 메쉬모델을 생성하고, 이 메쉬모델을 처음 입력되는 애니메이션 캐릭터의 얼굴에 정합시켜 얼굴과 얼굴의구성요소에 대한 주색상 값을 추출한다. 그리고 추출된 주색상 값을 이용하여 새롭게 입력되는 영상으로부터 캐릭터의 얼굴과 얼굴 구성요소의 후보 영역을 선정한 후, 모델로부터 추출한 주색상 정보와 후보 영역들의 주색상 사이의 유사도를 측정하여 최종적인 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 검출한다. 본 논문의 실험에서는 제안된 애니메이션 캐릭터 얼굴과 구성요소 검출 방법의 성능을 평가하기 위한 실험결과를 보인다.

Comparing Learning Outcome of e-Learning with Face-to-Face Lecture of a Food Processing Technology Course in Korean Agricultural High School

  • PARK, Sung Youl;LEE, Hyeon-ah
    • Educational Technology International
    • /
    • 제8권2호
    • /
    • pp.53-71
    • /
    • 2007
  • This study identified the effectiveness of e-learning by comparing learning outcome in conventional face-to-face lecture with the selected e-learning methods. Two e-learning contents (animation based and video based) were developed based on the rapid prototyping model and loaded onto the learning management system (LMS), which is http://www.enaged.co.kr. Fifty-four Korean agricultural high school students were randomly assigned into three groups (face-to-face lecture, animation based e-learning, and video based e-learning group). The students of the e-learning group logged on the LMS in school computer lab and completed each e-learning. All students were required to take a pretest and posttest before and after learning under the direction of the subject teacher. A one-way analysis of covariance was administered to verify whether there was any difference between face-to-face lecture and e-learning in terms of students' learning outcomes after controlling the covariate variable, pretest score. According to the results, no differences between animation based and video based e-learning as well as between face-to-face learning and e-learning were identified. Findings suggest that the use of well designed e-learning could be worthy even in agricultural education, which stresses hands-on experience and lab activities if e-learning was used appropriately in combination with conventional learning. Further research is also suggested, focusing on a preference of e-learning content type and its relationship with learning outcome.

얼굴 애니메이션을 위한 동적인 근육모델에 기반한 3차원 얼굴 모델링에 관한 연구 (A Study on 3D Face Modelling based on Dynamic Muscle Model for Face Animation)

  • 김형균;오무송
    • 한국정보통신학회논문지
    • /
    • 제7권2호
    • /
    • pp.322-327
    • /
    • 2003
  • 본 논문에서는 효율적인 얼굴 애니메이션을 구축하기 위하여 동적인 근육 모델을 기반으로 한 3차원 얼굴 모델링 기법을 제안하였다. 동적인 근육 모델을 기반으로 얼굴 근육을 256개의 점과 이 점들을 연결한 faceline으로 구성한 wireframe을 구축하고, wireframe을 이용한 표준 모델을 구성한 후 정면과 측면의 두장의 2D 영상을 사용하여 텍스처 매핑을 실시하여 3차원 개인 얼굴 모델을 생성하였다. 정확한 매핑을 위하여 특징점들의 정면과 측면 부분을 이용했는데, 정면 이미지와 정면 특징점들의 2차원 좌표를 이용하여 텍스터 좌표를 가진 얼굴을 만든 다음, 측면 이미지와 측면 특징점들의 2차원 좌표를 이용하여 텍스터 좌표를 가진 얼굴을 구축하였다.

HEEAS: 감정표현 애니메이션 알고리즘과 구현에 관한 연구 (HEEAS: On the Implementation and an Animation Algorithm of an Emotional Expression)

  • 김상길;민용식
    • 한국콘텐츠학회논문지
    • /
    • 제6권3호
    • /
    • pp.125-134
    • /
    • 2006
  • 본 논문은 음성이 인간에게 전달되어 나타나는 여러 가지 감정 표현 중에서 단지 4가지 감정 즉 두려움, 싫증, 놀람 그리고 중성에 대한 감정 표현이 얼굴과 몸동작에 동시에 나타내는 애니메이션 시스템인 HEEAS(Human Emotional Expression Animation System)를 구현하는데 그 주된 목적이 있다. 이를 위해서 본 논문에서는 감정 표현이 풍부한 한국인 20대 청년을 모델로 설정하였다. 또한 입력되어진 음성 신호를 통해서 추출된 감정표현에 대한 데이터를 얼굴코드와 몸동작코드를 부여하고 이를 데이터 베이스화 하여 실제 애니메이션 구현을 하기 위한 처리의 시간을 최소화하였다. 즉, 입력되어진 음성 신호를 이용해서 원하는 결과인 얼굴, 몸동작에 대한 자료를 이진 검색을 이용해서 데이터베이스에서 찾으므로 검색 시간을 최소화하였다. 실제 감정 표현에 대한문제들을 실험을 통해서 얻은 결과가 99.9%의 정확도임을 알 수가 있었다.

  • PDF