• Title/Summary/Keyword: 캐릭터 생성 모델

Search Result 59, Processing Time 0.023 seconds

Character Animation Based on Emotional Model (정서모델을 이용한 캐릭터 애니메이션)

  • Shim, Youn-Sook;Byun, Hye-Ran
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.229-232
    • /
    • 2001
  • 최근 컴퓨터를 이용하여 사용자와 상호작용 하는 과정에서 사용자의 정서 상태를 파악하고, 이에 대응하여 적절한 행동을 할 수 있는 감성 캐릭터 생성에 대한 연구가 요구되고 있다. 특히 캐릭터 애니메이션에 있어서도 애니메이터의 수작업이나 외부 장비를 이용하지 않고, 캐릭터의 감성 상태에 따라 애니메이션을 자동으로 생성할 수 있다. 본 논문은 이러한 감성 시스템을 설계하고 캐릭터의 감성에 따라 애니메이션 하는 방법을 제안한다. 본 연구에서는 캐릭터에 감성을 부여하기 위하여 Ortony의 인지적 정서 모델을 바탕으로 하여 새로운 감성 모델을 제안하였고 이를 바탕으로 물고기 캐릭터에 적용하여 시스템을 구현하였다.

  • PDF

The Development of Reenactment System (사건 재연 시스템 개발)

  • 윤여천;변혜원;전성규
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2001.11b
    • /
    • pp.45-49
    • /
    • 2001
  • 본 논문에서는 실제 카메라 영상으로 획득하기 어려운 화재, 살인 등의 뉴스 사건을 시청자들에게 효과적으로 전달하기 위해서 다수의 가상캐릭터가 등장하는 애니메이션을 신속, 편리하게 제작할 수 있는 사건 재연 시스템의 개발 기법을 소개한다. 본 시스템은 미리 구축된 동작 및 모델 라이브러리를 이용하여 다수의 가상캐릭터 움직임을 제어함으로써 고가의 동작 포착 장비와 연기자가 없어도 신속한 가상캐릭터 애니메이션 제작이 가능하다. 사건 재연 시스템의 가상 캐릭터 동작 제어는 동작 지정, 동작 생성, 동작 편집의 세 단계로 구성된다. 동작 지정 단계에서는 사건 시나리오에 따라 모델 라이브러리부터 가상캐릭터와배경 모델을 선택하고, 동작 라이브러리부터 가상캐릭터의 동작을 선택한다. 동작 생성 단계에서는 지정된 특정 사건을 기술하는 동작에 이동 동작을 연결함으로써 가상캐릭터의 부드러운 동작을 생성한다. 동작편집 단계에서는 가상캐릭터 사이의 상호 작용 또는 가상캐릭터와 가상환경의 상호작용을 보다 정확하게 제어하기 위해서 특정한 시간에서의 가상캐릭터 위치와 자세 등을 조정한다. 본 시스템은 편리한 사용을 위해 대화형과 스크립트 기반의 인터페이스를 적용하였으며, 3차원 그래픽 소프트웨어인 Maya의 플러그인(Plug-in) 소프트웨어 형태로 개발하여 Maya의 고성능 그래픽 기능을 활용하였다.

  • PDF

Polygonal Model Simplification Method for Game Character (게임 캐릭터를 위한 폴리곤 모델 단순화 방법)

  • Lee, Chang-Hoon;Cho, Seong-Eon;Kim, Tai-Hoon
    • Journal of Advanced Navigation Technology
    • /
    • v.13 no.1
    • /
    • pp.142-150
    • /
    • 2009
  • It is very important to generate a simplified model from a complex 3D character in computer game. We propose a new method of extracting feature lines from a 3D game character. Given an unstructured 3D character model containing texture information, we use model feature map (MFM), which is a 2D map that abstracts the variation of texture and curvature in the 3D character model. The MFM is created from both a texture map and a curvature map, which are produced separately by edge-detection to locate line features. The MFM can be edited interactively using standard image-processing tools. We demonstrate the technique on several data sets, including, but not limited to facial character.

  • PDF

Synthesizing Faces of Animation Characters Using a 3D Model (3차원 모델을 사용한 애니메이션 캐릭터 얼굴의 합성)

  • Jang, Seok-Woo;Kim, Gye-Young
    • Journal of the Korea Society of Computer and Information
    • /
    • v.17 no.8
    • /
    • pp.31-40
    • /
    • 2012
  • In this paper, we propose a method of synthesizing faces of a user and an animation character using a 3D face model. The suggested method first receives two orthogonal 2D face images and extracts major features of the face through the template snake. It then generates a user-customized 3D face model by adjusting a generalized face model using the extracted facial features and by mapping texture maps obtained from two input images to the 3D face model. Finally, it generates a user-customized animation character by synthesizing the generated 3D model to an animation character reflecting the position, size, facial expressions, and rotational information of the character. Experimental results show some results to verify the performance of the suggested algorithm. We expect that our method will be useful to various applications such as games and animation movies.

Emotional Character Model using User Interaction (사용자 상호작용에 따른 감성 캐릭터 모델)

  • 심연숙;변혜란
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2000.11a
    • /
    • pp.447-450
    • /
    • 2000
  • 컴퓨터 그래픽 기술의 발전에 따라 영화, 가상현실, 게임 등의 분야에서 캐릭터 애니메이션에 대한 연구가 활발히 이루어지고 있다 기존의 캐릭터 애니메이션 기술에서는 애니메이터가 직접 움직임을 정의하였지만, 최근에는 사용자의 환경이나 실세계 환경에 상호작용 하면서 지능적으로 동작할 수 있는 감성 캐릭터 애니메이션이 요구되고 있다. 본 논문은 사용자와 상호작용하는 과정에서 사용자의 감정상태를 파악하고, 이에 대응하는 적절한 행동을 할 수 있는 캐릭터의 생성에 대한 연구이다. 본 논문에서는 캐릭터에 감성을 부여하기 위하여 OCC모델을 바탕으로 하여 시스템을 설계하였다

  • PDF

Bringing Characters to Life: AI Chatbot (캐릭터를 현실로: AI 챗봇)

  • Junghye Min;Sang-Hun Kim;Ji-Min Kim
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.25-27
    • /
    • 2023
  • 본 논문에서는 캐릭터 챗봇을 학습시키고, 학습된 모델을 React 기반 웹 페이지에 통합하는 것을 목표로 한다. 웹 페이지 사용자들은 실시간으로 게임이나 영화 캐릭터와 대화할 수 있는 기능을 제공받게 된다. 캐릭터 챗봇은 사용자의 질문을 이해하고 학습된 캐릭터의 특성에 따라 적절한 응답을 생성함으로써 상호작용하게 된다. 사용자가 웹 페이지에서 입력한 질문이나 요청은 챗봇 모델을 통해 처리되며, AI 챗봇은 학습된 지식과 데이터를 활용하여 응답을 생성한다. 사용자는 웹 페이지에서 자연스러운 대화를 통해 원하는 캐릭터와 대화를 이어갈 수 있게 된다.

  • PDF

Estimation of 3D Rotation Information of Animation Character Face (애니메이션 캐릭터 얼굴의 3차원 회전정보 측정)

  • Jang, Seok-Woo;Weon, Sun-Hee;Choi, Hyung-Il
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.8
    • /
    • pp.49-56
    • /
    • 2011
  • Recently, animation contents has become extensively available along with the development of cultural industry. In this paper, we propose a method to analyze a face of animation character and extract 3D rotational information of the face. The suggested method first generates a dominant color model of a face by learning the face image of animation character. Our system then detects the face and its components with the model, and establishes two coordinate systems: base coordinate system and target coordinate system. Our system estimates three dimensional rotational information of the animation character face using the geometric relationship of the two coordinate systems. Finally, in order to visually represent the extracted 3D information, a 3D face model in which the rotation information is reflected is displayed. In experiments, we show that our method can extract 3D rotation information of a character face reasonably.

Emotional character animation system (감성 캐릭터 애니메이션 시스템 설계)

  • 심연숙;변혜란
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.293-295
    • /
    • 2000
  • 그래픽스 기술의 발전에 따라 캐릭터 애니메이션에 대한 연구가 활발히 이루어지고 있다. 이에 사용자의 환경이나 실세계 환경에 상호작용 하면서 지능적으로 동작하는 캐릭터 애니메이션이 요구되고 있다. 본 논문은 사용자와 상호작용 하는 과정에서 사용자의 감정상태를 파악하고, 이에 대응하는 적절한 행동을 할 수 있는 캐릭터의 생성에 대한 연구이다. 본 논문에서는 캐릭터에 대하여 자동적(autonomous)이고 상호적인(interactive) 애니메이션을 전제로 하는 감성 캐릭터 애니메이션 시스템을 설계한다. 특히 캐릭터에 감성을 부여하기 위하여 OCC모델을 바탕으로 하여 시스템을 설계하였다.

  • PDF

Fish Schooling Behavior Modeler for Constructing Virtual Underwater World (가상해저 환경구축을 위한 Fish 군중행동 모델러)

  • Kim, Jong-Chan;Cho, Seung-Il;Kim, Eung-Kon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10a
    • /
    • pp.158-161
    • /
    • 2006
  • 현대 영상산업에서 컴퓨터 그래픽스가 차지하는 비중은 크게 늘어나고 있다. 컴퓨터 그래픽스 기술의 발달로 인한 디지털 영화나 애니메이션이 점차 증가함에 따라 이러한 장면이 등장하는 가상캐릭터를 쉽게 접할 수 있다. 이런 가상 캐릭터를 이용하여 가상 해저 환경을 생성하기 위해서는 3D 모델링 및 애니메이션 기술을 개발해야 한다. 국내에서는 가상 해저 환경을 구축하여 실감 체험을 할 수 있는 VR 콘텐츠 기술 개발에 관련하여 군중 장면 처리 및 군중 행동 시스템의 설계 및 구현 등의 연구가 있었으나 군중 행동 모델러 기술 개발을 실용화 할 단계까지는 미치지 못하고 있다. 본 논문에서는 가상 해저환경에 존재하는 다수의 캐릭터의 움직임을 수작업으로 제공하는 것이 시간과 비용이 많이 소요되기 때문에 이를 자동화하여 보다 사실적이고 효율적인 가상 해저환경 속에서 군중 행동 장면을 생성하기 위해서 Fish 군중 행동 모델러 기술을 개발한다.

  • PDF

Face and Its Components Extraction of Animation Characters Based on Dominant Colors (주색상 기반의 애니메이션 캐릭터 얼굴과 구성요소 검출)

  • Jang, Seok-Woo;Shin, Hyun-Min;Kim, Gye-Young
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.10
    • /
    • pp.93-100
    • /
    • 2011
  • The necessity of research on extracting information of face and facial components in animation characters have been increasing since they can effectively express the emotion and personality of characters. In this paper, we introduce a method to extract face and facial components of animation characters by defining a mesh model adequate for characters and by using dominant colors. The suggested algorithm first generates a mesh model for animation characters, and extracts dominant colors for face and facial components by adapting the mesh model to the face of a model character. Then, using the dominant colors, we extract candidate areas of the face and facial components from input images and verify if the extracted areas are real face or facial components by means of color similarity measure. The experimental results show that our method can reliably detect face and facial components of animation characters.