• 제목/요약/키워드: Interactive avatar control

검색결과 8건 처리시간 0.028초

An Interactive Approach based on Genetic Algorithm Using Hidden Population and Simplified Genotypes for Avatar Synthesis

  • Lee, Jayong;Lee, Janghee;Kang Hoon
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2002년도 ICCAS
    • /
    • pp.120.1-120
    • /
    • 2002
  • In this paper, we propose an interactive genetic algorithm (IGA) to implement an automated 2D avatar synthesis. The IGA technique is capable of expressing user's personality in the avatar synthesis by using the user's response as a candidate for the fitness value. Our suggested IGA method isapplied to creating avatars automatically. Unlike the previous works, we introduce the concepts of 'hidden population', as well as 'primitive avatar' and 'simplified genotype', which are used to overcome the shortcomings of IGA such as human fatigue or reliability, and reasonable rates of convergence with a less number of iterations. The procedure of designing avatar models consists of two steps. The firl...

  • PDF

3D 아바타 동작의 선택 제어를 통한 감정 표현 (Emotional Expression through the Selection Control of Gestures of a 3D Avatar)

  • 이지혜;진영훈;채영호
    • 한국CDE학회논문집
    • /
    • 제19권4호
    • /
    • pp.443-454
    • /
    • 2014
  • In this paper, an intuitive emotional expression of the 3D avatar is presented. Using the motion selection control of 3D avatar, an easy-to-use communication which is more intuitive than emoticon is possible. 12 pieces different emotions of avatar are classified as positive emotions such as cheers, impressive, joy, welcoming, fun, pleasure and negative emotions of anger, jealousy, wrath, frustration, sadness, loneliness. The combination of lower body motion is used to represent additional emotions of amusing, joyous, surprise, enthusiasm, glad, excite, sulk, discomfort, irritation, embarrassment, anxiety, sorrow. In order to get the realistic human posture, BVH format of motion capture data are used and the synthesis of BVH file data are implemented by applying the proposed emotional expression rules of the 3D avatar.

인간 동작 데이타로 애니메이션되는 아바타의 학습 (Training Avatars Animated with Human Motion Data)

  • 이강훈;이제희
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권4호
    • /
    • pp.231-241
    • /
    • 2006
  • 제어 가능하고 상황에 따라 반응하는 아바타의 제작은 컴퓨터 게임 및 가상현실 분야에서 중요한 연구 주제이다. 최근에는 아바타 애니메이션과 제어의 사실성을 높이기 위해 대규모 동작 캡처 데이타가 활용되고 있다. 방대한 양의 동작 데이타는 넓은 범위의 자연스러운 인간 동작을 수용할 수 있다는 장점을 갖는다. 하지만 동작 데이타가 많아지면 적절한 동작을 찾는데 필요한 계산량이 크게 증가하여 대화형 아바타 제어에 있어 병목으로 작용한다. 이 논문에서 우리는 레이블링(labeling)이 되어있지 않은 모션 데이타로부터 아바타의 행동을 학습시키는 새로운 방법을 제안한다. 이 방법을 사용하면 최소의 실시간 비용으로 아바타를 애니메이션하고 제어하는 것이 가능하다. 본 논문에서 제시하는 알고리즘은 Q-러닝이라는 기계 학습 기법에 기초하여 아바타가 동적인 환경과의 상호작용에 따른 시행착오를 통해 주어진 상황에 어떻게 반응할지 학습하도록 한다. 이 접근 방식의 유효성은 아바타가 서로 간에, 그리고 사용자에 대해 상호작용하는 예를 보임으로써 증명한다.

식생활교육용 '어린이 푸드 아바타' 애플리케이션 개발 (Development of 'Children's Food Avatar' Application for Dietary Education)

  • 조주한;김숙배;김순경;김미현;김갑수;김세나;김소영;김정원
    • 대한지역사회영양학회지
    • /
    • 제18권4호
    • /
    • pp.299-311
    • /
    • 2013
  • An educational application (App) called 'Children's Food Avatar' was developed in this study by using a food DB of nutrition and functionality from Rural Development Administration (RDA) as a smart-learning mobile device for elementary school students. This App was designed for the development of children's desirable dietary habits through an on-line activity of food choices for a meal from food DB of RDA provided as Green Water Mill guide. A customized avatar system was introduced as an element of fun and interactive animation for children which provides nutritional evaluation of selected foods by changing its appearance, facial look, and speech balloon, and consequently providing chances of correcting their food choices for balanced diet. In addition, nutrition information menu was included in the App to help children understand various nutrients, their function and healthy dietary life. When the App was applied to 54 elementary school students for a week in November, 2012, significant increases in the levels of knowledge, attitude and behavior in their diet were observed compared with those of the control group (p < 0.05, 0.01). Both elementary students and teachers showed high levels of satisfaction ranging from 4.30 to 4.89 for the App, therefore, it could be widely used for the dietary education for elementary school students as a smart-learning device.

가상현실 자전거 시뮬레이터에서 시각화 네트워크 (Networked Visualization for a Virtual Bicycle Simulator)

  • 이종환;한순흥
    • 한국CDE학회논문집
    • /
    • 제9권3호
    • /
    • pp.212-219
    • /
    • 2004
  • This paper presents the visualization method of the KAIST interactive bicycle simulator. The simulator consists of two bicycles of 6 DOF and 4 DOF platforms, force feedback handlebars and pedal resistance systems to generate motion feelings; a real-time visual simulator, a HMD and a beam projection system; and a 3D sound system. The system has an integrating control network with the server-client network structure for multiple simulators. The visual simulator generates dynamic images in real-time while communicating with other modules of the simulator. The operator of the simulator can have realistic visual experience of riding on a velodrome or through the KAIST campus, while being able to watch the other bicycle with an avatar.

상호작용 영상합성을 위한 손의 움직임 추정 (Hand motion estimation for interactive image composition)

  • 구떠올라;서융호;두경수;최종수
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2008년도 하계종합학술대회
    • /
    • pp.951-952
    • /
    • 2008
  • This paper proposes a new method for image composition which estimates the rotation angle of human hand and uses the reserved image in real-time camera images. First, we capture a background image and extract a interesting region by background subtraction. Next, we estimate the skin region from the interesting region and calculate the rotation angle of estimated skin region using PCA(Principal Components Analysis). Finally, we composite the reserved image for the calculated rotation angle in camera images. The proposed method can be applied to control the 3D avatar for marker-less augmented reality.

  • PDF

Brain-Computer Interface 기반 인간-로봇상호작용 플랫폼 (A Brain-Computer Interface Based Human-Robot Interaction Platform)

  • 윤중선
    • 한국산학기술학회논문지
    • /
    • 제16권11호
    • /
    • pp.7508-7512
    • /
    • 2015
  • 뇌파로 의도를 접속하여 기계를 작동하는 뇌-기기 접속(Brain-Computer Interface, BCI) 기반의 인간-로봇상호작용(Human-Robot Interaction, HRI) 플랫폼을 제안한다. 사람의 뇌파로 의도를 포착하고 포착된 뇌파 신호에서 의도를 추출하거나 연관시키고 추출된 의도로 기기를 작동하게 하는 포착, 처리, 실행을 수행하는 플랫폼의 설계, 운용 및 구현 과정을 소개한다. 제안된 플랫폼의 구현 사례로 처리기에 구현된 상호작용 게임과 처리기를 통한 외부 장치 제어가 기술되었다. BCI 기반 플랫폼의 의도와 감지 사이의 신뢰성을 확보하기 위한 다양한 시도들을 소개한다. 제안된 플랫폼과 구현 사례는 BCI 기반의 새로운 기기 제어 작동 방식의 실현으로 확장될 것으로 기대된다.

깊이맵 센서를 이용한 3D캐릭터 가상공간 내비게이션 동작 합성 및 제어 방법 (3D Character Motion Synthesis and Control Method for Navigating Virtual Environment Using Depth Sensor)

  • 성만규
    • 한국멀티미디어학회논문지
    • /
    • 제15권6호
    • /
    • pp.827-836
    • /
    • 2012
  • 키넥트의 성공적인 등장 이후 이 센서를 이용하여 사용자의 아바타에 해당하는 3차원 캐릭터의 움직임을 제어하는 많은 인터액티브 콘텐츠가 제작되었다. 하지만, 키넥트의 특성 상 사용자는 키넥트를 정면으로 바라보아야 하며, 모션 또한 제자리에서 수행할 수 있는 동작 정도만으로 국한되었다. 이 단점은 게임에서 가장 중요한 요구기능 중 하나인 가상공간 내비게이션을 수행하지 못하게 하는 근본적인 이유가 되었다. 본 논문은 이와 같은 단점을 해결하기 위한 새로운 방법을 제안한다. 두 단계로 이루어진 본 방법은 첫 번째 단계로서 사용자의 내비게이션 의도를 파악하기 위해 제자리 걷기 동작 제스처인식을 수행한다. 내비게이션 의도가 파악되면, 다음 단계에 현재 제자리 걷기동작을 상체와 하체 모션으로 자동으로 분리한 후, 미리 입력 받은 하체모션캡처 데이터를 현재 캐릭터 속도를 반영하여 수정한 뒤 분리된 원래 하체모션과 자연스럽게 교체한다. 본 논문에서 제안된 알고리즘을 이용하면, 키넥트 센서를 통해 사용자의 상체 모션을 그대로 반영함과 동시에 모션캡처 데이터를 이용하여 하체 동작을 실제 걷는 동작으로 바꾸어주기 때문에 사용자가 조정하는 3차원 캐릭터는 가상공간을 자연스럽게 내비게이션할 수 있다.