계층적 행위 스크립트 표현을 통한 아바타-객체 행위 제어를 위한 인터페이스 기법

An Interface Technique for Avatar-Object Behavior Control using Layered Behavior Script Representation

  • 최승혁 (연세대학교 컴퓨터과학과) ;
  • 김재경 (연세대학교 컴퓨터과학과) ;
  • 임순범 (숙명여자대학교 멀티미디어과학과) ;
  • 최윤철 (연세대학교 컴퓨터과학과)
  • 발행 : 2006.09.01

초록

본 논문에서는 아바타의 행위(Avatar Behavior)를 상위 레벨 명령어(High-Level Behavior)들로 이루어진 스크립트로 제어하는 기법을 제안한다. 아바타 행위를 추상화 정도에 따라 구분하고 이를 표준화된 계층적 스크립트(Layered Script)로 정의 함으로써 사용자는 스크립트를 재사용할 수 있고 행위의 추상화 조절이 가능하다. 또한 가상 환경이 복잡해짐에 따라 아바타 행위도 다양하게 늘어날 뿐 아니라 아바타-객체 상호작용 처리 역시 복잡해지고 있다. 이러한 문제점을 해결하기 위해 아바타와 객체간의 상호작용을 위한 객체 모델을 제안하여 아바타와 객체간 벌어지는 행위들을 객체 안에 분산시켜 표현함으로써 객체지향 방식으로 아바타 행위를 유연하게 제어할 수 있도록 설계하였다. 이를 위해 제안 객체 모델에서는 객체의 상태에 따라 사용 가능한 행위가 결정되는 컨텍스트 메뉴(context menu) 인터페이스와 동작 생성 모델을 정의하였다. 또한 사용자는 기존의 2D 혹은 텍스트기반 스크립트 작성기법을 벗어나 제안된 3D 인터페이스 기법을 통하여 실시간으로 아바타의 행위 스크립트를 작성 및 재생 할 수 있다. 본 연구에서는 제안 기법의 활용을 위해 프레젠테이션 도메인 환경의 시스템을 구축하고 아바타-객체 행위제어 및 스크립트 생성 기법을 적용하였다. 본 논문에서는 아바타의 행위(Avatar Behavior)를 일종의 상위 레벨 명령어(Hi8h-Level TaskBehavior)들로 이루어진 스크립트로 제어하는 기법을 제시한다제안한다. 아바타 행위를 추상화 정도에 따라 구분하고 이를 표준화된 계층적 스크립트(Multi-LeveiLayered Script)로 정의 함으로써 사용자는 쉽게 스크립트를 재사용할 수 있고 행위의 추상화 정도도 쉽게 조절이 가능하다. 또한 또한 아바타와 객체간의 상호작용을 위한 객체 모델을 제시한다. 가상 환경이 복잡해짐에 따라 아바타 행위도 다양하게 늘어날 뿐 아니라 아바타-객체 상호작용 처리 역시 복잡해지고 있다. 이러한 문제점을 해결하기 위해 아바타와 객체간의 상호작용을 위한 객체 모델을 제안하여 아바타와 객체간 벌어지는 모든 행위들을 객체 안에 분산시켜 저장표현함으로써 객체지향 방식으로 아바타 행위를 유연하게 제어객체의 수와 무관하게 상호작용을 처리할 수 있도록 설계하였다. 이를 위해 또한 복잡해진 제안 객체 모델에서는 객체의 상태에 따라 사용 가능한 행위가 결정되는 가상 환경을 위해 새로운 인터페이스로 컨텍스트 메뉴(context menu) 인터페이스와 동작 생성 모델을 제시한다. 정의하였다. 객체 모델에서 객체의 상태 정보와 행위 정보를 분석해 아바타가 할 수 있는 행위를 컨텍스트 메뉴로 제공하기 때문에 사용자는 가상 환경의 상태에 상관 없이 직관적으로 명령을 줄 수 있다. 또한 사용자는 기존의 2D 혹은 텍스트기반 스크립트 작성기법을 벗어나 사용자는 제안된 3D 인터페이스 기법을 통하여 실시간으로 아바타의 행위 스크립트를 작성 및 재생 할 수 있다. 본 논문에서 제시한 시스템은 기존의 아바타 중심적인 제어를 객체에 분산함으로써 효율적이고 직관적인 명령을 내릴 수 있고 또한 손쉬운 시나리오 생성을 가능하게 하였다. 본 연구에서는 제안 기법의 활용을 위해 프리젠테이션 도메인 환경의 시스템을 구축하고 아바타-객체 행위제어 및 스크립트 생성 기법을 적용하였다.

In this paper, we suggested an avatar control technique using the high-level behavior. We separated behaviors into three levels according to level of abstraction and defined layered scripts. Layered scripts provide the user with the control over the avatar behaviors at the abstract level and the reusability of scripts. As the 3D environment gets complicated, the number of required avatar behaviors increases accordingly and thus controlling the avatar-object behaviors gets even more challenging. To solve this problem, we embed avatar behaviors into each environment object, which informs how the avatar can interact with the object. Even with a large number of environment objects, our system can manage avatar-object interactions in an object-oriented manner Finally, we suggest an easy-to-use user interface technique that allows the user to control avatars based on context menus. Using the avatar behavior information that is embedded into the object, the system can analyze the object state and filter the behaviors. As a result, context menu shows the behaviors that the avatar can do. In this paper, we made the virtual presentation environment and applied our model to the system. In this paper, we suggested the technique that we controling an the avatar control technique using the high-level behavior. We separated behaviors into three levels byaccording to level of abstract levelion and defined multi-levellayered script. Multi-leveILayered script offers that the user can control avatar behavior at the abstract level and reuses script easily. We suggested object models for avatar-object interaction. Because, TtThe 3D environment is getting more complicated very quickly, so that the numberss of avatar behaviors are getting more variableincreased. Therefore, controlling avatar-object behavior is getting complex and difficultWe need tough processing for handling avatar-object interaction. To solve this problem, we suggested object models that embedded avatar behaviors into object for avatar-object interaction. insert embedded ail avatar behaviors into object. Even though the numbers of objects areis large bigger, it can manage avatar-object interactions by very efficientlyobject-oriented manner. Finally Wewe suggested context menu for ease ordering. User can control avatar throughusing not avatar but the object-oriented interfaces. To do this, Oobject model is suggested by analyzeing object state and filtering the behavior, behavior and context menu shows the behaviors that avatar can do. The user doesn't care about the object or avatar state through the related object.

키워드

참고문헌

  1. Rickel. J. & W. L. Johnson. 'Task-Oriented Collaboration with Embodied Agents in Virtual Worlds,' in Embodied Conversational Agents. Cassell. J., J. Sullivan. S. Prevost. et al., Eds. Boston: MIT Press, 2000
  2. Yasmine Arafa, Abe Mamdani, Scripting embodied agents behaviour with CML, Proc. IUI, (2003), pp.313-316. 2003 https://doi.org/10.1145/604045.604109
  3. S. Kshirsagar, et al, E. Mamdani, Avatar Markup Language. Proc. Eurographics, EGVE (2002), pp. 169-177. 2002
  4. Zhisheng Huang, et aI, Implementation of a scripting language for VRML/X3D-based embodied agents, Proc web technology, (2003), pp.91-100. 2003 https://doi.org/10.1145/636593.636608
  5. Masaki Hayashi, TVML (TV program making language), ACM SIGGRAPH 98, (1998), pp.292-297. 1998 https://doi.org/10.1145/280953.282415
  6. Wanda Dann, Toby Dragon, Stephen Cooper, Kevin Dietzler, Kathleen Ryan, Randy Pausch, Objects: visualization of behavior and state, ACM SIGCSE Bulletin, v.35 n.3, September 2003 https://doi.org/10.1145/961290.961537
  7. M. Kallmann, D. Thalmann, Direct 3D Interaction with Smart Object, Proc. ACM VRST 99, London, 1999 https://doi.org/10.1145/323663.323683
  8. M. Kallmann and D. Thalmann, Modeling Behaviors of Interactive Objects for VR Applications, JVLC, Vol. 13, pp.177-195, 2002 https://doi.org/10.1006/jvlc.2001.0229
  9. L. Levinson, 'Connecting Planning and Acting: Towards an Architecture for Object-Specific Reasoning,' PhD thesis, Univ. of Pennsylvania, 1996
  10. Yoshiaki Shindo Hiroshi, 'Design and Implementation of Scenario Language for Cyber Teaching Assistant,' Information & Communication Technology, International Conference on Computers in Education, 2001
  11. E. Andre, J. Muller, and T. Rist. 'WebPersona: A Life-Like Presentation Agent for the World-Wide Web,' In Proc. of the IJCAI Workshop on Animated Interface Agents: Making them Intelligent, 1998
  12. Xiaoli Yang; Petriu, D.C.; Whalen, T.E.; Petriu, E.M., 'Script Language for Avatar Animation in 3D Virtual Environments,' Human-Computer Interfaces and Measurement Systems, VECIMS '03. 2003 IEEE International Symposium on, pp.101 -106, 2003
  13. James C. Lester, Luke S. Zettlemoyer, Joel P. Gregoire, William H. Bares, 'Explanatory lifelike avatars: performing user-centered tasks in 3D learning environments,' Proceedings of the third annual conference on Autonomous Agents, Seattle, Washington, United States, Pages: pp.24-31, 1999 https://doi.org/10.1145/301136.301154
  14. M. Kallmann and D. Thalmann, 'Modeling Behaviors of Interactive Objects for Virtual Reality Applications,' Journal of Visual Languages and Computing, Vol. 13, pp.177-195, 2002 https://doi.org/10.1006/jvlc.2001.0229
  15. Jae-Kyung Kim, Won-Sung Sohn, Soon-Bum Lim, Yoon-Chul Choy,' Avatar Behavior Representation and Control Technique: A Hierarchical Scripts Approach,' International Symposium on Computational and Information Sciences, Shanghai, China, pp.873-878, December 16-18, 2004