• Title/Summary/Keyword: 동작 언어

Search Result 440, Processing Time 0.029 seconds

Cyberclass Avatar System using Behavior Description Language (행위 표현 언어를 이용한 Cyberclass 아바타 시스템의 $구현^1$)

  • 김정희;김재경;최윤철;임순범
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2004.05a
    • /
    • pp.550-553
    • /
    • 2004
  • 최근 웹과 가상환경에서는 사실감과 몰입감을 증대시키고 사용자와 상호작용 할 수 있는 아바타의 연구가 활발히 이루어지고 있으나, 아바타 동작의 제어를 위한 기존의 연구들은 하위 동작과 관련된 복잡한 데이터를 포함하고 있어서 사용자가 작성하기에는 난해한 점이 많았고, 다양한 작업 도메인에 적용할 때에는 해당 도메인에 맞게 언어를 재 작성해야 하는 문제점이 있었다. 따라서 본 연구에서는 사용자가 작성하기 쉬운 형태로 정의된 작업수준의 행위 표현 언어와 작성된 행위의 세부 동작들을 위한 동작 표현 언어를 각각 정의하고, 행위 표현 언어를 동작 표현 언어로 변환시키기 위해 Interpreter를 구현하였으며, 아바타의 모션라이브러리를 구축하여 Cyberclass 아바타 시스템을 구현하였다 또한 제안된 행위 표현 언어를 기존 연구와 비교하여, 행위 표현 언어가 아바타의 행위에 대해 좀 더 간단하게 작성 되는 것을 알 수 있었다.

  • PDF

Shopping Mall Avatar System Using Behavior and Motion Description Language (수준별 행위 표현 기법을 이용한 쇼핑몰도우미 아바타 시스템의 구현)

  • Kim, Jung-Hee;Lee, Gui-Hyun;Lim, Soon-Bum
    • Journal of Korea Multimedia Society
    • /
    • v.8 no.4
    • /
    • pp.566-574
    • /
    • 2005
  • In spite of recent increase in the use of avatar in Web and Virtual Reality, there has not been a service that allows users to control directly the avatar behaviors. In addition, the conventional behavior control languages required a lot of complicated information for controlling the avatar motions. Moreover, in order to apply written languages to a different task domain, it was necessary to modify or rewrite the languages. In this paper, we define Task-Level Behavior Description Language and Motion Representation Language for more simple control of the avatar behavior. The first thing allows describing the avatar behaviors in each task domain, and The second thing enables writing detailed data for motion control. And in this paper, we developed an interpreter which can automatically change the Behavior Description Language to the Motion Representation Language. So this system allow users control the avatar behavior simply with only use the Behavior Description Language. The system was applied to shopping mall and the Task-level Behavior Description Language was compared with conventional languages to see how it was more effective in behavior description.

  • PDF

Definition and Application of a Layered Avatar Behavior Script Language for Reusability and Simplicity (재사용성 및 용이성을 위한 계층적 아바타 행위 스크립트 언어의 정의)

  • Kim Jae-Kyung;Choi Seung-Hyuk;Sohn Won-Sung;Lim Soon-Bum;Choy Yoon-Chul
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.33 no.8
    • /
    • pp.455-476
    • /
    • 2006
  • An avatar script language consists of commands set which is used to control avatar behaviors in cyberspace. The script language should be abstract from complex low-level concepts, so that a user can write down a scenario script easily without concerning about physical motion parameters. Also, the script should be defined in a standard format and structure to allow reusing in various implementation tools. In this paper, a layered script language is proposed for avatar behavior representation and control, which consists of task-level behavior, high-level motion and primitive motion script language. The script language of each layer represents behavior elements for a scenario scripting interface, an avatar motion sequence, and geometric information of implementation environment, respectively. Therefore, a user can create a scenario script by abstract behavior interface and a script can be applied to various implementations by the proposed translating process. A presentation domain is chosen for applying the proposed script language and the implementation result shows that the script is flexibly applied in several applications.

CyberClass Avatar System using Task-Level Behavior Description Language (작업 수준의 행위 표현 언어를 이용한 사이버강의용 아바타 시스템)

  • Kim, Jung-Hee;Lim, Soon-Bum
    • The KIPS Transactions:PartB
    • /
    • v.11B no.5
    • /
    • pp.597-602
    • /
    • 2004
  • In spite of recent increase in the use of avatar systems in Web and Virtual Reality, there has not been a service that allows users to control directly the avatar behaviors. In addition, the conventional behavior control languages required a lot of complicated information for controlling the behaviors, so that users had difficulty using them. To apply written languages to a different task domain, moreover, it was necessary to modify or rewrite the languages. In this paper, for the avatar behavior control more simply define, “Task-Level Behavior Description Language,” which allows description the avatar behaviors in each task domain and “Motion Representation Language,” which enables writing detailed data for motion control. The system, developed in this paper, “included an Interpreter,” which automatically creates the Motion Representation Language, allowing users to easily control the avatar behaviors simply with the Behavior Description Language. The system was also applied to cyber classes, and the Task-level Behavior Description Language was compared with conventional languages to see how it was more effective in behavior description.

Implementation of a Human Body Motion Pattern Classifier using Extensions of Primitive Pattern Sequences (프리미티브 패턴 나열의 확장에 의한 사람 몸 동작 패턴 분류기의 구현)

  • 조경은;조형제
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2000.11a
    • /
    • pp.475-478
    • /
    • 2000
  • 사람의 몸 동작을 인식해야하는 여러 응용분야에서의 필요성이 대두되면서 이 분야로의 연구가 활발해지고 있다. 이 논문은 사람의 비언어적 행동을 자동적으로 분석할 수 있는 인식기 개발에 관한 것으로 실세계 3 차원 좌표값을 입력으로 하는 사람 몸 동작 패턴 분류기의 구현방법을 소개한 것이다. 하나의 사람 몸 동작은 각 몸 구성 성분(손, 아래팔, 위팔, 어깨, 머리, 몸통 등)의 움직임을 조합해서 정의한 수가 있기 때문에 개별적인 각 몸 구성성분의 움직임을 인식하여 조합해서 임의의 동작을 판별하려는 방법을 적용한다. 사람 몸 동작 패턴 분류기는 측정된 실세계 3 차원 좌표 자료를 양자화한 후 xy, zy 평면에 투영한 값을 자자 구한다. 이 결과를 각각 8 방향 체인 코드로 바꾸고 2 단계 체인 코드 평활화 사업을 하여, 4 방향 코드 체적화 및 대표 코드로의 압축단계를 거친다. 이로서 생성된 프리미티브 패턴나열들을 동작 클래스별로 분류하여 프리미티브 패턴나열의 확장으로 각각의 식별기를 구축하여 각 몸 구성 성분별 동작들을 분류한다. 일련의 실험이 행해져 그 타당성을 확인하였으며, 차후에 이 분류기는 비언어적 행동 분석을 위한 사람 몸 동작 인식기의 전처리 단계로 사용되어진 것이다.

  • PDF

3D Avatar Gesture Representation for Collaborative Virtual Environment Design (CVE 디자인을 위한 3D 아바타의 동작 표현 연구)

  • Lee Kyung-Won;Jang Sun-Hee
    • The Journal of the Korea Contents Association
    • /
    • v.5 no.4
    • /
    • pp.122-132
    • /
    • 2005
  • CVE(Collaborative Virtual Environment) is the virtually shared area where people cannot come together physically, but wish to discuss, collaborate on, or even dispute certain matters. In CVEs, in habitants are usually represented by humanoid embodiments, generally referred to as avatars. But most current graphical CVE systems fail to reflect the natural relationship between the avatar's gesture and the conversation that is taking place. More than 65% of the information exchanged during a person to person conversation is carried on the nonverbal band. Therefore, it is expected to be beneficial to provide such communication channels in CVEs in some way. To address this issue, this study proposes a scheme to represent avatar's gestures that can support the CVE users' communication. In the first level, this study classifies the non-verbal communication forms that can be applicable to avatar gesture design. In the second level, this study categorizes the body language according to the types of interaction with verbal language. And in the third level, this study examines gestures with relevant verbal expressions according to the body parts-from head to feet. One bodily gesture can be analyzed in the description of gesture representation, the meaning of gesture and the possible expressions, which can be used in gestural situation.

  • PDF

Study on the Motion Acting in a Game Character Animation (게임캐릭터애니메이션 동작연기연구)

  • Hwang Kil-Nam
    • The Journal of the Korea Contents Association
    • /
    • v.6 no.9
    • /
    • pp.116-123
    • /
    • 2006
  • This study aims to develop the game character to encompass more complicated motions, an upgrade from simple actions, to demonstrate different emotional state. The character takes a medium role in describing various situations by applying the motion of pantomimist and making a connection to the 3D character action. Motion acting is an upgraded version of the basic motion to show various emotional phases such as joy, anger, sorrow and pleasure. Moreover, it delivers clear messages through emotional acting in opposition to symbolic language and provides various perspectives of motion acting.

  • PDF

Development of Sensor System for Finger Gesture (수화 인식에 대한 센서 시스템)

  • Lee, Jaehong;Jeong, Eunseok;Kim, DaeEun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.4-5
    • /
    • 2011
  • 수화는 몸 동작 또는 손가락의 움직임을 통하여 상호 커뮤니케이션을 하는 하나의 언어이며, 이 언어의 디지탈 미디어로의 소통을 위해서는 동작을 하나의 의미 있는 단어, 음절로의 표현이 가능해야 한다. 여기서는 몸 동작, 팔 다리의 움직임 보다는 손가락의 움직임에 초점을 맞추어 지문자 인식에 필요한 센서 시스템에 대하여 고찰한다. 우선 연속적인 지문자, 지숫자의 입력을 인식하기 위해서는 각 문자 절음 인식이 가장 중요한 문제가 된다. 절음 위치를 인식하는 것은 현재 입력된 패턴과 다음 패턴을 구분지어 각각 다른 지문자 혹은 지숫자로 인식할 수 있게 하는 기반이 된다. 손가락 구부러짐의 구분 및 인식을 위한 방법의 개발을 위해, 언어별 수화의 특징 분석을 토대로 다양한 적용 가능한 센서를 탐색하고 수화 장갑을 위한 원천기술을 개발, 수화 장갑 프로토타입을 제작하였다.

  • PDF

A Study on Implementation of Test Script Language for Embedded System using ANTLR (ANTLR 을 이용한 임베디드 시스템 테스트 스크립트 언어 구현 방안)

  • Shin, Hyun-Kyu;Lee, Jae-Seung;Choi, Jong-Wook;Cheon, Yee-Jin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.04a
    • /
    • pp.27-29
    • /
    • 2011
  • 위성 전체 시스템의 동작과 임무 수행을 책임지고 있는 위성 탑재 소프트웨어의 개발 과정에서 위성 탑재 컴퓨터를 이해하고 소프트웨어가 동작하기 위한 환경을 구성하는 작업은 필수적인 과정이다. 위성 탑재 소프트웨어 개발의 초기 과정은 하드웨어와 매우 밀접하게 관련되어 있으며, 이러한 하드웨어의 동작을 보다 쉽게 테스트하기 위한 환경이 필요하게 된다. 최근 위성 탑재 컴퓨터로 널리 쓰이고 있는 LEON 2/3 플랫폼은 AHB-UART 를 이용하여 Memory 에 대한 직접적인 R/W Operation 을 지원하고 있는데, 본 논문에서는 이 기능을 이용하여 위성 탑재 컴퓨터를 보다 쉽게 테스트할 수 있는 테스트 스크립트 언어의 구현 방안에 대하여 기술하며, 더불어 이러한 테스트 언어의 구현에 있어 ANTLR 을 이용하는 방안도 함께 소개한다.