• 제목/요약/키워드: Multi-User Interaction

검색결과 149건 처리시간 0.034초

계층적 행위 스크립트 표현을 통한 아바타-객체 행위 제어를 위한 인터페이스 기법 (An Interface Technique for Avatar-Object Behavior Control using Layered Behavior Script Representation)

  • 최승혁;김재경;임순범;최윤철
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제33권9호
    • /
    • pp.751-775
    • /
    • 2006
  • 본 논문에서는 아바타의 행위(Avatar Behavior)를 상위 레벨 명령어(High-Level Behavior)들로 이루어진 스크립트로 제어하는 기법을 제안한다. 아바타 행위를 추상화 정도에 따라 구분하고 이를 표준화된 계층적 스크립트(Layered Script)로 정의 함으로써 사용자는 스크립트를 재사용할 수 있고 행위의 추상화 조절이 가능하다. 또한 가상 환경이 복잡해짐에 따라 아바타 행위도 다양하게 늘어날 뿐 아니라 아바타-객체 상호작용 처리 역시 복잡해지고 있다. 이러한 문제점을 해결하기 위해 아바타와 객체간의 상호작용을 위한 객체 모델을 제안하여 아바타와 객체간 벌어지는 행위들을 객체 안에 분산시켜 표현함으로써 객체지향 방식으로 아바타 행위를 유연하게 제어할 수 있도록 설계하였다. 이를 위해 제안 객체 모델에서는 객체의 상태에 따라 사용 가능한 행위가 결정되는 컨텍스트 메뉴(context menu) 인터페이스와 동작 생성 모델을 정의하였다. 또한 사용자는 기존의 2D 혹은 텍스트기반 스크립트 작성기법을 벗어나 제안된 3D 인터페이스 기법을 통하여 실시간으로 아바타의 행위 스크립트를 작성 및 재생 할 수 있다. 본 연구에서는 제안 기법의 활용을 위해 프레젠테이션 도메인 환경의 시스템을 구축하고 아바타-객체 행위제어 및 스크립트 생성 기법을 적용하였다. 본 논문에서는 아바타의 행위(Avatar Behavior)를 일종의 상위 레벨 명령어(Hi8h-Level TaskBehavior)들로 이루어진 스크립트로 제어하는 기법을 제시한다제안한다. 아바타 행위를 추상화 정도에 따라 구분하고 이를 표준화된 계층적 스크립트(Multi-LeveiLayered Script)로 정의 함으로써 사용자는 쉽게 스크립트를 재사용할 수 있고 행위의 추상화 정도도 쉽게 조절이 가능하다. 또한 또한 아바타와 객체간의 상호작용을 위한 객체 모델을 제시한다. 가상 환경이 복잡해짐에 따라 아바타 행위도 다양하게 늘어날 뿐 아니라 아바타-객체 상호작용 처리 역시 복잡해지고 있다. 이러한 문제점을 해결하기 위해 아바타와 객체간의 상호작용을 위한 객체 모델을 제안하여 아바타와 객체간 벌어지는 모든 행위들을 객체 안에 분산시켜 저장표현함으로써 객체지향 방식으로 아바타 행위를 유연하게 제어객체의 수와 무관하게 상호작용을 처리할 수 있도록 설계하였다. 이를 위해 또한 복잡해진 제안 객체 모델에서는 객체의 상태에 따라 사용 가능한 행위가 결정되는 가상 환경을 위해 새로운 인터페이스로 컨텍스트 메뉴(context menu) 인터페이스와 동작 생성 모델을 제시한다. 정의하였다. 객체 모델에서 객체의 상태 정보와 행위 정보를 분석해 아바타가 할 수 있는 행위를 컨텍스트 메뉴로 제공하기 때문에 사용자는 가상 환경의 상태에 상관 없이 직관적으로 명령을 줄 수 있다. 또한 사용자는 기존의 2D 혹은 텍스트기반 스크립트 작성기법을 벗어나 사용자는 제안된 3D 인터페이스 기법을 통하여 실시간으로 아바타의 행위 스크립트를 작성 및 재생 할 수 있다. 본 논문에서 제시한 시스템은 기존의 아바타 중심적인 제어를 객체에 분산함으로써 효율적이고 직관적인 명령을 내릴 수 있고 또한 손쉬운 시나리오 생성을 가능하게 하였다. 본 연구에서는 제안 기법의 활용을 위해 프리젠테이션 도메인 환경의 시스템을 구축하고 아바타-객체 행위제어 및 스크립트 생성 기법을 적용하였다.

사용자 상호작용에 의한 퍼지 인식도 구축 지원 시스템 (Fuzzy Cognitive Map Construction Support System based on User Interaction)

  • 신형욱;정종문;챠위핑;양형정;김경윤
    • 한국콘텐츠학회논문지
    • /
    • 제8권12호
    • /
    • pp.1-9
    • /
    • 2008
  • 인과관계의 지식을 모델링하고 표현하며 추론하는 주요 형식화 방법의 하나인 퍼지인식도(Fuzzy Cognitive Map)는 주로 인과지식공학에 많이 사용되고 있다. 인과관계의 자연스럽고 쉬운 의사결정의 이해와 전후관계의 자연스러운 설명이라는 장점에도 불구하고 인과관계의 지식 모델링과 표현은 구현에 있어서 수학적인 적용의 모호함과 복잡한 알고리즘으로 인해 상호작용에 기반 한 구축 시스템을 찾아보기 어렵다. 본 논문에서는 인과지식 추론을 위한 퍼지 인식도의 구축 지원 시스템을 제시한다. 본 논문에서 제안하는 인과관계 추론 시스템은 다중 전문가의 지식을 반영하기 위해 지식을 점진적으로 반영하여 퍼지 인식도를 구축한다. 또한 전문가와의 상호작용을 통해 구현된 퍼지 인식도의 구조를 동적으로 디스플레이함으로써 사용자 지향적인 환경을 제공한다.

웹 이용자의 정보탐색행위 패턴 분석 (Analyzing Patterns in User's Information Seeking Behavior on the Web)

  • 김성진
    • 정보관리학회지
    • /
    • 제23권4호
    • /
    • pp.197-214
    • /
    • 2006
  • 전통적인 정보환경에 비해 웹 환경은 매우 다양하고 이질적인 이용자들을 대상으로 하기 때문에 이용자의 개별적 특성에 초점을 맞추어서는 웹 정보탐색행위에 대한 일반적인 이해가 불가능하다. 따라서 본 연구는 웹 이용자에게서 보여지는 공통된 정보탐색행위에 초점을 맞춰 이용자들이 웹에서 어떻게 정보를 찾는지 그 행위 패턴을 분석하고자 한다. 이를 위해 시간대별 인터뷰 기법을 적용하여 Dervin의 인지이동 개념을 기반으로 웹과의 상호작용 속에서 이루어진 일련의 인지적 움직임을 파악하고 하였다. 본 연구는 응답자 21명을 대상으로 37개의 웹 탐색 경험을 조사하였다. 분석결과, 웹 정보탐색행위는 시작, 검색, 브라우징, 조사, 정보발견, 결정/행동, 종료의 7가지 유형으로 구성되었다 응답자별로 매우 다양한 행위 패턴을 보였으며 특히 브라우징 단계를 중심으로 반복되고 순환되면서 웹 정보탐색행위의 다방향적이고 비선형적인 특징을 보였다.

지능형 공간에서 청각장애인의 시선 방향 검출 (Detection of Gaze Direction for the Hearing-impaired in the Intelligent Space)

  • 오영준;홍광진;김종인;정기철
    • 정보처리학회논문지B
    • /
    • 제18B권6호
    • /
    • pp.333-340
    • /
    • 2011
  • 인간-컴퓨터 상호 작용은 인간공학과 정보기술을 융합하여 인간과 컴퓨터와의 상호 작용 기술을 연구하는 학문이고, 그 중에서도 지능형 공간은 정보화 사회에서 소외될 수 있는 장애인에게 더욱 효과적인 사용 환경을 제공할 수 있는 중요한 연구 분야이다. 장애인을 위한 지능형 공간에서의 정보 지원 방법은 장애 유형에 따라 달라지는데, 본 논문은 정보 지원 대상을 청각 장애인으로 한정한다. 청각 장애인에게 직접 접촉을 통해 정보 제공 위치를 인지시키는 방법을 제외하면, 시선이 향하고 있는 곳에 정보를 표시하는 것이 가장 효율적인 정보 제공 방법이기 때문에, 시선 방향 검출 방법은 필수적이다. 우리는 이처럼 청각 장애인에게 실내 생활 지원 서비스를 제공하기 위해 반드시 필요한 시선 방향 검출 방법을 제안한다. 제안된 방법은 다시점 영상(Multi-view Camera Image) 내에서 검출된 사용자 영역 정보를 이용하여, 시점 별 수평/수직 방향 시선각 후보를 생성하고 후보 간의 크기 비교를 통해 사용자의 시선 방향을 계산한다. 실험 결과에서, 제안된 방법은 높은 시선 방향 검출 성능을 보이며, 장애인을 위한 시나리오를 수행할 수 있는 가능성을 보였다.

미들웨어 기반의 텔레매틱스용 멀티모달 인터페이스 (A Multimodal Interface for Telematics based on Multimodal middleware)

  • 박성찬;안세열;박성수;구명완
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2007년도 한국음성과학회 공동학술대회 발표논문집
    • /
    • pp.41-44
    • /
    • 2007
  • In this paper, we introduce a system in which car navigation scenario is plugged multimodal interface based on multimodal middleware. In map-based system, the combination of speech and pen input/output modalities can offer users better expressive power. To be able to achieve multimodal task in car environments, we have chosen SCXML(State Chart XML), a multimodal authoring language of W3C standard, to control modality components as XHTML, VoiceXML and GPS. In Network Manager, GPS signals from navigation software are converted to EMMA meta language, sent to MultiModal Interaction Runtime Framework(MMI). Not only does MMI handles GPS signals and a user's multimodal I/Os but also it combines them with information of device, user preference and reasoned RDF to give the user intelligent or personalized services. The self-simulation test has shown that middleware accomplish a navigational multimodal task over multiple users in car environments.

  • PDF

멀티 공간 인터랙션 인터페이스 제공을 위한 대규모 앰비언트 디스플레이 환경 (Large-scale Ambient Display Environment for providing Multi Spatial Interaction Interface)

  • 윤창옥;박정필;윤태수;이동훈
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2009년도 춘계 종합학술대회 논문집
    • /
    • pp.30-34
    • /
    • 2009
  • 오늘날 다양한 앰비언트 또는 유비쿼터스 컴퓨팅 환경을 제공하기위해 사용자와 디스플레이 사이에서의 인터랙션 시스템이 개발되고 있다. 따라서 본 논문에서는 대규모 앰비언트 디스플레이 환경에서 인터랙티브 공간을 제공하기 위해 새로운 형태의 공간 인터랙션 인터페이스 시스템을 제안한다. 즉, 인터랙션 막으로 부터의 거리에 따라 두개의 인터랙션 영역들(인터랙티브 영역과 앰비언트 영역)로 나눈다. 먼저, 인터랙티브 영역에서는 사용자가 인터랙션 막에 가까이 다가갔을때 자유롭게 손 동작만으로 인터랙션을 할 수 있다. 그리고 인터랙티브 공간의 영역을 벋어날 경우 디스플레이는 일반적인 정보만을 보여주게 된다. 따라서 본 시스템은 다양한 인터랙션과 정보를 유비쿼터스 앰비언트 공간상에서 제공한다.

  • PDF

다중 센서 융합 알고리즘을 이용한 사용자의 감정 인식 및 표현 시스템 (Emotion Recognition and Expression System of User using Multi-Modal Sensor Fusion Algorithm)

  • 염홍기;주종태;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제18권1호
    • /
    • pp.20-26
    • /
    • 2008
  • 지능형 로봇이나 컴퓨터가 일상생활 속에서 차지하는 비중이 점점 높아짐에 따라 인간과의 상호교류도 점점 중요시되고 있다. 이렇게 지능형 로봇(컴퓨터) - 인간의 상호 교류하는데 있어서 감정 인식 및 표현은 필수라 할 수 있겠다. 본 논문에서는 음성 신호와 얼굴 영상에서 감정적인 특징들을 추출한 후 이것을 Bayesian Learning과 Principal Component Analysis에 적용하여 5가지 감정(평활, 기쁨, 슬픔, 화남, 놀람)으로 패턴을 분류하였다. 그리고 각각 매개체의 단점을 보완하고 인식률을 높이기 위해서 결정 융합 방법과 특징 융합 방법을 적용하여 감정 인식 실험을 하였다. 결정 융합 방법은 각각 인식 시스템을 통해 얻어진 인식 결과 값을 퍼지 소속 함수에 적용하여 감정 인식 실험을 하였으며, 특징 융합 방법은 SFS(Sequential Forward Selection) 특징 선택 방법을 통해 우수한 특징들을 선택한 후 MLP(Multi Layer Perceptron) 기반 신경망(Neural Networks)에 적용하여 감정 인식 실험을 실행하였다. 그리고 인식된 결과 값을 2D 얼굴 형태에 적용하여 감정을 표현하였다.

초고해상도 멀티 디지털 사이니지 영상 동기화 기술의 설계와 구현 (The Design and Implementation of Multiple Digital Signage Video Sync Technology for Ultra-high Resolution)

  • 박형일;유선규;문영태;김미옥;신용태
    • 방송공학회논문지
    • /
    • 제21권5호
    • /
    • pp.651-661
    • /
    • 2016
  • Digital signage has recently developed as a variety of forms of a large, high-resolution display provides ultra-high resolution panoramic sights to the user or provide personalized advertising through user interaction. It is also expected research and development of the open digital signage and to be equipped web-based interoperability content management system for ultra high-definition video content services with terminal equipment of a large multi display signage. In this paper, we study the implementation displayed in conjunction with more than a dozen high-resolution display in the ultra-high-resolution video and the technology of a multi-play sync video terminal using the synchronization technique for the several individual content of atypical picture resolution high definition video.

퍼지 연관 곱을 이용한 SNS 사용자의 계층적 시각화 방법 (Hierarchy Visualization method of SNS User using Fuzzy Relational)

  • 박선;권장우;정민아;이연우;이성로
    • 전자공학회논문지
    • /
    • 제49권9호
    • /
    • pp.76-84
    • /
    • 2012
  • 시각화는 소셜 네트워크의 분석을 위해서 소셜 네트워크의 사용자 관계를 새로운 시각에서 이해할 수 있도록 하는 중요한 역할을 담당하고 있다. 기존의 대부분의 시각화 방법은 복잡한 다차원 그래프를 통하여 소셜 네트워크상의 사용자의 관계를 집중적으로 표현하고 있다. 그러나 이러한 방법은 개인 사용자 중심으로 사회관계의 중요도를 직관적으로 파악하기 힘들다. 또한 대부분의 시각화 방법은 네트워크상의 노드들 간의 상호작용 정보에 의해서만 사용자 관계를 나타내기 때문에 사용자의 메시지가 사용자 상호관계에 반영되는 것이 미흡한 실정이다. 제안방법은 퍼지 연관 곱을 이용하여 사용자의 내부관계를 계산하며, 노드들 간의 상호작용 정보를 이용하여서 사용자의 네트워크상의 외부 접근 정보를 계산한다. 계산된 내부관계정보와 외부 접근 정보를 이용하여서 사용자중심의 계층적 시각화방법을 제한다. 이러한 문제를 해결하기 위해서 본 논문은 퍼지 연관 곱에 의한 사용자들의 내부관계와 네트워크상의 외부 접근 정보를 이용하여서 사용자를 중심으로 계층적으로 시각화하는 새로운 방법을 제안한다.

모델링 & 시뮬레이션 해석 결과 증강가시화 (Augmented Visualization of Modeling & Simulation Analysis Results)

  • 김민석;서동우;이재열;김재성
    • 한국CDE학회논문집
    • /
    • 제22권2호
    • /
    • pp.202-214
    • /
    • 2017
  • The augmented visualization of analysis results can play an import role as a post-processing tool for the modeling & simulation (M&S) technology. In particular, it is essential to develop such an M&S tool which can run on various multi-devices. This paper presents an augmented reality (AR) approach to visualizing and interacting with M&S post-processing results through mobile devices. The proposed approach imports M&S data, extracts analysis information, and converts the extracted information into the one used for AR-based visualization. Finally, the result can be displayed on the mobile device through an AR marker tracking and a shader-based realistic rendering. In particular, the proposed method can superimpose AR-based realistic scenes onto physical objects such as 3D printing-based physical prototypes in a seamless manner, which can provide more immersive visualization and natural interaction of M&S results than conventional VR or AR-based approaches. A user study has been performed to analyze the qualitative usability. Implementation results will also be given to show the advantage and effectiveness of the proposed approach.