• 제목/요약/키워드: Intuitive interface

검색결과 235건 처리시간 0.022초

스마트 폰 기반의 마우스와 키보드 제어 어플리케이션 (The Mouse & Keyboard Control Application based on Smart Phone)

  • 임양미
    • 한국멀티미디어학회논문지
    • /
    • 제20권2호
    • /
    • pp.396-403
    • /
    • 2017
  • In recent years, the use of touch screens has expanded, and devices such as remote controllers have been developed in various ways to control and access contents at long range. The wireless-based touch screen is used in classroom, seminar room, and remote video conversation in addition to the TV remote control. The purpose of the study is to design a smart phone-based intuitive interface that can perform the role of a wireless mouse and a wireless keyboard at range using Bluetooth and to develop an application that integrates functions of a mouse and a keyboard. Firstly, touch interaction model for controlling software such as PowerPoint by connecting to a general PC on a smart phone has been studied. The most simple touch operation interface is used to reproduce the function of existing devices and design more simply. The studies of the extension of interfaces with various functions are important, but development of optimized interfaces for users will become more important in the future. In this sense, this study is valuable.

모션 데이터를 사용한 대화식 실시간 얼굴 애니메이션 (Interactive Realtime Facial Animation with Motion Data)

  • 김성호
    • 한국컴퓨터산업학회논문지
    • /
    • 제4권4호
    • /
    • pp.569-578
    • /
    • 2003
  • 본 논문은 광학식 얼굴 모션 캡쳐 데이터를 재사용하여 원하는 얼굴 표정 애니메이션을 실시간에 생성하는 방법을 기술한다. 이 방법의 핵심요소는 얼굴 표정들 간의 거리를 정의하고 이를 이용하여 표정들을 적당한 공간에 분포시키는 방법과 이 공간을 사용하여 실시간 표정 애니메이션을 생성하기 위한 사용자 인터페이스 기법이다. 우리는 약 2400여개의 얼굴 표정 프레임 데이터를 이용하여 공간을 생성하였다. 그리고 사용자가 이 공간을 자유롭게 항해할 때, 항해경로 상에 위치한 얼굴 표정 프레임 데이터들이 연속적으로 선택되어 하나의 애니메이션이 생성되도록 하였다. 약 2400여개의 얼굴 표정 프레임 데이터들을 직관적인 공간상에 분포하기 위해서는 데이터와 데이터 사이의 거리를 계산해야할 필요가 있고, 각 데이터와 데이터 사이의 최단거리를 구하는데 있어서는 Floyd 알고리즘을 사용하며, 이를 이용하여 Manifold distance를 구한다. 직관적인 공간에서의 데이터 배치는 얼굴 표정 프레임 데이터들의 Manifold distance를 이용하여 Multidimensional Scaling을 적용하고, 이로부터 2D 평면에 균일하게 분포하였다. 우리는 이와 같은 방법으로 기존의 얼굴 표정 프fp임 데이터들 사이의 거리를 원형 그대로 살리면서 의미 있게 직관적인 공간에 분포한다. 그러므로 본 논문에서 제시한 기법은 사용자가 항해하고자 하는 얼굴 표정 프레임 데이터들이 항상 주변에 존재할 수 있기 때문에, 얼굴 표정 애니메이션을 생성하기 위해서 직관적인 공간을 제한 없고 자유로운 항해를 할 수 있다는 큰 장점을 가지고 있다. 또한 사용자가 원하는 얼굴 표정 애니메이션을 사용하기 쉬운 사용자 인터페이스를 이용하여 실시간으로 생성하여 확인 하고 재생성할 수 있다는 것도 매우 효율적이다.

  • PDF

Tension Based 7 DOEs Force Feedback Device: SPIDAR-G

  • Kim, Seahak;Yasuharu Koike;Makoto Sato
    • Transactions on Control, Automation and Systems Engineering
    • /
    • 제4권1호
    • /
    • pp.9-16
    • /
    • 2002
  • In this paper, we intend to demonstrate a new intuitive force-feedback device for advanced VR applications. Force feed-back for the device is tension based and is characterized by 7 degrees of freedom (DOF); 3 DOF for translation, 3 DOF for rotation, and 1 DOF for grasp). The SPIDAR-G (Space Interface Device for Artificial Reality with Grip) will allow users to interact with virtual objects naturally by manipulating two hemispherical grips located in the center of the device frame. We will show how to connect the strings between each vertex of grip and each extremity of the frame in order to achieve force feedback. In addition, methodologies will be discussed for calculating translation, orientation and grasp using the length of 8 strings connected to the motors and encoders on the frame. The SPIDAR-G exhibits smooth force feedback, minimized inertia, no backlash, scalability and safety. Such features are attributed to strategic string arrangement and control that results in stable haptic rendering. The design and control of the SPIDAR-G will be described in detail and the Space Graphic User Interface system based on the proposed SPIDAR-G system will be demonstrated. Experimental results validate the feasibility of the proposed device and reveal its application to virtual reality.

활선 작업을 위한 원격 조종 인터페이스 개발 (Systemic Development of Tele-Robotic Interface for the Hot-Line Maintenance)

  • 김민성;이주장;김창현
    • 제어로봇시스템학회논문지
    • /
    • 제10권12호
    • /
    • pp.1217-1222
    • /
    • 2004
  • This paper describes the development of tele-robotic interface for the hot-line maintenance robot system. One of main issues in designing human-robot interface for the hot-line maintenance robot system is to plan the control procedure for each part of the robotic system. Another issue is that the actual degree of freedom (DOF) in the hot-line maintenance robot system is much greater than that of available control devices such as joysticks and gloves in the remote-cabin. For this purpose, a virtual simulator, which includes the virtual hot-line maintenance robot system and the environment, is developed in the 3D environment using CAD data. It is assumed that the control operation is done in the remote cabin and the overall work process is observed using the main-camera with 2 DOFs. For the input device, two joysticks, one pedal, two data gloves, and a Head Mounted Display (HMD) with tracker sensor were used. The interface is developed for each control mode. Designed human-interface system is operated using high-level control commands which are intuitive and easy to understand without any special training.

마르코프 의사결정 과정에 기반한 대화 관리자 설계 (Design of Markov Decision Process Based Dialogue Manager)

  • 최준기;은지현;장두성;김현정;구명완
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2006년도 추계학술대회 발표논문집
    • /
    • pp.14-18
    • /
    • 2006
  • The role of dialogue manager is to select proper actions based on observed environment and inferred user intention. This paper presents stochastic model for dialogue manager based on Markov decision process. To build a mixed initiative dialogue manager, we used accumulated user utterance, previous act of dialogue manager, and domain dependent knowledge as the input to the MDP. We also used dialogue corpus to train the automatically optimized policy of MDP with reinforcement learning algorithm. The states which have unique and intuitive actions were removed from the design of MDP by using the domain knowledge. The design of dialogue manager included the usage of natural language understanding and response generator to build short message based remote control of home networked appliances.

  • PDF

사실적인 피부 렌더링을 위한 직관적 쉐이딩 인터페이스 (A Intuitive shading interface for rendering realistic skin)

  • 유태경;이원형;장성갑
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(하)
    • /
    • pp.585-588
    • /
    • 2003
  • 최근의 영화나 애니메이션에 자주 등장하는 디지털 인간 캐릭터의 제작에서 사실적인 피부 렌더링을 위하여 다양한 공학적, 예술적 접근이 이루어지고 있다. 본 논문에서는 사실적인 피부렌더링을 위해 subsurface illumination 테크닉을 이용한 쉐이더를 구현하고 아티스트들의 효율적인 제어를 위해 보다 직관적인 인터페이스를 제안하였다. 구현한 쉐이더는 3D 그래픽 응용 프로그램인 Maya의 플러그인 형태로 제작되었으며 기존의 전통적인 쉐이딩 인터페이스와의 조화를 고려하여 제안된 매개변수들을 확장 형태로 제공하였다.

  • PDF

디지털 방송 서비스의 직관적 접근을 위한 네비게이션 인터페이스 설계 (Navigation Interface Design for an Intuitive Access to Digital Broadcasting Services)

  • 이건영;정문열
    • 방송공학회논문지
    • /
    • 제14권2호
    • /
    • pp.154-163
    • /
    • 2009
  • 인터넷 환경과 전통적인 방송 환경의 융합이 본격적으로 진행되면서 다양한 기능과 데이터들이 제한적인 사용자 환경의 셋톱 박스에서 서비스로 제공되고 있다. 하지만 이를 위한 사용자 인터페이스 및 서비스 구조 등이 TV라는 매체의 특성에 잘 맞지 않고, 오히려 인터넷 매체에 더 적합하게 되어 있다. 이에 본 논문에서는 먼저 디지털양방향방송에서 시청자가 보다 직관적으로 채널을 접근할 수 있는 네비게이션 인터페이스를 제안하고 설계한다. 인터랙티브 TV 콘텐츠 중에서 가장 기본이 될 수 있는 EPG 인터페이스를 분석한다. 그리고 네트워크와 통합된 TV 환경에 적합한 사용자 인터페이스 및 이를 위한 서비스 구조를 설계한다.

체감형 스크린 스포츠 게임 유저 인터페이스 개발 (Development of User Interface for Motion-based Screen Sports Game)

  • 유왕윤;오종환
    • 한국게임학회 논문지
    • /
    • 제17권1호
    • /
    • pp.109-118
    • /
    • 2017
  • 스크린 스포츠 게임은 PC게임과 센서가 결합되어 사용자가 몸으로 직접 게임에 참여할 수 있게 개발된 체감형 게임이다. 2000년대에 크게 유행했던 스크린골프에 이어 2016년부터 스크린야구의 유행이 시작되고 있다. 현재 출시된 게임들은 대부분 전통적인 PC게임의 인터페이스를 채용하고 있다. 그러나 스크린야구의 구질 선택에 있어서 사용자로 하여금 좀 더 직관적으로 조작할 수 있도록 하는 방법이 요구되고 있다. 본 연구에서는 게임과 독립된 키오스크를 활용함으로서 사용자로 하여금 게임의 흐름을 방해하지 않고 게임에 대한 자연스러운 개입을 가능하게 하고 있다. 이와 같이 키오스크를 이용한 인터페이스는 결과적으로 게임에 대한 몰입감을 증대시키게 된다.

차내 경험의 디지털 트랜스포메이션과 오디오 기반 인터페이스의 동향 및 시사점 (Trends and Implications of Digital Transformation in Vehicle Experience and Audio User Interface)

  • 김기현;권성근
    • 한국멀티미디어학회논문지
    • /
    • 제25권2호
    • /
    • pp.166-175
    • /
    • 2022
  • Digital transformation is driving so many changes in daily life and industry. The automobile industry is in a similar situation. In some cases, element techniques in areas called metabuses are also being adopted, such as 3D animated digital cockpit, around view, and voice AI, etc. Through the growth of the mobile market, the norm of human-computer interaction (HCI) has been evolving from keyboard-mouse interaction to touch screen. The core area was the graphical user interface (GUI), and recently, the audio user interface (AUI) has partially replaced the GUI. Since it is easy to access and intuitive to the user, it is quickly becoming a common area of the in-vehicle experience (IVE), especially. The benefits of a AUI are freeing the driver's eyes and hands, using fewer screens, lower interaction costs, more emotional and personal, effective for people with low vision. Nevertheless, when and where to apply a GUI or AUI are actually different approaches because some information is easier to process as we see it. In other cases, there is potential that AUI is more suitable. This is a study on a proposal to actively apply a AUI in the near future based on the context of various scenes occurring to improve IVE.

Conditions of Applications, Situations and Functions Applicable to Gesture Interface

  • Ryu, Tae-Beum;Lee, Jae-Hong;Song, Joo-Bong;Yun, Myung-Hwan
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.507-513
    • /
    • 2012
  • Objective: This study developed a hierarchy of conditions of applications(devices), situations and functions which are applicable to gesture interface. Background: Gesture interface is one of the promising interfaces for our natural and intuitive interaction with intelligent machines and environments. Although there were many studies related to developing new gesture-based devices and gesture interfaces, it was little known which applications, situations and functions are applicable to gesture interface. Method: This study searched about 120 papers relevant to designing and applying gesture interfaces and vocabulary to find the gesture applicable conditions of applications, situations and functions. The conditions which were extracted from 16 closely-related papers were rearranged, and a hierarchy of them was developed to evaluate the applicability of applications, situations and functions to gesture interface. Results: This study summarized 10, 10 and 6 conditions of applications, situations and functions, respectively. In addition, the gesture applicable condition hierarchy of applications, situation and functions were developed based on the semantic similarity, ordering and serial or parallel relationship among them. Conclusion: This study collected gesture applicable conditions of application, situation and functions, and a hierarchy of them was developed to evaluate the applicability of gesture interface. Application: The gesture applicable conditions and hierarchy can be used in developing a framework and detailed criteria to evaluate applicability of applications situations and functions. Moreover, it can enable for designers of gesture interface and vocabulary to determine applications, situations and functions which are applicable to gesture interface.