• 제목/요약/키워드: intuitive interaction

검색결과 122건 처리시간 0.024초

직관적인 3D 인터랙션을 위한 핸드 햅틱 인터페이스 (Hand Haptic Interface for Intuitive 3D Interaction)

  • 장용석;김용완;손욱호;김경환
    • 한국HCI학회논문지
    • /
    • 제2권2호
    • /
    • pp.53-59
    • /
    • 2007
  • 3D/가상환경 애플리케이션을 위한 3D 인터랙션에 관한 연구는 이동(navigation), 선택(selection), 조작 (manipulation), 시스템 제어(system control)와 같은 기본적인 4가지 형태의 상호작용으로 정의하고 광범위하게 연구되어 왔으며, 일반적으로 현실세계나 가상환경에서 작은 물체라도 상호작용하기에 적합한 기술로 여겨져 왔다. 그러나 이러한 비직관적인 상호작용 방법은 최근 산업계에서 필요시 되고 있는 가상 훈련이나 가상 디자인/사용성 평가 시스템과 같이 사용자가 도구나 장치를 사용하여 간접적으로 물체를 조작해야 하는 비직관적인 상호작용 방법이 아닌, 자신의 손으로 직접 물체를 만지거나 조작할 수 있는 직관적인 상호작용 방법이 필요한 고품질, 고정밀 애플리케이션을 지원하기에는 적합하지 않은 방법이었다. 따라서 본 연구에서는 직관적이며 자연스러운 상호작용을 지원하기 위한 방법으로 고정밀 핸드 조작과 사실적 역.촉감을 제공하는 장갑형 핸드 인터페이스 장치 및 햅틱 장갑 장치와 6자유도 햅틱 장치로 구성된 핸드 햅틱 인터페이스를 제시하고자 한다.

  • PDF

Towards Establishing a Touchless Gesture Dictionary based on User Participatory Design

  • Song, Hae-Won;Kim, Huhn
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.515-523
    • /
    • 2012
  • Objective: The aim of this study is to investigate users' intuitive stereotypes on non-touch gestures and establish the gesture dictionary that can be applied to gesture-based interaction designs. Background: Recently, the interaction based on non-touch gestures is emerging as an alternative for natural interactions between human and systems. However, in order for non-touch gestures to become a universe interaction method, the studies on what kinds of gestures are intuitive and effective should be prerequisite. Method: In this study, as applicable domains of non-touch gestures, four devices(i.e. TV, Audio, Computer, Car Navigation) and sixteen basic operations(i.e. power on/off, previous/next page, volume up/down, list up/down, zoom in/out, play, cancel, delete, search, mute, save) were drawn from both focus group interview and survey. Then, a user participatory design was performed. The participants were requested to design three gestures suitable to each operation in the devices, and they evaluated intuitiveness, memorability, convenience, and satisfaction of their derived gestures. Through the participatory design, agreement scores, frequencies and planning times of each distinguished gesture were measured. Results: The derived gestures were not different in terms of four devices. However, diverse but common gestures were derived in terms of kinds of operations. In special, manipulative gestures were suitable for all kinds of operations. On the contrary, semantic or descriptive gestures were proper to one-shot operations like power on/off, play, cancel or search. Conclusion: The touchless gesture dictionary was established by mapping intuitive and valuable gestures onto each operation. Application: The dictionary can be applied to interaction designs based on non-touch gestures. Moreover, it will be used as a basic reference for standardizing non-touch gestures.

공과대학생의 인지적.정의적 학습양식 특성 분석 (Analysis on the Characteristics of Cognitive & Affective Learning Style of Engineering University Students)

  • 김은정
    • 공학교육연구
    • /
    • 제17권6호
    • /
    • pp.20-29
    • /
    • 2014
  • The purpose of this study is to analyze the traits on the cognitive and affective learning style of university students. CALSIU(The Cognitive & Affective Learning Style Inventory for University School Students) by Kim, E. J. was modified for applying to university students and performed with 399 university students from three universities in Daejeon and Chungnam. Statistical analysis done in this study were ANOVA and Scheffe's test. Findings of the study are as follows : First, the students with high academic achievements have intuitive perception type, whole processing type, and deep storage & recall type. Secondly, the students with low academic achievement have strong non-academic learning type. Third, interaction attitude of affective learning styles is the important element to determine their academic achievement. The students with independent type get high academic achievements. Therefore, instructor should consider the learning styles of students, and it should be used to improve their teaching & learning strategy for better academic achievements of university students.

모바일 게임을 위한 증강현실 기반 직관적 변형 직물객체 조작 (Intuitive Manipulation of Deformable Cloth Object Based on Augmented Reality for Mobile Game)

  • 김상준;홍민;최유주
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권4호
    • /
    • pp.159-168
    • /
    • 2018
  • 최근 높은 관심을 모으고 있는 모바일 증강현실 게임은 몰입감을 높이기 위한 접근 방법으로 손꼽히고 있다. 모바일 디바이스의 카메라를 이용하여 대상 물체를 인식하고 게임 캐릭터가 등장하도록 하는 기존 증강현실 기반의 게임에서는 대부분이 터치 기반의 인터랙션만을 사용하고 있다. 본 논문에서는 게임의 몰입도를 높이기 위하여 증강현실 타겟 이미지를 움직임으로써 게임 속 변형 객체를 직관적으로 조작하는 기법을 제안한다. 제안 방법에서는 타겟 이미지들 사이의 거리와 방향을 계산하고, 이에 따라 변형객체에 주어지는 외부력(external force)의 크기를 조정함으로써, 직관적 방법으로 변형 객체의 움직임을 조작할 수 있도록 하였다. 본 논문에서는 게임 콘텐츠에서 자연스러운 객체 표현을 위하여 많이 사용되고 있는 변형 직물(cloth) 모델에 초점을 맞추었고, 바람(wind)과 강체(rigid object)로 표현되는 게임 객체들과 상호작용하는 자연스러운 직물의 움직임을 표현하였다. 실험에서는 유니티 에셋 스토어에서 판매하는 기존 유료 직물 모델의 적용 결과와의 비교를 통하여 제안 기법이 보다 현실감 있는 직물의 움직임을 표현하고 있는 것을 보였다.

가상현실 환경에서 3D 가상객체 조작을 위한 인터페이스와 인터랙션 비교 연구 (Comparative Study on the Interface and Interaction for Manipulating 3D Virtual Objects in a Virtual Reality Environment)

  • 박경범;이재열
    • 한국CDE학회논문집
    • /
    • 제21권1호
    • /
    • pp.20-30
    • /
    • 2016
  • Recently immersive virtual reality (VR) becomes popular due to the advanced development of I/O interfaces and related SWs for effectively constructing VR environments. In particular, natural and intuitive manipulation of 3D virtual objects is still considered as one of the most important user interaction issues. This paper presents a comparative study on the manipulation and interaction of 3D virtual objects using different interfaces and interactions in three VR environments. The comparative study includes both quantitative and qualitative aspects. Three different experimental setups are 1) typical desktop-based VR using mouse and keyboard, 2) hand gesture-supported desktop VR using a Leap Motion sensor, and 3) immersive VR by wearing an HMD with hand gesture interaction using a Leap Motion sensor. In the desktop VR with hand gestures, the Leap Motion sensor is put on the desk. On the other hand, in the immersive VR, the sensor is mounted on the HMD so that the user can manipulate virtual objects in the front of the HMD. For the quantitative analysis, a task completion time and success rate were measured. Experimental tasks require complex 3D transformation such as simultaneous 3D translation and 3D rotation. For the qualitative analysis, various factors relating to user experience such as ease of use, natural interaction, and stressfulness were evaluated. The qualitative and quantitative analyses show that the immersive VR with the natural hand gesture provides more intuitive and natural interactions, supports fast and effective performance on task completion, but causes stressful condition.

FPS 게임에서 제스처 인식과 VR 컨트롤러를 이용한 게임 상호 작용 제어 설계 (Design of Gaming Interaction Control using Gesture Recognition and VR Control in FPS Game)

  • 이용환;안효창
    • 반도체디스플레이기술학회지
    • /
    • 제18권4호
    • /
    • pp.116-119
    • /
    • 2019
  • User interface/experience and realistic game manipulation play an important role in virtual reality first-person-shooting game. This paper presents an intuitive hands-free interface of gaming interaction scheme for FPS based on user's gesture recognition and VR controller. We focus on conventional interface of VR FPS interaction, and design the player interaction wearing head mounted display with two motion controllers; leap motion to handle low-level physics interaction and VIVE tracker to control movement of the player joints in the VR world. The FPS prototype system shows that the design interface helps to enjoy playing immersive FPS and gives players a new gaming experience.

직관적 제스쳐 인터랙션 요소 추출에 관한 연구 (A Study on interaction factor in intuitive gesture)

  • 김용우;황민철;김종화;우진철;김치중;김지혜
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2009년도 추계학술대회
    • /
    • pp.66-69
    • /
    • 2009
  • 본 연구는 사용자에게 편리하고 자연스러운 인터페이스를 제공하는 직관적 제스쳐 인터랙션의 요소 추출에 대해 분석하였다. 대학생 30명을 대상으로 마우스와 키보드의 8가지 기본 인터랙션 요소를 제시하여 그 요소와 적합한 의미의 어휘를 선택하도록 설문을 실시하였다. 다음으로 선택한 어휘가 가지는 의미를 표현한 제스쳐를 빈도수에 따라 최종 선정한 후 검증을 실시하였다. 첫 번째 설문시 마우스의 상하좌우 이동과 ESC의 의미는 30명 전원이 상하좌우 이동과 취소라는 동일한 의미를 선택하였다. 마우스의 좌클릭은 30명 중 28명이 선택, 우클릭은 26명이 설정 탐색, 키보드 엔터의 경우 25명이 실행이라는 의미를 선택하였다. 최종 선정된 제스쳐의 검증 결과 상하좌우 이동과 취소 요소로 제시했던 손전체 상하좌우 이동과 손전체X는 70~100%의 높은 결과가 도출되었으며, 선택 요소로 제시했던 정지상태 검지손 아래는 60%의 결과가 도출되었다. 설정 탐색을 위해 제시되었던 손전체 회전과 중지손 클릭 중 손전체 회전이 60%의 결과를 도출하였으며, 중지손 클릭은 선택과 하단 이동이 73%로 설정 탐색의 요소로는 적합하지 않은 것으로 도출되었다. 실행 요소로 제시했던 손전체 두번 클릭은 27%의 낮은 검증 결과가 도출되어 적합하지 않은 것으로 제시되었다.

  • PDF

몰입감 있는 맞춤형 가상 모델하우스 (Immersive Virtual Custom-made Model House)

  • 황선욱;김영미;서용원;고광희;류제하;이관행;이용구
    • 한국CDE학회논문집
    • /
    • 제13권1호
    • /
    • pp.8-17
    • /
    • 2008
  • Putting a high value on individual preferences is a modern trend that more and more companies are considering for their product design and development and the apartment design is not an exception. Most apartments today are built using similar design with no room for customization. People in general want their tastes to be reflected in the design of their apartment. However, delivering what customers like to the construction company may not be an easy task in practice. For this reason, an intuitive and effective medium between the company and customers for effective communication is needed to ameliorate such a difficulty and in response to this necessity, we developed a test platform for the virtual model house which provides a user with the customization of the apartment using haptic interactions. In our virtual environment, a user can explore an apartment and change the interior based on their taste and feel through intuitive haptic interactions.

가젯암: 확장현실을 위한 손 제스처 기반 대화형 데이터 시각화 시스템 (Gadget Arms: Interactive Data Visualization using Hand Gesture in Extended Reality)

  • 최준영;정해진;정원기
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제25권2호
    • /
    • pp.31-41
    • /
    • 2019
  • 가상 및 증강현실과 같은 확장현실(XR: Extended Reality)은 몰입형 데이터 시각화 및 분석을 위한 거대한 잠재력을 가지고 있다. 확장현실에서 사용자는 3차원 가상 공간을 활용하여 데이터 및 여러 사용자와 사실적으로 상호 작용할 수 있으므로 보다 직관적인 데이터 분석이 가능하다. 그러나 확장현실의 장점을 제대로 활용하기 위한 시각화를 생성하는 것은 복잡한 프로그래밍이 필요하기 때문에 상당히 어려운 일이다. 본 논문에서는 손 제스처만으로 XR을 위한 시각화 전 과정을 수행하고, 모든 3차원 공간을 활용할 수 있는 가젯암(Gadget Arms) 시스템을 제안한다. 이 시스템에서 분석가는 데스크탑 기반 환경이나 복잡한 프로그래밍을 사용할 필요 없이 XR 기기를 착용한 상태에서 직관적으로 전체 시각화 공간을 디자인할 수 있으며, 가상의 손을 임의의 3차원 공간에 자유자재로 위치시킬 수 있는 인터랙션을 통해 거대한 3차원 공간을 효과적으로 활용할 수 있다. 우리는 사용자 연구를 통해 제안된 시스템이 시각화 제작과 공간 활용의 사용성을 크게 향상시시키는 것을 확인하였다.