• 제목/요약/키워드: Kinect Interaction

검색결과 51건 처리시간 0.025초

A Study on Structuring and Classification of Input Interaction

  • Pan, Young-Hwan
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.493-498
    • /
    • 2012
  • Objective: The purpose of this study is to suggest the hierarchical structure with three layers of input task, input interaction, and input device. Background: Understanding the input interaction is very helpful to design an interface design. Method: We made a model of three layered input structure based on empirical approach and applied to a gesture interaction in TV. Result: We categorized the input tasks into six elementary tasks which are select, position, orient, text, and quantify. The five interactions described in this paper could accomplish the full range of input interaction, although the criteria for classification were not consistent. We analyzed the Microsoft kinect with this structure. Conclusion: The input interactions of command, 4 way, cursor, touch, and intelligence are basic interaction structure to understanding input system. Application: It is expected the model can be used to design a new input interaction and user interface.

Study on Gesture and Voice-based Interaction in Perspective of a Presentation Support Tool

  • Ha, Sang-Ho;Park, So-Young;Hong, Hye-Soo;Kim, Nam-Hun
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.593-599
    • /
    • 2012
  • Objective: This study aims to implement a non-contact gesture-based interface for presentation purposes and to analyze the effect of the proposed interface as information transfer assisted device. Background: Recently, research on control device using gesture recognition or speech recognition is being conducted with rapid technological growth in UI/UX area and appearance of smart service products which requires a new human-machine interface. However, few quantitative researches on practical effects of the new interface type have been done relatively, while activities on system implementation are very popular. Method: The system presented in this study is implemented with KINECT$^{(R)}$ sensor offered by Microsoft Corporation. To investigate whether the proposed system is effective as a presentation support tool or not, we conduct experiments by giving several lectures to 40 participants in both a traditional lecture room(keyboard-based presentation control) and a non-contact gesture-based lecture room(KINECT-based presentation control), evaluating their interests and immersion based on contents of the lecture and lecturing methods, and analyzing their understanding about contents of the lecture. Result: We check that whether the gesture-based presentation system can play effective role as presentation supporting tools or not depending on the level of difficulty of contents using ANOVA. Conclusion: We check that a non-contact gesture-based interface is a meaningful tool as a sportive device when delivering easy and simple information. However, the effect can vary with the contents and the level of difficulty of information provided. Application: The results presented in this paper might help to design a new human-machine(computer) interface for communication support tools.

Effects of Kinect-Based Mixed Reality Device on Physical Function and Quality of Life in Breast Cancer Survivors : A randomized controlled trial

  • Byung-Gul Lim;Xinxing Li;Yun-Ho Sung;Si-Woo LEE;Hyun-Jun Kim;Wook Song
    • 대한통합의학회지
    • /
    • 제11권2호
    • /
    • pp.49-60
    • /
    • 2023
  • Purpose : We aimed to evaluate the impact of a exercise with kinect-based mixed reality device (KMR) on physical function, upper extremity disability, fatigue, and quality of life in breast cancer survivors. We hypothesized that this exercise program would improve physical function, physical activity, fatigue, and quality of life. Methods : Thirty-nine breast cancer survivors were randomized to either the KMR exercise group (KE) or the home stretch group (HS). The KE participated in 8 weeks of exercise, exercising 3 times per week, while the HS performed 8 weeks of stretching exercises, also 3 times per week. Before and after the intervention period, participants underwent assessments of physical function, including body composition, chester step test (CST), and hand grip strength (HGS). Additionally, participants completed questionnaires including the international physical activity questionnaire (IPAQ), disabilities of the arm, shoulder and hand (DASH) questionnaire, and functional assessment of cancer therapy-breast (FACT-B) questionnaire to measure their physical activity levels, upper extremity disability, and quality of life, respectively. Results : Overall, significant improvements were observed in several shoulder movements, body weight, and physical activity, with no significant interaction effects between groups and time. Furthermore, there was a significant group by time interaction for body weight, left flexion, right flexion, right abduction, and left adduction, as well as for upper extremity disability (K-DASH) and quality of life (FACT-B). Conclusion : In conclusion, the KMR exercise program was found to be effective at improving physical function, upper extremity disability, quality of life, and overall well-being in breast cancer survivors. The significant improvements observed in multiple measures and the significant group by time interactions for various outcomes highlight the potential benefits of this KMR exercise program in promoting a better quality of life for breast cancer survivors.

MultiView-Based Hand Posture Recognition Method Based on Point Cloud

  • Xu, Wenkai;Lee, Ick-Soo;Lee, Suk-Kwan;Lu, Bo;Lee, Eung-Joo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권7호
    • /
    • pp.2585-2598
    • /
    • 2015
  • Hand posture recognition has played a very important role in Human Computer Interaction (HCI) and Computer Vision (CV) for many years. The challenge arises mainly due to self-occlusions caused by the limited view of the camera. In this paper, a robust hand posture recognition approach based on 3D point cloud from two RGB-D sensors (Kinect) is proposed to make maximum use of 3D information from depth map. Through noise reduction and registering two point sets obtained satisfactory from two views as we designed, a multi-viewed hand posture point cloud with most 3D information can be acquired. Moreover, we utilize the accurate reconstruction and classify each point cloud by directly matching the normalized point set with the templates of different classes from dataset, which can reduce the training time and calculation. Experimental results based on posture dataset captured by Kinect sensors (from digit 1 to 10) demonstrate the effectiveness of the proposed method.

A Decision Tree based Real-time Hand Gesture Recognition Method using Kinect

  • Chang, Guochao;Park, Jaewan;Oh, Chimin;Lee, Chilwoo
    • 한국멀티미디어학회논문지
    • /
    • 제16권12호
    • /
    • pp.1393-1402
    • /
    • 2013
  • Hand gesture is one of the most popular communication methods in everyday life. In human-computer interaction applications, hand gesture recognition provides a natural way of communication between humans and computers. There are mainly two methods of hand gesture recognition: glove-based method and vision-based method. In this paper, we propose a vision-based hand gesture recognition method using Kinect. By using the depth information is efficient and robust to achieve the hand detection process. The finger labeling makes the system achieve pose classification according to the finger name and the relationship between each fingers. It also make the classification more effective and accutate. Two kinds of gesture sets can be recognized by our system. According to the experiment, the average accuracy of American Sign Language(ASL) number gesture set is 94.33%, and that of general gestures set is 95.01%. Since our system runs in real-time and has a high recognition rate, we can embed it into various applications.

고대동굴탐험: 어린이를 위한 스크린 클라이밍 게임 (Ancient Cave Exploration: A Screen Climbing Game for Children)

  • 김정수;정다니엘;성보경;전석;고일주
    • 한국게임학회 논문지
    • /
    • 제16권3호
    • /
    • pp.117-126
    • /
    • 2016
  • 스크린 클라이밍은 스크린 스포츠의 하나로 컴퓨터 시스템에 의해 내용이 인공암벽에 투사되며 사용자와의 상호작용에 의해 진행된다. 본 논문에서는 어린이의 발달과정과 스포츠 클라이밍에 대한 동기부여에 초점을 맞추어 고대동굴탐험을 소재로 한 스크린 클라이밍 게임을 구현하였다. 게임의 내용은 프로젝터로 인공암벽에 투사하며, 사용자와의 상호작용은 키넥트의 뎁스 정보를 이용해 사용자의 입력을 받음으로써 이루어진다. 이 게임은 어린이 대상 전시 행사에서 높은 관심을 보였으며, 앞으로 추가적인 스크린 클라이밍 게임 구현이 이루어져야 한다.

키넥트를 이용한 매직미러 패션코디네이션 시스템 (Magic Mirror Fashion Coordination System using Kinect)

  • 김치용;김미리;김종찬
    • 한국멀티미디어학회논문지
    • /
    • 제17권11호
    • /
    • pp.1374-1381
    • /
    • 2014
  • Digital technology With the popularization of computers and IT technology development is causing a dramatic change across the human life. Increase of profit in fashion industry has a significant impact on the overall industry. It has been studied to develop consumer oriented higher value-added fashion products of including clothes using digital technology abroad. In this paper, we propose a system that when user stand in front of display, user can show body captured depth camera look the coordination of a variety of costume and fashion concept through a magic mirror. Using the system, we will satisfy the convenience of user and be used as a way appropriate to clothing shopping in the shortest time. The system will develop personalized fashion content industry enhanced interaction.

타일드 디스플레이에서의 천리안 해양관측 위성영상을 위한 다중 입력 장치 및 멀티 스케일 인터랙션 설계 및 구현 (Design and Development of Multiple Input Device and Multiscale Interaction for GOCI Observation Satellite Imagery on the Tiled Display)

  • 박찬솔;이관주;김낙훈;이상호;서기영;박경신
    • 한국정보통신학회논문지
    • /
    • 제18권3호
    • /
    • pp.541-550
    • /
    • 2014
  • 본 논문은 타일드 디스플레이에서 여러 사용자들이 천리안 해양관측 위성영상을 관측 및 분석하기 위하여 다중 입력 장치를 활용한 멀티스케일 인터랙션 기반의 가시화 시스템을 설명한다. 이 시스템은 멀티터치 스크린, 키넥트 동작 인식, 모바일 인터페이스를 제공하여 여러 사용자들이 타일드 디스플레이 화면에 근접하거나 원거리에서 다양한 인터랙션을 통하여 한반도 중심의 해양 환경 및 기후 변화 정보를 효과적으로 관측할 수 있다. 천리안 해양관측 위성영상은 고화질의 메모리양이 많아서 원본 영상을 작은 영상으로 분할한 멀티레벨 이미지 로드 기법을 사용하여 시스템의 부하를 줄이면서 사용자의 다양한 조작에서 타일드 디스플레이 화면에 매끄럽게 출력되도록 하였다. 이 시스템은 다중 사용자의 키넥트 제스처와 터치 포인트 입력 및 모바일 장치로 부터 입력된 정보를 일반화 처리하여 타일드 디스플레이 응용프로그램에 공통적으로 활용 가능한 다양한 인터랙션을 지원하였다. 또한 특정 날짜에 해당하는 시간 단위의 해양관측 위성 영상이 순차적으로 화면에 출력되며, 여러 사용자들이 동시에 위성영상을 자유롭게 확대 축소하고 상하좌우로 이동하며 다양한 기능의 버튼을 누르는 등의 인터랙션을 할 수 있도록 하였다.

HRI 엔터테인먼트 애완 로봇 (A Human-Robot Interaction Entertainment Pet Robot)

  • 이희진
    • 한국지능시스템학회논문지
    • /
    • 제24권2호
    • /
    • pp.179-185
    • /
    • 2014
  • 본 논문은 인간과 상호작용하는 엔터테인먼트 4족 애완 로봇과 스마트폰에서 로봇 조종이 가능한 로봇제어기 및 로봇에서 제공하는 센서 정보들을 이용하여 컴퓨터에서 가정용 기기들을 제어하는 홈스마트제어시스템을 구현하기 위한 것으로 로봇은 20 자유도를 가지면서 Microsoft사의 키넥트 센서, 적외선거리 센서, 3축 모션 센서, 그래픽 LCD, 온습도 및 가스 센서로 구성되어 있다. 로봇의 엔터테인먼트 기능을 구현하기 위하여 보행 알고리즘, 키넥트 센서를 이용한 모션 및 음성인식 알고리즘, 감정표현을 위한 알고리즘을 제시하였으며 로봇을 조종할 수 있는 스마트폰 로봇제어 알고리즘 및 가정용 기기를 제어하는 홈스마트제어 알고리즘을 제안하였다. 본 논문에서 제안한 알고리즘들은 구현한 로봇과 컴퓨터 및 스마트폰에 적용하여 실험으로 검증하였다.

마커 및 제스처 상호작용이 가능한 증강현실 저작도구 (Augmented Reality Authoring Tool with Marker & Gesture Interactive Features)

  • 심진욱;공민제;김하영;채승호;정경호;서종훈;한탁돈
    • 한국멀티미디어학회논문지
    • /
    • 제16권6호
    • /
    • pp.720-734
    • /
    • 2013
  • 본 논문에서는 사용자들이 손쉽게 마커기반과 제스처 상호작용 방법들을 적용한 증강현실 콘텐츠를 제작할 수 있는 증강현실 저작도구 시스템을 제안한다. 기존의 증강현실 저작도구들은 가상의 객체를 증강하는데 초점이 맞춰져 있었고, 이러한 증강현실 콘텐츠와 상호작용을 하기 위해서는 사용자가 마커나 센서를 이용하는 방법을 사용하였다. 우리는 이러한 제한적인 상호작용 방법의 문제점을 마커기반 상호작용 방법과 깊이 인식 카메라인 Kinect를 사용한 제스처 상호작용 방법을 적용시킴으로써 해결하고자 한다. 제안하는 시스템에서는 사용자가 인터페이스를 통하여 간단한 형태의 마커기반 증강현실 콘텐츠를 쉽게 제작할 수 있다. 또한, 능동적으로 사용자가 증강현실 콘텐츠와 상호작용할 수 있는 방법들을 제공하고 있다. 본 연구에서 제공하는 상호작용 방법으로는 마커기반의 상호작용 방법으로 2개의 마커를 이용한 방법과 마커의 가림현상(Occlusion)을 이용한 방법이 있다. 그리고 사용자의 맨손을 인식, 추적하여 객체의 확대 축소, 이동, 회전이 가능한 제스처 상호작용 방법을 제공한다. 저작도구 시스템에 대한 사용성 평가와 마커 및 제스처 상호작용에 대한 사용성을 비교평가하여, 본 연구의 긍정적 결과를 확인하였다.