• 제목/요약/키워드: Gesture based interface

검색결과 168건 처리시간 0.024초

멀티 카드 터치기반 인터랙티브 아케이드 게임 시스템 구현 (Development of Multi Card Touch based Interactive Arcade Game System)

  • 이동훈;조재익;윤태수
    • 한국엔터테인먼트산업학회논문지
    • /
    • 제5권2호
    • /
    • pp.87-95
    • /
    • 2011
  • 최근 다양한 인터랙티브 인터페이스 개발로 인해 체감형 게임 환경에 관심이 모아지고 있다. 따라서 본 논문에서는 증강현실 기술의 하나인 마커인식 인터페이스와 멀티 터치 인터랙션 인터페이스를 이용한 멀티 카드 터치 기반의 인터랙티브 아케이드 시스템을 제안한다. 이를 위해 DI 기반의 인식 알고리즘을 적용하여 카드의 위치, 방향 정보를 인식한다. 또한 사용자의 손 제스처 정보를 트래킹하여 다양한 인터랙션 메타포를 제공한다. 본 시스템은 사용자에게 좀 더 높은 몰입감을 제공하며 새로운 경험을 제공한다. 따라서 제안하는 시스템은 체감형 아케이드 게임기기에 활용될 것이다.

인터렉티브 디지털 사이니지를 위한 손 인식 인터페이스 개발 (Development of Hand Recognition Interface for Interactive Digital Signage)

  • 이정운;차경애;류정탁
    • 한국산업정보학회논문지
    • /
    • 제22권3호
    • /
    • pp.1-11
    • /
    • 2017
  • 카메라 영상을 분석하여 인체의 움직임을 인지하는 모션 인식에 관한 관심이 커짐에 따라, 원거리에서의 손동작만으로 디지털 디바이스를 제어하는 연구가 활발히 이루어지고 있다. 이러한 손을 이용한 인터페이스는 다양한 장소에서 일반인에게 노출되어 광고 효과를 기대하는 디지털 사이니지 산업 영역에서 효과적으로 이용될 수 있다. 즉, 디지털 사이니지 콘텐츠를 비접촉식 손동작을 통해서 간단히 제어할 수 있는 인터페이스를 제공함으로써, 다수를 대상으로 관심 있는 광고 정보를 제공할 수 있으며, 이는 매출로 이어질 수 있는 계기를 마련하게 된다. 따라서 본 논문에서 제안하는 일정 거리에서의 손의 움직임을 통한 디지털 사이니지 콘텐츠 제어 시스템은 인터렉티브 광고 매체 개발에 효과적으로 활용될 수 있을 것이다.

테이블탑 디스플레이 기반 사용자 중심의 실감형 상호작용 전자책 (User-centric Immersible and Interactive Electronic Book based on the Interface of Tabletop Display)

  • 송대현;박재완;이칠우
    • 한국콘텐츠학회논문지
    • /
    • 제9권6호
    • /
    • pp.117-125
    • /
    • 2009
  • 본 논문에서는 테이블탑 디스플레이 인터페이스를 기반으로 제작된 사용자 중심의 실감형 상호작용 전자책에 대하여 기술한다. 전자책은 일반 종이 책이 아닌 컴퓨터를 이용한 가상의 책으로 사용자가 독서를 하는 도중 동영상 자료를 보거나 배경음악, 무비클립, 애니메이션 등을 제공할 수 있는 멀티미디어 콘텐츠이다. 또한 제안하는 시스템의 기반이 되는 테이블탑 디스플레이는 손가락의 터치 점을 이용하여 다양한 명령을 수행할 수 있으므로 기존 입력장치에 비해 사용자가 보다 효과적으로 전자책을 체험하는 것을 돕는다. 본 논문에서는 기존 전자책과 차별화된 실감형 상호작용 전자책에 대한 새로운 방향을 제시하고, 사용자 중심의 제스처 명령을 정의하여 앞으로 컴퓨터와 사용자간의 상호작용을 원활하게 할 수 있는 시스템과 알고리즘을 제안한다.

Human-Computer Natur al User Inter face Based on Hand Motion Detection and Tracking

  • Xu, Wenkai;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제15권4호
    • /
    • pp.501-507
    • /
    • 2012
  • Human body motion is a non-verbal part for interaction or movement that can be used to involves real world and virtual world. In this paper, we explain a study on natural user interface (NUI) in human hand motion recognition using RGB color information and depth information by Kinect camera from Microsoft Corporation. To achieve the goal, hand tracking and gesture recognition have no major dependencies of the work environment, lighting or users' skin color, libraries of particular use for natural interaction and Kinect device, which serves to provide RGB images of the environment and the depth map of the scene were used. An improved Camshift tracking algorithm is used to tracking hand motion, the experimental results show out it has better performance than Camshift algorithm, and it has higher stability and accuracy as well.

Design of OpenCV based Finger Recognition System using binary processing and histogram graph

  • Baek, Yeong-Tae;Lee, Se-Hoon;Kim, Ji-Seong
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권2호
    • /
    • pp.17-23
    • /
    • 2016
  • NUI is a motion interface. It uses the body of the user without the use of HID device such as a mouse and keyboard to control the device. In this paper, we use a Pi Camera and sensors connected to it with small embedded board Raspberry Pi. We are using the OpenCV algorithms optimized for image recognition and computer vision compared with traditional HID equipment and to implement a more human-friendly and intuitive interface NUI devices. comparison operation detects motion, it proposed a more advanced motion sensors and recognition systems fused connected to the Raspberry Pi.

A Study on Structuring and Classification of Input Interaction

  • Pan, Young-Hwan
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.493-498
    • /
    • 2012
  • Objective: The purpose of this study is to suggest the hierarchical structure with three layers of input task, input interaction, and input device. Background: Understanding the input interaction is very helpful to design an interface design. Method: We made a model of three layered input structure based on empirical approach and applied to a gesture interaction in TV. Result: We categorized the input tasks into six elementary tasks which are select, position, orient, text, and quantify. The five interactions described in this paper could accomplish the full range of input interaction, although the criteria for classification were not consistent. We analyzed the Microsoft kinect with this structure. Conclusion: The input interactions of command, 4 way, cursor, touch, and intelligence are basic interaction structure to understanding input system. Application: It is expected the model can be used to design a new input interaction and user interface.

손 자세 인식을 이용한 MPEG-U 기반 향상된 사용자 상호작용 인터페이스 시스템 (MPEG-U based Advanced User Interaction Interface System Using Hand Posture Recognition)

  • 한국희;이인재;최해철
    • 방송공학회논문지
    • /
    • 제19권1호
    • /
    • pp.83-95
    • /
    • 2014
  • 최근 손과 손가락을 인식하는 기술은 HCI(human computer interaction)에서 자연스럽고 친숙한 환경을 제공하기 위한 기술로 주목 받고 있다. 본 논문에서는 깊이 카메라를 이용하여 손과 손가락의 모양을 검출 및 인식하는 방법을 제안하고, 그 인식 결과를 활용하여 다양한 기기와 상호연동 할 수 있는 MPEG-U 기반 향상된 사용자 상호작용 인터페이스 시스템을 제안한다. 제안하는 시스템은 깊이 카메라를 이용하여 손을 검출한 후, 손목의 위치를 찾아 최소 손 영역을 검출한다. 이어서 검출된 최소 손 영역으로부터 손가락 끝점을 검출 한 후, 최소 손 영역의 중심점과 손가락 끝점간의 뼈대를 만든다. 이렇게 만든 뼈대의 길이와 인접 뼈대간의 각도차를 분석하여 손가락을 판별한다. 또한, 제안하는 시스템은 사용자가 MPEG-U에서 정의하는 다양한 심벌들을 손 자세로 취하였을 때 제안 방법을 이용하여 손 자세를 인식하고, 인식 결과를 상호연동 가능한 MPEG-U 스키마 구조로 표현한다. 실험에서는 다양한 환경에서 제안하는 손 자세 인식 방법의 성능을 보인다. 또한, 제안 시스템의 상호연동성을 보이기 위해 인식 결과를 MPEG-U part2 표준에 맞는 XML 문서로 표현하고, MPEG-U 참조 소프트웨어를 이용하여 그 표현 결과에 대한 표준 부합성을 검증한다.

WPS와 장갑 장치 기반의 동적 제스처 인식기의 구현 (An Implementation of Dynamic Gesture Recognizer Based on WPS and Data Glove)

  • 김정현;노용완;홍광석
    • 정보처리학회논문지B
    • /
    • 제13B권5호
    • /
    • pp.561-568
    • /
    • 2006
  • 차세대 PC를 위한 WPS(Wearable Personal Station)는 정보 처리 및 네트워크 기능을 포함하며 새로운 정보의 획득에 있어 공간적 한계성을 극복할 수 있는 '유비쿼터스 컴퓨팅'의 핵심 단말기로 정의할 수 있다. 기존의 유선 통신 모듈을 이용한 데스크톱 PC 기반의 제스처 인식기는 영상 또는 장갑 장치로부터 사용자의 의미 있는 동적 제스처 데이터를 획득함에 있어 공간상의 제약성 및 이동상의 한계성, 배경 및 음영조건의 변화에 따른 인식 성능의 변화 등 몇 가지 제약사항을 가지고 있다. 따라서 본 논문에서는 이러한 문제점들을 극복하고 해결하고자 제스처 입력모듈을 차세대 PC 플랫폼 기반의 유비쿼터스 환경으로 확대, 적용시켜 제스처 데이터 입력 모듈로부터 새로운 정보의 획득에 있어 한계성을 극복하고 효율적인 데이터 획득 방안을 제시한다 또한 퍼지 알고리즘과 신경망 이론을 이용하여 독립적인 제스처 인식 시스템을 구현하고 개별 시스템의 성능을 비교, 분석함으로써 차세대 PC를 위한 보다 효율적이며 합리적인 제스처 인식 시스템을 제안한다. 제안된 제스처 인식시스템은 동적인 손의 움직임을 입력데이터로 처리하는 제스처 입력모듈과 입력된 데이터로부터 의미 있는 제스처를 분리하기 위한 관계형 DBMS모듈, 그리고 인식의 확장성과 연속된 동적 제스처 중에서 의미 있는 제스처를 인식하기 위한 퍼지 인식 모듈 및 신경망 인식 모듈로 구성되어 있다. 30인의 피실험자에 대하여 15회의 반복 실험을 수행하였으며 사용자의 동적 제스처 인식 실험결과 퍼지 제스처 인식 시스템에서는 98.8%, 신경망 제스처 인식시스템에서는 96.7%의 평균 인식률을 도출하였다.형성에도 유의한 영향을 미치는 것을 알 수 있었다. 셋째, 신뢰와는 다르게 서비스품질이 몰입에는 유의한 영향을 미치지 못하는 것으로 나타났다. 그러나 이러한 직접적인 영향이외에 서비스품질은 고객만족을 통하여 간접적으로 몰입에 강한 영향을 미치는 것으로 나타났다. 넷째, 고객만족은 신뢰에 강하게 정(+)의 영향을 미치는 것으로 나타났다. 즉 고객들이 호텔서비스에 만족할수록 직접적으로 호텔에 대한 신뢰와 애착심이 증가하는 것을 알 수 있었고 간접적으로 서비스품질은 고객만족을 통하여 신뢰에 강한 영향을 미치는 것으로 나타났다. 다섯째, 또한 고객만족은 몰입에 강하게 정(+)의 영향을 미치는 것으로 나타났다. 간접적으로 서비스품질은 고객만족을 통하여 몰입에 강한 영향을 미치는 것으로 나타났다.미숙밭, 중점밭, 고원밭, 화산회밭으로 6개 유형으로 분류할 경우 각각의 분포면적은 41.9%, 23.3%, 17.5%, 13.9%, 1.1. 2.2% 이었다. 도시화 및 도로확대 등 다양한 토지이용 및 지형개변으로 과거의 토양정보가 많이 변경되었다. 그래서, 앞으로는 인공위성자료 및 항공사진을 이용하여 빠르고 쉽게 활용할 수 있는 토양조사 방법개발과 기 구축된 토양도의 수정, 보완 작업이 필요한 절실히 요구되고 있는 현실이다.브로 출시에 따른 마케팅 및 고객관리와 관련된 시사점을 논의한다.는 교합면에서 2, 3, 4군이 1군에 비해 변연적합도가 높았으며 (p < 0.05), 인접면과 치은면에서는 군간 유의차를 보이지 않았다 이번 연구를 통하여 복합레진을 간헐적 광중합시킴으로써 변연적합도가 향상될 수 있음을 알 수 있었다.시장에 비해 주가가 비교적 안정적인 수준을 유지해 왔다고 볼

Human-Computer Interaction Based Only on Auditory and Visual Information

  • Sha, Hui;Agah, Arvin
    • Transactions on Control, Automation and Systems Engineering
    • /
    • 제2권4호
    • /
    • pp.285-297
    • /
    • 2000
  • One of the research objectives in the area of multimedia human-computer interaction is the application of artificial intelligence and robotics technologies to the development of computer interfaces. This involves utilizing many forms of media, integrating speed input, natural language, graphics, hand pointing gestures, and other methods for interactive dialogues. Although current human-computer communication methods include computer keyboards, mice, and other traditional devices, the two basic ways by which people communicate with each other are voice and gesture. This paper reports on research focusing on the development of an intelligent multimedia interface system modeled based on the manner in which people communicate. This work explores the interaction between humans and computers based only on the processing of speech(Work uttered by the person) and processing of images(hand pointing gestures). The purpose of the interface is to control a pan/tilt camera to point it to a location specified by the user through utterance of words and pointing of the hand, The systems utilizes another stationary camera to capture images of the users hand and a microphone to capture the users words. Upon processing of the images and sounds, the systems responds by pointing the camera. Initially, the interface uses hand pointing to locate the general position which user is referring to and then the interface uses voice command provided by user to fine-the location, and change the zooming of the camera, if requested. The image of the location is captured by the pan/tilt camera and sent to a color TV monitor to be displayed. This type of system has applications in tele-conferencing and other rmote operations, where the system must respond to users command, in a manner similar to how the user would communicate with another person. The advantage of this approach is the elimination of the traditional input devices that the user must utilize in order to control a pan/tillt camera, replacing them with more "natural" means of interaction. A number of experiments were performed to evaluate the interface system with respect to its accuracy, efficiency, reliability, and limitation.

  • PDF

Design and Implementation of a Real-time Region Pointing System using Arm-Pointing Gesture Interface in a 3D Environment

  • Han, Yun-Sang;Seo, Yung-Ho;Doo, Kyoung-Soo;Choi, Jong-Soo
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.290-293
    • /
    • 2009
  • In this paper, we propose a method to estimate pointing region in real-world from images of cameras. In general, arm-pointing gesture encodes a direction which extends from user's fingertip to target point. In the proposed work, we assume that the pointing ray can be approximated to a straight line which passes through user's face and fingertip. Therefore, the proposed method extracts two end points for the estimation of pointing direction; one from the user's face and another from the user's fingertip region. Then, the pointing direction and its target region are estimated based on the 2D-3D projective mapping between camera images and real-world scene. In order to demonstrate an application of the proposed method, we constructed an ICGS (interactive cinema guiding system) which employs two CCD cameras and a monitor. The accuracy and robustness of the proposed method are also verified on the experimental results of several real video sequences.

  • PDF