• 제목/요약/키워드: Hand Tracking technology

검색결과 86건 처리시간 0.024초

Hand Tracking과 대화형 AI를 활용한 VR 실감형 수어 교육 콘텐츠 개발 연구 (Research on Development of VR Realistic Sign Language Education Content Using Hand Tracking and Conversational AI)

  • 천재성;문일영
    • 한국항행학회논문지
    • /
    • 제28권3호
    • /
    • pp.369-374
    • /
    • 2024
  • 본 연구는 청각장애인과 비장애인 모두를 위한 수어 교육의 접근성과 효율성을 개선하는 것을 목적으로 한다. 이를 위해 Hand Tracking 기술과 대화형 AI를 통합한 VR 실감형 수어 교육 콘텐츠를 개발하였다. 사용자는 이 콘텐츠를 통해 실시간으로 수어를 학습하며, 가상 환경에서의 직접적인 의사소통을 경험할 수 있다. 연구 결과, 이러한 통합 접근 방식이 수어 학습에 있어 몰입감을 크게 향상시키며, 학습자에게 더 깊은 이해를 제공함으로써 수어 학습의 장벽을 낮추는 데 기여한다는 것을 확인하였다. 이는 수어 교육의 새로운 패러다임을 제시하며, 기술이 교육의 접근성과 효과를 어떻게 변화시킬 수 있는지를 보여준다.

Real-Time Two Hands Tracking System

  • Liu, Nianjun;Lovell, Brian C.
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -3
    • /
    • pp.1491-1494
    • /
    • 2002
  • The paper introduces a novel system of two hands real-time tracking based on the unrestricted hand skin segmentation by multi color systems. After corer-based segmentation and pre-processing operation, a label set of regions is created to locate the two hands automatically. By the normalization, template matching is used to find out the left or right hand. An improved fast self-adaptive tracking algorithm is applied and Canny filter is used for hand detection.

  • PDF

Hand Tracking and Hand Gesture Recognition for Human Computer Interaction

  • Bai, Yu;Park, Sang-Yun;Kim, Yun-Sik;Jeong, In-Gab;Ok, Soo-Yol;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제14권2호
    • /
    • pp.182-193
    • /
    • 2011
  • The aim of this paper is to present the methodology for hand tracking and hand gesture recognition. The detected hand and gesture can be used to implement the non-contact mouse. We had developed a MP3 player using this technology controlling the computer instead of mouse. In this algorithm, we first do a pre-processing to every frame which including lighting compensation and background filtration to reducing the adverse impact on correctness of hand tracking and hand gesture recognition. Secondly, YCbCr skin-color likelihood algorithm is used to detecting the hand area. Then, we used Continuously Adaptive Mean Shift (CAMSHIFT) algorithm to tracking hand. As the formula-based region of interest is square, the hand is closer to rectangular. We have improved the formula of the search window to get a much suitable search window for hand. And then, Support Vector Machines (SVM) algorithm is used for hand gesture recognition. For training the system, we collected 1500 hand gesture pictures of 5 hand gestures. Finally we have performed extensive experiment on a Windows XP system to evaluate the efficiency of the proposed scheme. The hand tracking correct rate is 96% and the hand gestures average correct rate is 95%.

A Long-Range Touch Interface for Interaction with Smart TVs

  • Lee, Jaeyeon;Kim, DoHyung;Kim, Jaehong;Cho, Jae-Il;Sohn, Joochan
    • ETRI Journal
    • /
    • 제34권6호
    • /
    • pp.932-941
    • /
    • 2012
  • A powerful interaction mechanism is one of the key elements for the success of smart TVs, which demand far more complex interactions than traditional TVs. This paper proposes a novel interface based on the famous touch interaction model but utilizes long-range bare hand tracking to emulate touch actions. To satisfy the essential requirements of high accuracy and immediate response, the proposed hand tracking algorithm adopts a fast color-based tracker but with modifications to avoid the problems inherent to those algorithms. By using online modeling and motion information, the sensitivity to the environment can be greatly decreased. Furthermore, several ideas to solve the problems often encountered by users interacting with smart TVs are proposed, resulting in a very robust hand tracking algorithm that works superbly, even for users with sleeveless clothing. In addition, the proposed algorithm runs at a very high speed of 82.73 Hz. The proposed interface is confirmed to comfortably support most touch operations, such as clicks, swipes, and drags, at a distance of three meters, which makes the proposed interface a good candidate for interaction with smart TVs.

핸드 트레킹을 이용한 Markerless 시스템 (Markless System of Using Hand Tracking)

  • 반경진;김종찬;김경옥;김응곤
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2010년도 춘계학술대회
    • /
    • pp.683-685
    • /
    • 2010
  • 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이 증강현실이다. 증강현실 시스템에서 손동작을 이용하여 효과적인 의사전달 표현방법을 연구 중이다. 손동작은 인간의 의사소통을 위해 글이나 음성과 함께 매우 중요한 수단으로 사용되고 있다. 증강현실에서 가상의 정보를 얻기 위하여 마커를 사용한 공간 배치 기술과 핸드 트래킹 기술에 관하여 상당한 제약이 따른다. 본 논문에서는 핸드 트래킹 기법을 이용하여 핸드 영역을 트래킹하여 추적영역 위에 객체를 증강시킨다. 증강된 객체는 핸드 위치에 따라서 뷰포인트 변화에 따라서 입체감과 몰입감이 향상된다.

  • PDF

Enhanced Sign Language Transcription System via Hand Tracking and Pose Estimation

  • Kim, Jung-Ho;Kim, Najoung;Park, Hancheol;Park, Jong C.
    • Journal of Computing Science and Engineering
    • /
    • 제10권3호
    • /
    • pp.95-101
    • /
    • 2016
  • In this study, we propose a new system for constructing parallel corpora for sign languages, which are generally under-resourced in comparison to spoken languages. In order to achieve scalability and accessibility regarding data collection and corpus construction, our system utilizes deep learning-based techniques and predicts depth information to perform pose estimation on hand information obtainable from video recordings by a single RGB camera. These estimated poses are then transcribed into expressions in SignWriting. We evaluate the accuracy of hand tracking and hand pose estimation modules of our system quantitatively, using the American Sign Language Image Dataset and the American Sign Language Lexicon Video Dataset. The evaluation results show that our transcription system has a high potential to be successfully employed in constructing a sizable sign language corpus using various types of video resources.

손 모양 인식을 이용한 모바일 로봇제어 (Mobile Robot Control using Hand Shape Recognition)

  • 김영래;김은이;장재식;박세현
    • 전자공학회논문지CI
    • /
    • 제45권4호
    • /
    • pp.34-40
    • /
    • 2008
  • 본 논문에서는 손 모양 인식을 이용한 비전기반의 모바일 로봇제어 시스템을 제안한다. 손 모양을 인식하기 위해서는 움직이는 카메라로부터 정확한 손의 경계선을 추출하고 추적하는 것이 필요하다. 이를 위해 본 논문에서는 초기 윤곽선 위치 및 경계에 강건하고, 빠른 물체를 정확히 추적할 수 있는 mean shift를 이용한 활성 윤곽선 모델(ACM) 추적 방법을 개발하였다. 제안된 시스템은 손 검출기, 손 추적기, 손 모양 인식기, 로봇 제어기 4가지 모듈로 구성된다. 손 검출기는 영상에서 피부색 영역으로 정확한 모양을 손으로 추출한 이후 활성 윤곽선 모델(ACM) 과 mean shift를 사용하여 손 영역을 정확히 추적한다. 마지막으로 Hue 모멘트에 이용하여 손의 형태를 인식한다. 제안된 시스템의 적합성을 평가하기 위하여 2족 보행로봇 RCB-1에서 실험이 수행되었다. 실험 결과는 제안된 시스템의 효율성을 증명하였다.

A Prototype Design for a Real-time VR Game with Hand Tracking Using Affordance Elements

  • Yu-Won Jeong
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권5호
    • /
    • pp.47-53
    • /
    • 2024
  • 본 연구는 어포던스 개념을 적용하여 가상 환경에서의 제스처 인식 과정에서 자연스러운 동작을 유도함으로써 상호작용과 몰입감을 향상하기 위한 인터랙티브 기술 활용을 제안한다. 이를 위해 샘플링 및 정규화 과정을 포함한 선분 인식 알고리즘을 활용하여 실제 손동작과 유사한 제스처를 인식하는 기법을 제안한다. 이러한 선분 인식은 본 논문에서 설계한 <VR Spell> 게임에서 마법진을 그리는 동작에 적용되었다. 실험 방법으로는 4개의 선분 인식 동작에 대한 인식률을 검증하였다. 본 논문은 실시간 핸드 트래킹 기술을 가상 환경, 특히 VR 게임과 같은 실감 콘텐츠에 적용하여 사용자에게 더 높은 몰입감과 재미를 추구하는 VR 게임을 제안하고자 한다.

능, 수동센서를 이용한 수중환경에서의 표적추적필터 구조 연구 (A Study on Target Tracking Filter Architecture in Underwater Environment using Active and Passive Sensors)

  • 임영택;서태일
    • 한국군사과학기술학회지
    • /
    • 제18권5호
    • /
    • pp.517-524
    • /
    • 2015
  • In this paper, we propose a new target tracking filter architecture using active and passive sensors in underwater environment. A passive sensor for target tracking needs a bearing measurement of target. And target tracking filter for using passive sensor has the observability problem. On the other hand, an active sensor does not have the problem associated with system observability problem because an active sensor uses bearing and range measurement. In this paper, the tracking filter algorithm that could be used in the active and passive sensor system is proposed to analyze maneuvering target and to improve target tracking performance. The proposed tracking filter algorithm is tested by a series of computer simulation runs and the results are analyzed and compared with existing algorithm.

Implementation of Gesture Interface for Projected Surfaces

  • Park, Yong-Suk;Park, Se-Ho;Kim, Tae-Gon;Chung, Jong-Moon
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권1호
    • /
    • pp.378-390
    • /
    • 2015
  • Image projectors can turn any surface into a display. Integrating a surface projection with a user interface transforms it into an interactive display with many possible applications. Hand gesture interfaces are often used with projector-camera systems. Hand detection through color image processing is affected by the surrounding environment. The lack of illumination and color details greatly influences the detection process and drops the recognition success rate. In addition, there can be interference from the projection system itself due to image projection. In order to overcome these problems, a gesture interface based on depth images is proposed for projected surfaces. In this paper, a depth camera is used for hand recognition and for effectively extracting the area of the hand from the scene. A hand detection and finger tracking method based on depth images is proposed. Based on the proposed method, a touch interface for the projected surface is implemented and evaluated.