• 제목/요약/키워드: hand gesture

검색결과 402건 처리시간 0.032초

Multimodal Interaction Framework for Collaborative Augmented Reality in Education

  • Asiri, Dalia Mohammed Eissa;Allehaibi, Khalid Hamed;Basori, Ahmad Hoirul
    • International Journal of Computer Science & Network Security
    • /
    • 제22권7호
    • /
    • pp.268-282
    • /
    • 2022
  • One of the most important technologies today is augmented reality technology, it allows users to experience the real world using virtual objects that are combined with the real world. This technology is interesting and has become applied in many sectors such as the shopping and medicine, also it has been included in the sector of education. In the field of education, AR technology has become widely used due to its effectiveness. It has many benefits, such as arousing students' interest in learning imaginative concepts that are difficult to understand. On the other hand, studies have proven that collaborative between students increases learning opportunities by exchanging information, and this is known as Collaborative Learning. The use of multimodal creates a distinctive and interesting experience, especially for students, as it increases the interaction of users with the technologies. The research aims at developing collaborative framework for developing achievement of 6th graders through designing a framework that integrated a collaborative framework with a multimodal input "hand-gesture and touch", considering the development of an effective, fun and easy to use framework with a multimodal interaction in AR technology that was applied to reformulate the genetics and traits lesson from the science textbook for the 6th grade, the first semester, the second lesson, in an interactive manner by creating a video based on the science teachers' consultations and a puzzle game in which the game images were inserted. As well, the framework adopted the cooperative between students to solve the questions. The finding showed a significant difference between post-test and pre-test of the experimental group on the mean scores of the science course at the level of remembering, understanding, and applying. Which indicates the success of the framework, in addition to the fact that 43 students preferred to use the framework over traditional education.

손 제스처를 이용하여 탐색 구조용 무인항공기의 자동 스캐닝 경로를 정의하는 가상현실 입력방법 개발 및 평가 (Evaluation of Novel Method of Hand Gesture Input to Define Automatic Scanning Path for UAV SAR Missions)

  • 오창근
    • 한국항행학회논문지
    • /
    • 제27권4호
    • /
    • pp.473-480
    • /
    • 2023
  • 본 연구에서는 손 제스처를 이용하여 탐색 구조용 무인항공기의 카메라 스캐닝 경로를 입력하는 방법을 개발하여 가상현실 환경에서 시험하였다. 두 개의 임무영역 - 화재 발생 빌딩과 산악지역-에서 인명구조 탐색을 위해 관심 지역 빌딩과 산악 영역의 축소형 디지털트윈을 각각의 관심 지역 앞에 생성하고 디지털트윈 표면 상에 손 제스처로 비행경로를 정의한 후 무인항공기의 자동비행이 이루어지도록 하였다. 19명의 실험참가자로 이루어진 Human-in-the-loop 시뮬레이션 테스트에서 기존의 매뉴얼 비행 방식과 이 연구에서 설계한 경로 정의 후 자동비행 방식을 비교하였다. 테스트 결과, 객관적 결과는 새로운 방식이 임무의 정확성을 전반적으로 더 높였다고 보기는 어려웠으나, 주관적 답변은 산악지역 임무시 더 낮은 작업부하를 도출한다는 것을 보여주었다. 이러한 전문가의 특수한 업무능력에 의존하는 탐색구조 분야에서는 업무부하 감소가 필요한 부분에 선택적으로 적용하여 자동화로 보완해주는 것이 필요하다.

인간의 비언어적 행동 특징을 이용한 다중 사용자의 상호작용 의도 분석 (Interaction Intent Analysis of Multiple Persons using Nonverbal Behavior Features)

  • 윤상석;김문상;최문택;송재복
    • 제어로봇시스템학회논문지
    • /
    • 제19권8호
    • /
    • pp.738-744
    • /
    • 2013
  • According to the cognitive science research, the interaction intent of humans can be estimated through an analysis of the representing behaviors. This paper proposes a novel methodology for reliable intention analysis of humans by applying this approach. To identify the intention, 8 behavioral features are extracted from the 4 characteristics in human-human interaction and we outline a set of core components for nonverbal behavior of humans. These nonverbal behaviors are associated with various recognition modules including multimodal sensors which have each modality with localizing sound source of the speaker in the audition part, recognizing frontal face and facial expression in the vision part, and estimating human trajectories, body pose and leaning, and hand gesture in the spatial part. As a post-processing step, temporal confidential reasoning is utilized to improve the recognition performance and integrated human model is utilized to quantitatively classify the intention from multi-dimensional cues by applying the weight factor. Thus, interactive robots can make informed engagement decision to effectively interact with multiple persons. Experimental results show that the proposed scheme works successfully between human users and a robot in human-robot interaction.

비언어적 감정표현을 위한 애니메이션 이모티콘의 제작방향 제시 (Design method of Animation Emoticons for Non-Verbal Expression of Emotion)

  • 안성혜;윤세진
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 추계 종합학술대회 논문집
    • /
    • pp.200-204
    • /
    • 2006
  • 이모티콘은 현재 CMC 커뮤니케이션 상에서 감정표현을 나타내는 의사소통의 보조수단으로 사용되고 있다. 이모티콘은 텍스트 이모티콘에서 이미지 이모티콘, 애니메이션 이모티콘에 이르기까지 다양한 형태로 발전되어 왔다. 그러나 감정표현의 세분화된 분류가 미흡하여 기본감정만을 나타낼 수 있을 뿐 그 밖에 감정표현의 다양성을 가지고 있지 못하다. 따라서 다양한 감정표현이 가능한 이모티콘들을 편리하고, 간단하게 사용할 수 있도록 하는 모듈화 된 애니메이션 이모티콘 개발을 위해서는 감정들을 세분화하여 분류해줄 필요가 있다. 본 연구는 메신저상의 애니메이션 이모티콘을 중심으로 얼굴표정, 손동작, 상황설정에 따른 감정표현들을 분류하여 분석해보고, 애니메이션 이모티콘의 제작방향을 제시하고자 한다.

  • PDF

A New Eye Tracking Method as a Smartphone Interface

  • Lee, Eui Chul;Park, Min Woo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권4호
    • /
    • pp.834-848
    • /
    • 2013
  • To effectively use these functions many kinds of human-phone interface are used such as touch, voice, and gesture. However, the most important touch interface cannot be used in case of hand disabled person or busy both hands. Although eye tracking is a superb human-computer interface method, it has not been applied to smartphones because of the small screen size, the frequently changing geometric position between the user's face and phone screen, and the low resolution of the frontal cameras. In this paper, a new eye tracking method is proposed to act as a smartphone user interface. To maximize eye image resolution, a zoom lens and three infrared LEDs are adopted. Our proposed method has following novelties. Firstly, appropriate camera specification and image resolution are analyzed in order to smartphone based gaze tracking method. Secondly, facial movement is allowable in case of one eye region is included in image. Thirdly, the proposed method can be operated in case of both landscape and portrait screen modes. Fourthly, only two LED reflective positions are used in order to calculate gaze position on the basis of 2D geometric relation between reflective rectangle and screen. Fifthly, a prototype mock-up design module is made in order to confirm feasibility for applying to actual smart-phone. Experimental results showed that the gaze estimation error was about 31 pixels at a screen resolution of $480{\times}800$ and the average hit ratio of a $5{\times}4$ icon grid was 94.6%.

지능형 환경을 위한 실시간 신체 부위 추적 시스템 -조명 및 복장 변화에 강인한 신체 부위 추적 시스템- (A real-time robust body-part tracking system for intelligent environment)

  • 정진기;조규성;최진;양현승
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.411-417
    • /
    • 2009
  • 본 논문은 지능형 환경에 적합하도록 사용자의 자유를 제한하지 않는 실시간 신체 부위 추적 시스템의 구현에 관해 다룬다. 본 시스템은 기존의 신체 부위 추적 시스템과 달리 소매의 길이에 제약 없이 긴 소매, 반 소매 모두 인식할 수 있도록 함으로써 시스템의 generality를 높였다. 정확한 인식을 위하여, 한 대의 카메라에서 얻어진 이미지에서 손, 머리, 발의 신체 부위를 따로 검출하고 각 신체 부위를 검출할 때 해당 부위에 적합한 특징점을 따로 선택하여 검출하였다. 검출된 2차원의 신체 부위들을 calibrate된 카메라를 이용하여 3차원 자세로 변환하였다. 본 시스템은 실험을 통해 실시간(50fps) 성능으로 향상된 손 추적 성능을 보여주었다.

  • PDF

동적 학습을 이용한 손동작 인식 결과 (Hand Gesture Recognition Result Using Dynamic Training)

  • 정유선;박동석;윤영지;신보경;김혜민;나상동;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2007년도 춘계종합학술대회
    • /
    • pp.861-864
    • /
    • 2007
  • 본 논문에서는 카메라-투영 시스템에서 비전에 기반을 둔 팔동작 인식을 위한 새로운 알고리즘을 제안하고 있다. 제안된 인식방법은 정적인 팔동작 분류를 위하여 푸리에 변환을 사용하였다. 팔 분할은 개선된 배경 제거 방법을 사용하였다. 대부분의 인식방법들이 같은 피검자에 의해 학습과 실험이 이루어지고 상호작용 이전에 학습단계가 필요하다. 그러나 학습되지 않은 다양한 상황에 대해서도 상호작용을 위해 동작 인식이 요구된다. 그러므로 본 논문에서는 인식 작업 중에 검출된 불완전한 동작들을 정정하여 적용하였다. 그 결과 사용자와 독립되게 동작을 인식함으로써 새로운 사용자에게 신속하게 온라인 적용이 가능하였다.

  • PDF

HCI 를 위한 멀티터치 테이블-탑 디스플레이 시스템 구현 (Implementation of Multi-touch Tabletop Display for Human Computer Interaction)

  • 김송국;이칠우
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.553-560
    • /
    • 2007
  • 본 논문에서는 양손의 터치를 인식하여 실시간 상호작용이 가능한 테이블 탑 디스플레이 시스템 및 구현 알고리즘에 대해 기술한다. 제안하는 시스템은 FTIR(Frustrated Total Internal Reflection) 메커니즘을 기반으로 제작되었으며 multi-touch, multi-user 방식의 손 제스처 입력이 가능하다. 시스템은 크게 영상 투영을 위한 빔-프로젝터, 적외선 LED를 부착한 아크릴 스크린, Diffuser 그리고 영상을 획득하기 위한 적외선 카메라로 구성되어 있다. 시스템 제어에 필요한 제스처 명령어 종류는 상호작용 테이블에서의 입력과 출력의 자유도를 분석하고 편리함, 의사소통, 항상성, 완벽함의 정도를 고려하여 규정하였다. 규정된 제스처는 사용자가 상호작용을 위해 스크린에 접촉한 손가락의 개수, 위치, 그리고 움직임 변화를 기준으로 세분화된다. 적외선 카메라를 통해 입력받은 영상은 잡음제거 및 손가락 영역 탐색을 위해 간단한 모폴로지 기법이 적용된 후 인식과정에 들어간다. 인식 과정에서는 입력 받은 제스처 명령어들을 미리 정의해놓은 손 제스처 모델과 비교하여 인식을 행한다. 세부적으로는 먼저 스크린에 접촉된 손가락의 개수를 파악하고 그 영역을 결정하며 그 후 그 영역들의 중심점을 추출하여 그들의 각도 및 유클리디언 거리를 계산한다. 그리고 나서 멀티터치 포인트의 위치 변화값을 미리 정의해둔 모델의 정보와 비교를 한다. 본 논문에서 제안하는 시스템의 효율성은 Google-earth를 제어하는 것을 통해 입증될 수 있다.

  • PDF

Use of a gesture user interface as a touchless image navigation system in dental surgery: Case series report

  • Rosa, Guillermo M.;Elizondo, Maria L.
    • Imaging Science in Dentistry
    • /
    • 제44권2호
    • /
    • pp.155-160
    • /
    • 2014
  • Purpose: The purposes of this study were to develop a workstation computer that allowed intraoperative touchless control of diagnostic and surgical images by a surgeon, and to report the preliminary experience with the use of the system in a series of cases in which dental surgery was performed. Materials and Methods: A custom workstation with a new motion sensing input device (Leap Motion) was set up in order to use a natural user interface (NUI) to manipulate the imaging software by hand gestures. The system allowed intraoperative touchless control of the surgical images. Results: For the first time in the literature, an NUI system was used for a pilot study during 11 dental surgery procedures including tooth extractions, dental implant placements, and guided bone regeneration. No complications were reported. The system performed very well and was very useful. Conclusion: The proposed system fulfilled the objective of providing touchless access and control of the system of images and a three-dimensional surgical plan, thus allowing the maintenance of sterile conditions. The interaction between surgical staff, under sterile conditions, and computer equipment has been a key issue. The solution with an NUI with touchless control of the images seems to be closer to an ideal. The cost of the sensor system is quite low; this could facilitate its incorporation into the practice of routine dental surgery. This technology has enormous potential in dental surgery and other healthcare specialties.

An ANN-based gesture recognition algorithm for smart-home applications

  • Huu, Phat Nguyen;Minh, Quang Tran;The, Hoang Lai
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권5호
    • /
    • pp.1967-1983
    • /
    • 2020
  • The goal of this paper is to analyze and build an algorithm to recognize hand gestures applying to smart home applications. The proposed algorithm uses image processing techniques combing with artificial neural network (ANN) approaches to help users interact with computers by common gestures. We use five types of gestures, namely those for Stop, Forward, Backward, Turn Left, and Turn Right. Users will control devices through a camera connected to computers. The algorithm will analyze gestures and take actions to perform appropriate action according to users requests via their gestures. The results show that the average accuracy of proposal algorithm is 92.6 percent for images and more than 91 percent for video, which both satisfy performance requirements for real-world application, specifically for smart home services. The processing time is approximately 0.098 second with 10 frames/sec datasets. However, accuracy rate still depends on the number of training images (video) and their resolution.