• Title/Summary/Keyword: 제스쳐

Search Result 87, Processing Time 0.023 seconds

Implementation of DID interface using gesture recognition (제스쳐 인식을 이용한 DID 인터페이스 구현)

  • Lee, Sang-Hun;Kim, Dae-Jin;Choi, Hong-Sub
    • Journal of Digital Contents Society
    • /
    • v.13 no.3
    • /
    • pp.343-352
    • /
    • 2012
  • In this paper, we implemented a touchless interface for DID(Digital Information Display) system using gesture recognition technique which includes both hand motion and hand shape recognition. Especially this touchless interface without extra attachments gives user both easier usage and spatial convenience. For hand motion recognition, two hand-motion's parameters such as a slope and a velocity were measured as a direction-based recognition way. And extraction of hand area image utilizing YCbCr color model and several image processing methods were adopted to recognize a hand shape recognition. These recognition methods are combined to generate various commands, such as, next-page, previous-page, screen-up, screen-down and mouse -click in oder to control DID system. Finally, experimental results showed the performance of 93% command recognition rate which is enough to confirm the possible application to commercial products.

Implement of Finger-Gesture Remote Controller using the Moving Direction Recognition of Single (단일 형상의 이동 방향 인식에 의한 손 동작 리모트 컨트롤러 구현)

  • Jang, Myeong-Soo;Lee, Woo-Beom
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.13 no.4
    • /
    • pp.91-97
    • /
    • 2013
  • A finger-gesture remote controller using the single camera is implemented in this paper, which is base on the recognition of finger number and finger moving direction. Proposed method uses the transformed YCbCr color-difference information to extract the hand region effectively. The number and position of finger are computer by using a double circle tracing method. Specially, a user continuous-command can be performed repeatedly by recognizing the finger-gesture direction of single shape. The position information of finger enables a user command to amplify a same command in the User eXperience. Also, all processing tasks are implemented by using the Intel OpenCV library and C++ language. In order to evaluate the performance of the our proposed method, after applying to the commercial video player software as a remote controller. As a result, the proposed method showed the average 89% recognition ratio by the user command-mode.

Development of a Serious Game for Rehabilitation Training using 3D Depth Camera (3D depth 카메라를 이용한 재활훈련 기능성 게임 개발)

  • Kang, Sun-Kyung;Jung, Sung-Tae
    • Journal of Korea Game Society
    • /
    • v.13 no.1
    • /
    • pp.19-30
    • /
    • 2013
  • This paper proposes a serious game for rehabilitation training targeting old persons and patients for rehabilitation. The serious game suggested for rehabilitation training provides the whole body movement recognition-based interface using the 3D depth camera. When the user stands before the camera, it distinguishes the user from the background and then recognizes the user's whole body with 15 joints. By analyzing the changes of location and direction of each joint, it recognizes gestures needed for the game. The game contents consist of the games for upper limb training, lower limb training, whole body training, and balance training, and it was realized in both 2D and 3D games. The system suggested in this article works robustly even with the environmental changes using the 3D depth camera. Even with no separate device, the game recognizes the gestures only using the whole body movement, and this enhances the effect of rehabilitation.

A New Content-Based Image Retrieval Scheme: 'Query-by-Gesture' (제스쳐를 이용한 새로운 내용기반 영상 검색 기법)

  • 고병철;변혜란
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.368-370
    • /
    • 2000
  • 본 논문에서는 새로운 내용기반 영상 검색 방법인 'query-by-gesture'를 제안하고 이를 본 논문의 영역기반 영상 검색 도구인 FRIP시스템에 적용하였다. 'query-by-gesture' 검색 방법을 이용하여, 사용자는 마우스나 다른 스케치 도구를 사용하지 않더라도 컴퓨터에 부착된 카메라를 이용하여 쉽고 편리한 방법으로 찾고자 하는 객체를 검색할 수 있다. 또한 본 논문에서 제안하는 'query-by-gesture' 방법은 다른 동작 인식 방법에서 문제점으로 제기되는 속도 문제를 해결하기 위해 색상을 이용하여 손 영역을 찾아내고 찾아진 손가락 끝점에 local 윈도우를 적용시켜 빠르고 효율적인 검색 환경을 제공하도록 설계되었다.

  • PDF

Microcontroller-based Gesture Recognition using 1D CNN (1D CNN을 이용한 마이크로컨트롤러기반 제스처 인식)

  • Kim, Ji-Hye;Choi, Kwon-Taeg
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.01a
    • /
    • pp.219-220
    • /
    • 2021
  • 본 논문에서는 마이크로컨트롤러에서 6축 IMU 센서를 사용한 제스쳐를 인식하기 위한 최적화된 학습 방법을 제안한다. 6축 센서값을 119번 샘플링할 경우 특징 차원이 매우 크기 때문에 다층 신경망을 이용할 경우 학습파라미터가 마이크로컨트롤러의 메모리 허용량을 초과하게 된다. 본 논문은 성능은 유지하며 학습 파라미터 개수를 효과적으로 줄이기 위한 마이크로컨트롤러에 최적화된 1D CNN을 제안한다.

  • PDF

Pose Estimation of Face Using 3D Model and Optical Flow in Real Time (3D 모델과 Optical flow를 이용한 실시간 얼굴 모션 추정)

  • Kwon, Oh-Ryun;Chun, Jun-Chul
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.780-785
    • /
    • 2006
  • HCI, 비전 기반 사용자 인터페이스 또는 제스쳐 인식과 같은 많은 분야에서 3 차원 얼굴 모션을 추정하는 것은 중요한 작업이다. 연속된 2 차원 이미지로부터 3 차원 모션을 추정하기 위한 방법으로는 크게 외형 기반 방법이나 모델을 이용하는 방법이 있다. 본 연구에서는 동영상으로부터 3 차원 실린더 모델과 Optical flow를 이용하여 실시간으로 얼굴 모션을 추정하는 방법을 제안하고자 한다. 초기 프레임으로부터 얼굴의 피부색과 템플릿 매칭을 이용하여 얼굴 영역을 검출하고 검출된 얼굴 영역에 3 차원 실린더 모델을 투영하게 된다. 연속된 프레임으로 부터 Lucas-Kanade 의 Optical flow 를 이용하여 얼굴 모션을 추정한다. 정확한 얼굴 모션 추정을 하기 위해 IRLS 방법을 이용하여 각 픽셀에 대한 가중치를 설정하게 된다. 또한, 동적 템플릿을 이용해 오랫동안 정확한 얼굴 모션 추정하는 방법을 제안한다.

  • PDF

Gesture Extraction for Ubiquitous Robot-Human Interaction (유비쿼터스 로봇과 휴먼 인터액션을 위한 제스쳐 추출)

  • Kim, Moon-Hwan;Joo, Young-Hoon;Park, Jin-Bae
    • Journal of Institute of Control, Robotics and Systems
    • /
    • v.11 no.12
    • /
    • pp.1062-1067
    • /
    • 2005
  • This paper discusses a skeleton feature extraction method for ubiquitous robot system. The skeleton features are used to analyze human motion and pose estimation. In different conventional feature extraction environment, the ubiquitous robot system requires more robust feature extraction method because it has internal vibration and low image quality. The new hybrid silhouette extraction method and adaptive skeleton model are proposed to overcome this constrained environment. The skin color is used to extract more sophisticated feature points. Finally, the experimental results show the superiority of the proposed method.

사용자 인터페이스(UI, User Interface) 표준화 동향

  • Kim, Ji-In
    • Information and Communications Magazine
    • /
    • v.29 no.7
    • /
    • pp.62-72
    • /
    • 2012
  • UI 분야 국제 표준화 활동은 ISO/IEC/JTC1/SC35가 주도하며 키보드 자판 배열이나 GUI에서 사용이 되는 아이콘, 위젯, 등의 국제 표준화와 같은 전통적인 활동을 바탕으로, 다양한 언어와 문화의 장벽을 극복하기 위한 국제 표준화 활동, 장애인과 고령자의 접근성 향상 및 보장을 위한 국제 표준화 활동과 직관적이고 풍성한 기능을 가진 미래형 UI에 대한 국제 표준화 활동을 펼치고 있다. SC35 한택위원회는 우리나라가 확보하고 주도하는 미래 지향적인 UI 기술을 국제 표준에 반영하려는 활동에 초점을 맞추고 있다. 본고에서는 SC35 중심의 국제 표준화 활동을 소개하고, 우리나라가 추진 중인 웹 브라우저나 문서 뷰어를 위한 마우스 제스쳐 기반의 UI 국제 표준과 3차원 손 동작인식 기반의 3D UI 국제 표준에 대하여 설명한다. 그리고, 우리정부에서 제정 고시한 장애인들이나 고령자 등을 위한 모바일 기기용 애플리케이션의 접근성 향상 및 보장을 위한 지침을 소개한다.

Development of an Android Robot for a Performance and an Exhibition (공연, 전시를 위한 인간형 로봇 개발)

  • Lee, Dong-wook;Che, Dongwoon;Lee, Duckyeon;Ahn, Hoseok;Hur, Man-hong;Lee, Ho-gil
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2011.05a
    • /
    • pp.63-64
    • /
    • 2011
  • 본 연구에서는 연극, 뮤지컬 등 공연예술 및 인터랙티브 전시에 활용 가능한 인간형 로봇을 개발내용을 소개한다. 무대에서 활용하기 위한 이동형 하체 모듈과 감정표현이 가능한 얼굴, 제스쳐 표현이 가능한 상체 모듈을 개발하였고, 무대에서 인간과 같은 동작 표현을 위해 모션캡춰를 통하여 모션데이터를 구축하였다. 개발한 로봇을 이용한 공연사례를 제시하고, 인간형 로봇의 활용가능 범위와 발전방향에 대하여 검토한다.

  • PDF