• Title/Summary/Keyword: 손

Search Result 13,069, Processing Time 0.035 seconds

Validating one-handed interaction modes for supporting touch dead-zone in large screen smartphones (대화면 스마트폰의 한 손 조작 시 터치 사각영역 지원 인터랙션의 유용성)

  • Park, Minji;Kim, Huhn
    • Journal of the HCI Society of Korea
    • /
    • v.12 no.1
    • /
    • pp.25-32
    • /
    • 2017
  • The purpose of this study is to evaluate the effectiveness of one-handed interaction modes for supporting the dead zone that users must be difficulty in performing the touch manipulation with only one hand. For the purpose, this study analyzed two existing one-handed modes in iPhone and Android smartphones, and proposed and implemented two additional one-handed modes. In order to investigate effectiveness of the one-handed modes, we performed the experiment that compared normal touch mode with the four one-handed modes. Experimental results showed that all one-handed modes required more time than normal touch mode because of the time requiring in both mode change and recognition. However, the participants had difficulty in manipulating continuous touches at dead zone area with only normal touch. Moreover, the subjective satisfaction was high in one-handed modes thanks to touch convenience and smooth transition effects in mode change. In special, the one-handed mode at iPhone was the most effective out of the tested modes.

3D Fingertip Estimation based on the TOF Camera for Virtual Touch Screen System (가상 터치스크린 시스템을 위한 TOF 카메라 기반 3차원 손 끝 추정)

  • Kim, Min-Wook;Ahn, Yang-Keun;Jung, Kwang-Mo;Lee, Chil-Woo
    • The KIPS Transactions:PartB
    • /
    • v.17B no.4
    • /
    • pp.287-294
    • /
    • 2010
  • TOF technique is one of the skills that can obtain the object's 3D depth information. But depth image has low resolution and fingertip occupy very small region, so, it is difficult to find the precise fingertip's 3D information by only using depth image from TOF camera. In this paper, we estimate fingertip's 3D location using Arm Model and reliable hand's 3D location information that is modified by hexahedron as hand model. Using proposed method we can obtain more precise fingertip's 3D information than using only depth image.

Improvement of Graphic User Interface for Motion Database of Sign Language Avatar (수화 아바타의 동작 데이터베이스를 위한 그래픽 사용자 인터페이스의 개선)

  • Oh, Young-Joon;Park, Kwang-Hyun;Jung, Seong-Hoon;Jang, Hyo-Young;Bien, Zeung-Nam
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.851-856
    • /
    • 2007
  • 수화는 청각장애인이 주로 사용하는 시각적인 언어이다. OpenGL 기반의 가상현실 공간을 배경으로 하여 청각장애인들이 쉽게 이해할 수 있는 수화 아바타의 움직임을 구현하기 위해, 본 논문에서는 수화 동작 데이터베이스를 구축하는 그래픽 사용자 인터페이스를 개발한다. 개발한 시스템에서는 아바타의 사실적인 표현과 친근감을 강조하기 위해 3D MAX 기반의 인체 아바타 모델의 픽셀 값을 ASE를 사용하여 C언어 코드로 변환함으로써 인간과 거의 비슷한 모델을 생성하였다. 손 모양 편집프로그램은 슬라이드 바를 사용하여 21개의 손 관절 각도를 조정할 수 있으며, 손 모양 코드번호와 손 모양 이름을 지정하여 수화단어 편집프로그램에서 사용하는 손 모양 데이터 형식으로 저장할 수 있다. 수화단어 편집프로그램은 수화단어 데이터 형식의 값을 설정하는 기능과 함께 손 모양 대칭복사, 검색, 추가, 수정, 삭제 기능을 제공함으로써 사용자가 손 모양을 쉽게 편집할 수 있도록 하였다. 손 모양 편집프로그램과 수화단어 편집프로그램을 사용하여 구성한 데이터베이스를 기반으로 수화 아바타가 가상현실 공간에서 인간과 유사한 움직임을 표현할 수 있도록 하였다.

  • PDF

A study on hand gesture recognition using 3D hand feature (3차원 손 특징을 이용한 손 동작 인식에 관한 연구)

  • Bae Cheol-Soo
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.10 no.4
    • /
    • pp.674-679
    • /
    • 2006
  • In this paper a gesture recognition system using 3D feature data is described. The system relies on a novel 3D sensor that generates a dense range mage of the scene. The main novelty of the proposed system, with respect to other 3D gesture recognition techniques, is the capability for robust recognition of complex hand postures such as those encountered in sign language alphabets. This is achieved by explicitly employing 3D hand features. Moreover, the proposed approach does not rely on colour information, and guarantees robust segmentation of the hand under various illumination conditions, and content of the scene. Several novel 3D image analysis algorithms are presented covering the complete processing chain: 3D image acquisition, arm segmentation, hand -forearm segmentation, hand pose estimation, 3D feature extraction, and gesture classification. The proposed system is tested in an application scenario involving the recognition of sign-language postures.

Robust Hand Tracking and Recognition System Using Multiple Feature Data Fusion (다중 특징을 이용한 견고한 손추척 및 인식 시스템)

  • Chun, Sung-Yong;Park, Shin-Won;Jang, Ho-Jin;Lee, Chan-Su;Sohn, Myoung-Gyu;Lee, Sang-Heon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06c
    • /
    • pp.490-495
    • /
    • 2010
  • 본 연구에서는 효과적인 손 제스처 인식을 위하여 다중 특징을 이용한 견고한 손 추적 방법을 제시한다. 기존의 많은 손추적 장치들이 칼라 정보나 모션 정보와 같은 단일한 정보를 바탕으로 손을 검출하고, 이를 바탕으로 손의 추적하는 방법들을 제시하고 있다. 이러한 방법들의 경우에는 손 추적 중에 환경이나 상황이 변하게 되면, 손추적의 정확도가 현저하게 떨어지게 된다. 본 연구에서는 이러한 문제점들을 보완하기 위하여, Adaboost를 이용한 손 검출, 역투영을 기반으로 손 색상을 이용한 추적, KLT를 바탕으로 한 모션 추적을 이용한 검출을 동시에 수행하며, 각 센서의 추적 결과에 대한 칼만 필터 적용뿐 아니라, 각 센서 정보를 통합하여 견고한 결과를 얻기 위한 방법을 제시한다. 이를 바탕으로 손제스처 인식 시스템을 개발하였으며, 개발된 제스처 인식을 바탕으로 비디오 플레이를 제어하는 시스템을 구현하였다.

  • PDF

Hand Biometric Information Recognition System of Mobile Phone Image for Mobile Security (모바일 보안을 위한 모바일 폰 영상의 손 생체 정보 인식 시스템)

  • Hong, Kyungho;Jung, Eunhwa
    • Journal of Digital Convergence
    • /
    • v.12 no.4
    • /
    • pp.319-326
    • /
    • 2014
  • According to the increasing mobile security users who have experienced authentication failure by forgetting passwords, user names, or a response to a knowledge-based question have preference for biological information such as hand geometry, fingerprints, voice in personal identification and authentication. Therefore biometric verification of personal identification and authentication for mobile security provides assurance to both the customer and the seller in the internet. Our study focuses on human hand biometric information recognition system for personal identification and personal Authentication, including its shape, palm features and the lengths and widths of the fingers taken from mobile phone photographs such as iPhone4 and galaxy s2. Our hand biometric information recognition system consists of six steps processing: image acquisition, preprocessing, removing noises, extracting standard hand feature extraction, individual feature pattern extraction, hand biometric information recognition for personal identification and authentication from input images. The validity of the proposed system from mobile phone image is demonstrated through 93.5% of the sucessful recognition rate for 250 experimental data of hand shape images and palm information images from 50 subjects.

Study on improvement of graphic motion editor for sign language (수화 동작 그래픽 편집기 개선에 관한 연구)

  • Oh, Young-Joon;Park, Kwang-Hyun;Jang, Hyo-Young;Kim, Dae-Jin;Jung, Jin-Woo;Bien, Zeung-Nam
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.976-981
    • /
    • 2006
  • 수화는 청각장애인이 사용하는 시각적인 언어이다. OpenGL 기반의 가상 현실 공간에서 수화 동작을 표현하기 위해서는 수화 동작 데이터를 삽입하고 수정하는 편집 프로그램이 필요하다. 하지만, 기존의 수화 동작 편집기는 수화를 잘 이해하지 못하는 일반 사용자가 손 모양을 정확하게 편집하거나 얼굴 표정을 표현하는데 어려움이 있다. 또한, 수화 사전에 포함되는 각 수화 단어의 데이터 수가 많기 때문에 이를 효율적으로 생성하고 저장하는 프로그램이 절실히 필요하다. 본 논문에서는 사용자의 편의성을 높이기 위해 수화 동작 그래픽 편집기를 개선하는 방법을 제안한다. 이를 위해 각 손 모양에 대해 21 개의 파라마터로 구성된 데이터를 손가락 별로 분류한 후, 손가락 고유 기호로 변환하고, 손 모양 이름과 일련 번호를 부여하여 손 모양 데이터를 얻었으며, 유사한 손 모양을 그룹으로 묶은 손 모양 그룹 데이터를 구성하여 손 모양 데이터 사전을 구축하였다. 구축된 손 모양 사전을 수화 동작 편집기에 적용함으로써 사용자는 손 모양 그룹과 손 모양 이름, 일련번호를 선택하여 손의 각 관절 움직임을 쉽게 편집할 수 있으며, 이를 가상현실 공간에서 움직여 볼 수 있다. 또한, 얼굴 표정과 안색을 편집할 수 있는 기능을 추가함으로써 수화 동작 중에 얼굴 표정을 쉽게 표현할 수 있도록 하였다.

  • PDF

A Study on Hand Gesture Recognition with Low-Resolution Hand Images (저해상도 손 제스처 영상 인식에 대한 연구)

  • Ahn, Jung-Ho
    • Journal of Satellite, Information and Communications
    • /
    • v.9 no.1
    • /
    • pp.57-64
    • /
    • 2014
  • Recently, many human-friendly communication methods have been studied for human-machine interface(HMI) without using any physical devices. One of them is the vision-based gesture recognition that this paper deals with. In this paper, we define some gestures for interaction with objects in a predefined virtual world, and propose an efficient method to recognize them. For preprocessing, we detect and track the both hands, and extract their silhouettes from the low-resolution hand images captured by a webcam. We modeled skin color by two Gaussian distributions in RGB color space and use blob-matching method to detect and track the hands. Applying the foodfill algorithm we extracted hand silhouettes and recognize the hand shapes of Thumb-Up, Palm and Cross by detecting and analyzing their modes. Then, with analyzing the context of hand movement, we recognized five predefined one-hand or both-hand gestures. Assuming that one main user shows up for accurate hand detection, the proposed gesture recognition method has been proved its efficiency and accuracy in many real-time demos.

Fingertip Extraction and Hand Motion Recognition Method for Augmented Reality Applications (증강현실 응용을 위한 손 끝점 추출과 손 동작 인식 기법)

  • Lee, Jeong-Jin;Kim, Jong-Ho;Kim, Tae-Young
    • Journal of Korea Multimedia Society
    • /
    • v.13 no.2
    • /
    • pp.316-323
    • /
    • 2010
  • In this paper, we propose fingertip extraction and hand motion recognition method for augmented reality applications. First, an input image is transformed into HSV color space from RGB color space. A hand area is segmented using double thresholding of H, S value, region growing, and connected component analysis. Next, the end points of the index finger and thumb are extracted using morphology operation and subtraction for a virtual keyboard and mouse interface. Finally, the angle between the end points of the index finger and thumb with respect to the center of mass point of the palm is calculated to detect the touch between the index finger and thumb for implementing the click of a mouse button. Experimental results on various input images showed that our method segments the hand, fingertips, and recognizes the movements of the hand fast and accurately. Proposed methods can be used the input interface for augmented reality applications.

Mobile Robot Control using Hand Shape Recognition (손 모양 인식을 이용한 모바일 로봇제어)

  • Kim, Young-Rae;Kim, Eun-Yi;Chang, Jae-Sik;Park, Se-Hyun
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.45 no.4
    • /
    • pp.34-40
    • /
    • 2008
  • This paper presents a vision based walking robot control system using hand shape recognition. To recognize hand shapes, the accurate hand boundary needs to be tracked in image obtained from moving camera. For this, we use an active contour model-based tracking approach with mean shift which reduces dependency of the active contour model to location of initial curve. The proposed system is composed of four modules: a hand detector, a hand tracker, a hand shape recognizer and a robot controller. The hand detector detects a skin color region, which has a specific shape, as hand in an image. Then, the hand tracking is performed using an active contour model with mean shift. Thereafter the hand shape recognition is performed using Hue moments. To assess the validity of the proposed system we tested the proposed system to a walking robot, RCB-1. The experimental results show the effectiveness of the proposed system.