• 제목/요약/키워드: 제스쳐

검색결과 87건 처리시간 0.03초

윈도우 어플리케이션을 위한 사용자 제스쳐-명령 (User Gesture-command) 인식 시스템의 구현 (Implement of the User Gesture-Command Recognition System for Windows Application)

  • 장성원;심우섭;박병호;최용석;성현경
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2012년도 춘계 종합학술대회 논문집
    • /
    • pp.59-60
    • /
    • 2012
  • 본 논문에서는 윈도우 애플리케이션을 위한 사용자의 손동작 제스처 인식 시스템을 구현하였다. 실시간 제스처 인식 시스템은 사용자의 손 움직임을 웹캠으로 입력받아 제스처 명령으로 구현하였다. MFC Visual C++언어를 기반으로 개발된 인텔사의 OpenCV 라이브러리를 사용하였다. 인식시스템의 유효성을 검사하기 위하여 사용자의 입력을 받아 진행되는 사격게임을 개발 하였다.

  • PDF

다중인식 기반의 무선 프리젠터 설계 및 구현 (Design and Implementation of Multi-recognition for Wireless Presenter)

  • 유상현;윤희용
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2014년도 제49차 동계학술대회논문집 22권1호
    • /
    • pp.295-298
    • /
    • 2014
  • 본 연구는 안드로이드 스마트폰 시스템을 기반으로 하여 점점 증가하는 프레젠테이션의 중요성 및 필요성에 따라 프레젠테이션을 효율적으로 진행하도록 돕는 무선 프리젠터 애플리케이션 개발에 관한 연구이다. 최근의 스마트폰은 휴대하기 편리한 특징과 다양한 기능들로 인해 빠른 속도로 보급되고 있으며, 여러 가지 기능의 센서가 내장되어 있다. 이러한 특징을 활용하여 별다른 기기 없이 스마트폰 자체를 무선 프리젠터로 사용할 수 있으며, 이에 대한 연구 및 개발들이 진행되고 있다. 하지만 기존의 프리젠터 애플리케이션들은 인터페이스가가 너무 복잡해서 사용하기 불편하거나, 혹은 인터페이스가 너무 단순하여 제한된 기능만을 가지는 단점을 가진다. 본 논문에서는 이러한 단점을 극복하기 위해서 제스쳐 인식을 활용하여 직관적으로 애플리케이션 사용이 가능하며, 멀티터치 제스처를 활용함으로써 다양한 기능을 수용할 수 있는 무선 프리젠터를 제안한다.

  • PDF

손 제스쳐 인식을 위한 상호작용 시각정보 추출 (Interactive visual knowledge acquisition for hand-gesture recognition)

  • 양선옥;최형일
    • 전자공학회논문지B
    • /
    • 제33B권9호
    • /
    • pp.88-96
    • /
    • 1996
  • Computer vision-based gesture recognition systems consist of image segmentation, object tracking and decision. However, it is difficult to segment an object from image for gesture in computer systems because of vaious illuminations and backgrounds. In this paper, we describe a method to learn features for segmentation, which improves the performance of computer vision-based hand-gesture recognition systems. Systems interact with a user to acquire exact training data and segment information according to a predefined plan. System provides some models to the user, takes pictures of the user's response and then analyzes the pictures with models and a prior knowledge. The system sends messages to the user and operates learning module to extract information with the analyzed result.

  • PDF

스크린 콘텐츠 제어를 위한 인터랙션에 관한 연구 (A study on the interaction for screen contents manipulation)

  • 권승준;이영운;지형근
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2015년도 제52차 하계학술대회논문집 23권2호
    • /
    • pp.208-210
    • /
    • 2015
  • 웹 기반의 스마트 교육 서비스 환경에서 스마트 스크린 단말들 간에 혹은 스마트 스크린 단말과 사용자간의 연결성 및 사용자 경험 증대를 위해서는 직관적이고 손쉬운 사용자 인터페이스 기술 등이 필요하다. 본 논문에서 제안된 방법은 단말에 내장된 웹 브라우저위로 사용자의 손가락 제스쳐 인터랙션 등을 통해 웹소켓 기반의 스마트 스크린 단말간 콘텐츠 제어 서비스를 가능하게 한다.

  • PDF

시각장애인의 스마트 기기 사용을 위한 제스처 기반 문자 입력 방법 (Character Input Method Based On Gesture for The Visually Impaired)

  • 배기태;신은애;김용수
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2016년도 제53차 동계학술대회논문집 24권1호
    • /
    • pp.215-216
    • /
    • 2016
  • 본 논문에서는 물리적 버튼이 존재하지 않는 평면방식의 스마트 기기를 시각 장애인이 기존 음성 인식 기반의 문자 입력 방식 대비 3배 이상 빠른 속도로 문자를 입력할 수 있는 제스처 기반 가상 문자 입력 방법을 제안한다. 제안하는 방식의 원리는 스마트폰의 터치화면을 8개 방향으로 설정하고 사용자의 드래그 동작에 따른 입력값의 초기위치와 중앙점, 드래그 형태 등을 이용하여 숫자, 영문, 한글, 특수기호 등을 입력하거나, 스마트기기의 다양한 응용 프로그램들을 자연스럽게 제어하고 동작시킬 수 있는 제스처 기반의 문자입력 방법이다. 실제 시각장애인의 필드 테스트를 통해 제안하는 방식의 효율성을 입증해보인다.

  • PDF

손과 얼굴의 겹침 현상을 고려한 강인한 손 추출 알고리즘 (Robust hand segmentation on hand over face occlusion)

  • 김하영;서종훈;한탁돈
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(C)
    • /
    • pp.397-399
    • /
    • 2012
  • 본 연구에서는 픽셀 값이 근소한 차이를 보이는 얼굴과 손이 겹쳤을 때 손을 효과적으로 추출하는 방법을 제안한다. 제안된 알고리즘은 깊이 영상에서 연결요소를 찾음으로써 깊이 정보가 다른 손과 얼굴 영역을 분리하게 된다. 기존의 복잡한 방법을 생략하고, 이진화 영상에 적용하던 connected component labeling 기법을 gray 영상에 적용하여 깊이 영역이 비슷한 영역을 분리하였다. 이로 인하여, 손의 피부색상과 비슷한 색상을 가지는 얼굴과 손의 겹침 현상에서 강건한 손 추출 결과를 얻을 수 있었다. 그리고 보다 자연스러운 제스쳐 인식 시스템을 구축할 수 있다.

지능화 공간에서 프로젝터가 탑재된 로봇을 이용한 대화형 다중해상도 디스플레이 (Interactive Multi-Resolution Display Using a Projector Mounted Mobile Robot in the Intelligent Space)

  • 이정엄;김곤수;박지영;김명희
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(C)
    • /
    • pp.369-370
    • /
    • 2012
  • 프로젝터를 이용하여 대형 화면을 투사할 경우, 밝기와 해상도 등으로 인하여 세세한 시각 정보 전달에 어려움이 발생한다. 본 논문에서는 공간에 설치된 프로젝터가 투영한 낮은 해상도의 대형 화면에서 사용자의 관심 영역을 하이라이트하는 방식으로 이 문제를 해결하고자 한다. 이를 위해 사용자의 관심 영역을 제스쳐 인식을 통해 파악하고, 사용자와 상호작용할 수 있는 지능화 공간과 증강된 시각정보를 투영할 수 있는 프로젝터가 탑재된 모바일 로봇을 소개한다. 본 논문에서는 지능화 공간 내에서 프로젝터가 탑재된 로봇을 이용하여 상호작용이 가능한 다중해상도 디스플레이 방식을 기술하고, 실험을 통하여 이 시스템의 가능성 및 유용성을 확인하고자 한다.

로컬 모션정보와 글로벌 모션정보를 조합한 제스쳐 인식 (Gesture Recognition in Video image with Combination of Partial and Global Information)

  • 오재용;이칠우
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2004년도 춘계학술발표대회논문집
    • /
    • pp.279-283
    • /
    • 2004
  • 본 논문에서는 일반적인 비디오 스트림에서 자동으로 인간의 제스처를 인식하는 알고리즘에 대하여 기술한다. 본 알고리즘은 입력된 비디오 영상으로부터 추출된 신체영역의 2차원적 특징 벡터를 사용하며, 주성분 분석법(Principle Component Analysis)을 통하여 모델 제스처 공간(Model Gesture space)을 구성함으로서 제스처를 통계학적으로 분석/표현하며, 이 제스처 공간에서 새로 입력되는 영상을 같은 방법으로 투영시키고, HMM(Hidden Markov Model) 이론을 적용하여 심볼화함으로써 최종적으로 제스처를 인식하게 된다. 본 방법은 기존의 제스처 인식 방법들과는 달리 전체적인 영상 정보(Global Information)와 세부적인 영상 정보(Partial Information)를 조합하여 사용한다는데 특징이 있으며, 본 알고리즘을 통해 보다 정확하게 강건한 제스처 인식 기술을 실생활에 적용할 수 있을 것이다.

  • PDF

유사홀로그램 가시화 기반 가상 휴먼의 제스쳐 상호작용 영향 분석 (Exploring the Effects of Gesture Interaction on Co-presence of a Virtual Human in a Hologram-like System)

  • Kim, Daewhan;Jo, Dongsik
    • 한국정보통신학회논문지
    • /
    • 제24권10호
    • /
    • pp.1390-1393
    • /
    • 2020
  • Recently, a hologram-like system and a virtual human to provide a realistic experience has been serviced in various places such as musical performance and museum exhibition. Also, the realistically responded virtual human in the hologram-like system need to be expressed in a way that matches the users' interaction. In this paper, to improve the feeling of being in the same space with a virtual human in the hologram-like system, user's gesture based interactive contents were presented, and the effectiveness of interaction was evaluated. Our approach was found that the gesture based interaction was provided a higher sense of co-presence for immersion with the virtual human.

사용자 제스쳐 인식 기반의 자가 시력 측정 및 관리 시스템 (A Self-Visual Acuity Testing & Management System by using a User Gesture Recognition)

  • 최창열;이우범
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 춘계학술발표대회
    • /
    • pp.1082-1085
    • /
    • 2010
  • 인간의 시력 측정을 위한 방법은 표준 시표(Optotype)에 따라 제작된 시표를 이용하여 검사자가 피검자를 측정하여 기록하는 방법이 대부분으로 컴퓨터 기반의 자가 검사가 가능한 시력 측정 시스템은 미흡한 실정이다. 또한 측정된 시력의 자동 데이터베이스에 의한 시력 관리 기능도 제공되지 않고 있다. 따라서 본 논문에서는 2006년에 국제규격(ISO 8596)에 따라 정의된 KS 표준 시표(한국 산업규격 P ISO 8596)와 시력 측정 방법을 참조하여 자가 시력 측정과 측정된 시력 데이터의 데이터베이스 관리가 가능한 컴퓨터 기반의 측정 시스템을 구현한다. 구현된 시스템은 피실험자를 대상으로 실제 시력표에 의한 시력 측정 방법과 비교 실험한 결과, 시력 측정에 있어서 객관성과 편의성을 보장하며 측정된 시력에 있어서도 데이터 관리의 유효성과 정확성을 보였다.