• 제목/요약/키워드: 제스처 제안

검색결과 265건 처리시간 0.024초

약속된 제스처를 이용한 객체 인식 및 추적 (Object Detection Using Predefined Gesture and Tracking)

  • 배대희;이준환
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권10호
    • /
    • pp.43-53
    • /
    • 2012
  • 본 논문에서는 화면상 약속된 동작을 찾고 추적하는 알고리즘을 이용한 사용자 인터페이스를 제안한다. 현재 frame과 복수의 이전 frame간의 차영상을 이용하여 움직임 영역을 검출하고 약속된 제스처를 취하는 영역을 제어대상으로 인식한다. 이를 통하여 사용자가 장갑을 사용한다던지, 인종, 피부색등에 구애받지 않고 손동작 영역을 검출해 낼 수 있다. 또한 기존 색체 분포 추적 알고리즘을 개량하여 유사한 배경을 가로지르는 경우의 무게중심 위치의 정확성을 높였다. 그 결과 기존 피부색 인식 방법에 비해 약속된 손동작 인식률의 향상이 있었으며 기존 색체 추적 알고리즘에 비교하여 추적 인식률 향상을 확인할 수 있었다.

FBML을 이용한 서로 다른 아바타 모델간의 제스처 통신 (Gesture Communications Between Different Avatar Models Using A FBML)

  • 이용후;김상운;아오끼요시나오
    • 전자공학회논문지CI
    • /
    • 제41권5호
    • /
    • pp.41-49
    • /
    • 2004
  • 인터넷 가상공간에서 서로 다른 언어 사이의 장벽을 극복하기 위한 방법으로 수화 통신 시스템이 연구되고 있다. 그러나 지금까지의 연구는 같은 유형의 아바타 만을 대상으로 하였기 때문에 모델 구조가 서로 다를 경우에는 적용할 수 없다는 문제가있다. 따라서 본 연구에서는 FBML (Facial Body Markup Language)을 이용하여 서로 다른 아바타들 간의 수화 제스처 통신을 구현하는 방법을 제안하였다. 즉, FBML을 정의하여 제스처를 위한 관절각 및 얼굴 표정 등 서로 다른 아바타 모델들 사이에 전달할 내용을 표준 문서로 만들었다. 본 방법은 윈도우 플렛폼에서 Visual C++와 Open Inventor 라이브러리를 이용하여 구현하였으며, 실험 결과 언어의 장벽을 넘을 수 있는 비언어 통신수단으로 이용될 수 있는 가능성을 확인하였다.

e-러닝을 위한 손 제스처 어플리케이션 (Hand Gesture application for E-Learning)

  • 와르다익람;정윤지;이병권;엄기현;조경은
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 춘계학술발표대회
    • /
    • pp.1057-1058
    • /
    • 2015
  • 본 논문에서는 e-러닝 시스템 및 직관적인 제스처를 제안한다. e-러닝 시스템은 휴대가 쉽고 비용효율성이 높은 모션센서를 사용하며, 학생이 사용하기 쉽게 직관적인 제스처와 간단한 인터페이스 구성에 초점을 맞추었다. 시스템 속 시각적 효과와 재미있는 그래픽은 학생들의 관심을 끌어 학습에 흥미를 높여주고 학습 능력을 향상시킬 수 있다.

피부색 검출 및 특징점 추적을 통한 원거리 손 모션 제스처 인식 (Hand Motion Gesture Recognition at A Distance with Skin-color Detection and Feature Points Tracking)

  • 윤종현;김성영
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 추계학술발표대회
    • /
    • pp.594-596
    • /
    • 2012
  • 본 논문에서는 손 모션에 대하여 피부색 검출을 기반으로 전역적인 모션을 추적하고 모션 벡터를 생성하여 제스처를 인식하는 방법을 제안한다. 추적을 위하여 Shi-Tomasi 특징점 검출 방법과 Lucas-Kanade 옵티컬 플로우 추정 방법을 사용한다. 손 모션을 추적하는 경우 손의 모양이 다양하게 변화하므로 초기에 검출된 특징점을 계속적으로 추적하는 일반적인 방법으로는 손의 모션을 제대로 추적할 수 없다. 이에 본 논문에서는 프레임마다 새로운 특징점을 검출한 후 옵티컬 플로우를 추정하고 이상치(outlier)를 제거하여 손 모양의 변화에도 추적을 통한 모션 벡터 생성이 가능하도록 한다. 모션 벡터들로 인공 신경망을 사용한 판별 과정을 수행하여 최종적으로 손 모션 제스처에 대한 인식이 가능하도록 한다.

조명 변화에 강건한 피부색 검출을 사용한 게 임 인터페이스 (Game Interface using Robust Skin Color Detection)

  • 장상수;박혜선;김항준
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 가을 학술발표논문집 Vol.31 No.2 (2)
    • /
    • pp.736-738
    • /
    • 2004
  • 최근 사용자의 제스처를 이용한 게임 시스템에 대한 연구가 많은 관심을 받고 있다. 사용자의 얼굴 및 손의 움직임을 이용하여 게임을 제어하기 위해서는 복잡한 배경 및 조명에 강건한 얼굴 및 손 영역의 추출이 필수적이다. 본 논문에서는 조명 변화에 강건한 피부색 검출을 이용한 게임 인터페이스를 제안한다. 이를 위해 제안된 시스템은 다음의 두 단계로부터 얼굴 및 손 영역을 추출한다. 먼저, 피부색과 유사한 물건들을 제거하기 위해 배경 영상과 현재 영상의 차영상으로부터 전경물체를 추출한다. 그 다음, 조명에 의한 깜박임이나 잡음을 줄이기 위해서 SCT 알고리즘을 이용하여 전경물체 영역 안에서 피부색 영역만을 정확하게 검출한다. 추출된 얼굴 및 손의 움직임으로부터 얻어지는 제스처는 은닉마르코프 모델을 사용하여 인식된다. 복잡한 환경에서 실험한 결과, 제안된 시스템은 정확한 피부색 영역 검출을 제공하고 이를 통한 보다 정확한 인식률을 제공할 수 있다는 것이 증명되었다.

  • PDF

증강 현실을 위한 적외선 센서 인터페이스 (Infrared Sensor Interface for Augment Reality)

  • 최한용;장재혁;송창근;고영웅
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 춘계학술발표대회
    • /
    • pp.107-110
    • /
    • 2010
  • 본 연구에서는 증강 현실 환경에서 사용자와의 상호 작용을 효율적으로 수행할 수 있는 적외선 기반 제스처 인터페이스를 제안한다. 제안하는 방식은 적외선 마커를 이용한 간단한 제스처를 통하여 홈오토메이션 시스템의 다양한 인터페이스 처리를 제공한다. 제안하는 시스템 프로토타입을 구현하였으며, 플랫폼을 다수의 사용자들을 대상으로 시연한 결과 직관적이고 쉬운 인터페이스임을 확인할 수 있었다.

제스처 기반 사용자 인터페이스를 위한 색상 마커 인식 알고리즘 (A Color Marker Detection Algorithm for Gesture-based User Interfaces)

  • 이두희;김윤
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 춘계학술발표대회
    • /
    • pp.401-404
    • /
    • 2010
  • 고성능 단말기와 다양한 컨텐츠가 제공되면서 제스처 기반 사용자 인터페이스에 대한 관심이 높아지고 있다. 하지만 기존의 알고리즘을 사용하기 위해서는 센서 장치를 사용하거나 사용자가 부자연스러운 장비를 착용해야 하는 경우가 많다. 본 논문에서는 카메라를 통해 입력된 영상 정보만으로 사용자가 착용한 색상 마커를 실시간으로 검출하는 알고리즘을 제안한다. 본 논문이 제안하는 마커 인식 알고리즘은 색상 감지와 움직임 감지로 나뉜다. 단일 프레임에서 영상 성분 평균을 이용한 조건검사를 통하여 색상 영역을 검출한다. 다음으로, 인접한 프레임간의 평균 영상과 현재 영상과의 차를 가중치로 이용하여 배경 범위를 설정하고 이 범위를 벗어난 영역을 움직임 영역으로 검출한다. 마지막으로 색상 검출 영역과 움직임 검출 영역을 동시에 만족하고 이웃한 픽셀들도 위 조건을 동시에 만족하면 최종적으로 사용자의 마커로 인식한다. 본 논문이 제안하는 알고리즘은 영상 정보만 사용하기 때문에 사용자는 센서나 부자연스러운 장비를 착용할 필요가 없고 일조량에 따른 조도의 변화에 강건하기 때문에 효과적인 사용자 움직임 검출이 가능하다.

지역화된 템플릿기반 동적 시간정합을 이용한 모바일 제스처인식 (Mobile Gesture Recognition using Dynamic Time Warping with Localized Template)

  • 최봉환;민준기;조성배
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권4호
    • /
    • pp.482-486
    • /
    • 2010
  • 최근 모바일기기에 탑재된 가속도 센서가 제스처기반 모바일 사용자 인터페이스에 활용됨에 따라 동적시간정합(Dynamic Time Warping, DTW)기반 인식기에 대한 연구가 활발하다. DTW는 학습샘플을 매칭 템플릿으로 사용하기 때문에 별도의 학습과정이 없다. 하지만 인식시 입력 데이터를 모든 템플릿과 비교해야하기 때문에 계산복잡도로 인하여 모바일환경에 적용하기 어렵다. 본 논문에서는 이러한 문제를 해결하기 위해 지역화된 소수의 템플릿을 사용하는 DTW기반 제스쳐 인식기를 제안한다. 지역화된 템플릿은 k-평균 클러스터링(k-means clustering)알고리즘을 사용하여 학습 제스처 셋의 유사한 패턴들을 k개의 그룹으로 묶고, 각 그룹의 중심(centroid)에 가까운 패턴을 DTW인식기의 템플릿으로 선택한다. 이러한 방법으로 템플릿수를 줄여 인식속도를 향상하고, 템플릿의 다양성을 유지하여 인식성능저하를 최소화한다. 실험 결과 제안하는 방법이 학습 템플릿을 전부 사용하는 DTW보다 약 5배 빠른 인식속도를 보였으며, 템플릿을 임의로 선택한 경우보다 안정적인 성능을 보임을 확인했다.

음성 및 제스처를 이용한 멀티 모달 명령어 인식 시스템 (Multi-Modal Instruction Recognition System using Speech and Gesture)

  • 김정현;노용완;권형준;홍광석
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2006년도 하계 학술대회 논문집
    • /
    • pp.57-62
    • /
    • 2006
  • 휴대용 단말기의 소형화 및 지능화와 더불어 차세대 PC 기반의 유비쿼터스 컴퓨팅에 대한 관심이 높아짐에 따라 최근에는 펜이나 음성 입력 멀티미디어 등 여러 가지 대화 모드를 구비한 멀티 모달 상호작용 (Multi-Modal Interaction MMI)에 대한 연구가 활발히 진행되고 있다. 따라서, 본 논문에서는 잡음 환경에서의 명확한 의사 전달 및 휴대용 단말기에서의 음성-제스처 통합 인식을 위한 인터페이스의 연구를 목적으로 Voice-XML과 Wearable Personal Station(WPS) 기반의 음성 및 내장형 수화 인식기를 통합한 멀티 모달 명령어 인식 시스템 (Multi-Modal Instruction Recognition System : MMIRS)을 제안하고 구현한다. 제안되어진 MMIRS는 한국 표준 수화 (The Korean Standard Sign Language : KSSL)에 상응하는 문장 및 단어 단위의 명령어 인식 모델에 대하여 음성뿐만 아니라 화자의 수화제스처 명령어를 함께 인식하고 사용함에 따라 잡음 환경에서도 규정된 명령어 모델에 대한 인식 성능의 향상을 기대할 수 있다. MMIRS의 인식 성능을 평가하기 위하여, 15인의 피험자가 62개의 문장형 인식 모델과 104개의 단어인식 모델에 대하여 음성과 수화 제스처를 연속적으로 표현하고, 이를 인식함에 있어 개별 명령어 인식기 및 MMIRS의 평균 인식율을 비교하고 분석하였으며 MMIRS는 문장형 명령어 인식모델에 대하여 잡음환경에서는 93.45%, 비잡음환경에서는 95.26%의 평균 인식율을 나타내었다.

  • PDF

플로팅 홀로그램 캐릭터 조작을 위한 사용자 제스처 인식 시스템 구현 (Implementation of User Gesture Recognition System for manipulating a Floating Hologram Character)

  • 장명수;이우범
    • 한국인터넷방송통신학회논문지
    • /
    • 제19권2호
    • /
    • pp.143-149
    • /
    • 2019
  • 플로팅 홀로그램은 광고나 콘서트와 같이 넓은 공간에서 현장감과 실존감이 뛰어난 3D 입체영상을 제공하면서, 3D 안경의 불편함, 시각적 피로, 공간 왜곡 현상 발생을 감소할 수 있는 기술이다. 따라서 본 논문은 좁은 공간에서도 사용가능한 플로팅 홀로그램 환경에서 캐릭터 조작을 위한 사용자 제스처 인식 시스템을 구현한다. 제안된 방법은 하르 특징기반의 캐시케이드((Harr feature-based cascade classifier) 분류기를 이용하여 얼굴 영역을 검출하고, 검출된 얼굴 영역을 기준으로 실시간으로 체스쳐 차영상으로부터 사용자 제스쳐의 발생 위치 정보를 이용하여 사용자 제스쳐를 인식한다. 그리고 각각 인식된 제스쳐 정보는 플로팅 홀로그램 환경에서 생성된 캐릭터 움직임을 조작하기 위하여 상응하는 행위에 맵핑된다. 제안된 플로팅 홀로그램 캐릭터 조작을 위한 사용자 제스처 인식 시스템의 성능평가를 위해서는 플로팅 홀로그램 디스플레이 장치를 제작하고, 몸 흔들기, 걷기, 손 흔들기, 점프 등의 각 제스처에 따른 인식률을 반복 측정한 결과 평균 88%의 인식률을 보였다.