• 제목/요약/키워드: 손동작 기반

검색결과 124건 처리시간 0.025초

가상 공간에서의 객체 조작을 위한 비전 기반의 손동작 인식 시스템 (Vision-based hand gesture recognition system for object manipulation in virtual space)

  • 박호식;정하영;나상동;배철수
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2005년도 추계종합학술대회
    • /
    • pp.553-556
    • /
    • 2005
  • We present a vision-based hand gesture recognition system for object manipulation in virtual space. Most conventional hand gesture recognition systems utilize a simpler method for hand detection such as background subtractions with assumed static observation conditions and those methods are not robust against camera motions, illumination changes, and so on. Therefore, we propose a statistical method to recognize and detect hand regions in images using geometrical structures. Also, Our hand tracking system employs multiple cameras to reduce occlusion problems and non-synchronous multiple observations enhance system scalability. Experimental results show the effectiveness of our method.

  • PDF

핸드 제스처를 인식하는 손동작 추적 (Hand Movement Tracking and Recognizing Hand Gestures)

  • 박광채;배철수
    • 한국산학기술학회논문지
    • /
    • 제14권8호
    • /
    • pp.3971-3975
    • /
    • 2013
  • 본 논문은 핸드 제스쳐에 의해 증강현실 내의 가상 객체 제어기술로, HOG기반의 핸드 제스쳐 인식을 제안하고 있다. 인식을 위한 특징점들은 HOG불럭들에 의하여 결정되며, 크기가 다른 여러 불럭들을 시험하여 가장 적절한 불럭구성을 결정하며, AdaBoostSVM기법을 사용하여 분류 목적에 가장 적절한 불럭들을 추출한다. 실험 결과 핸드 제스쳐 인식률은 94% 이었다.

수술환경에 적합한 자연스러운 손동작 기반 의료 영상 제어 인터페이스 (Natural hand gesture-based medical imaging interface for surgical environments)

  • 이대선;최준영;서병국;박종일
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2013년도 추계학술대회
    • /
    • pp.62-63
    • /
    • 2013
  • 본 논문에서는 실제 수술환경에서 자연스러운 손 동작을 이용해 의료영상을 제어하고 동시에 관심 있는 환부의 영상을 획득할 수 있는 인터페이스를 제안한다. 특히 제안하는 인터페이스는 손을 들어올리는 등의 수술을 방해하는 동작을 강요하지 않음으로써 자연스러운 상호작용을 가능하게 하며, 또한 수술 영역에 수술 부위를 표시하고 저장하는 것과 같은 부가적인 기능을 제공하여 의사의 수술여건과 편의를 보장한다.

  • PDF

Leap Motion 시스템을 이용한 손동작 인식기반 제어 인터페이스 기술 연구 (A new study on hand gesture recognition algorithm using leap motion system)

  • 남재현;양승훈;허웅;김병규
    • 한국멀티미디어학회논문지
    • /
    • 제17권11호
    • /
    • pp.1263-1269
    • /
    • 2014
  • As rapid development of new hardware control interface technology, new concepts have been being proposed and emerged. In this paper, a new approach based on leap motion system is proposed. While we employ a position information from sensor, the hand gesture recognition is suggested with the pre-defined patterns. To do this, we design a recognition algorithm with hand gesture and finger patterns. We apply the proposed scheme to 3-dimensional avatar controling and editing software tool for making animation in the cyber space as a representative application. This proposed algorithm can be used to control computer systems in medical treatment, game, education and other various areas.

인지적 긍정/부정 선택과제 수행 시 뇌파를 이용한 반응시간의 감지 (A Study on EEG-based RT Detection During a Yes/No Cognitive Decision Task)

  • 신승철;남승훈;류창수;송윤선
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2002년도 춘계학술대회 논문집
    • /
    • pp.278-285
    • /
    • 2002
  • 본 논문에서는 인지적 긍정/부정 선택 과제의 수행 시 뇌파를 이용하여 피험자의 반응시간 RT를 감지하는 방법에 관하여 기술한다. 실험 Task에서 피험자는 시각적 자극에 대한 반응, 문제의 해석, 손 움직임의 조절, 손동작 등과 같은 작업을 수행한다. 이와 같은 상황에서의 피험자의 정신상태의 변화를 모델링하고, 선택시간 ST를 감지하여 피험자의 반응시간 RT를 예측한다. ST를 감지하기 위하여 측정한 뇌파로부터 $\alpha$, $\beta$, ${\gamma}$파를 분리하고, 4쌍의 전극들로부터 3가지의 특징들을 추출한다. 추출한 특징들을 분석하여 각 피험자별로 나타나는 상세 규칙과 공통적인 특성인 일반 규칙들을 설정하고 이들을 적용한다. 4명의 피험자를 대상으로 평균 81%의 ST 감지 성공률을 보이고, ST 감지 이후 약 0.73초에서 RT가 나타나는 것을 보인다. 본 논문에서 제안한 방법을 기존의 인지적인 정신상태 판별을 위한 방법들이나 왼손/오른손 동작구분 방법들과 결합하여 사용할 경우 BCI를 위한 기반 기술로 활용될 것으로 기대한다.

  • PDF

윈도우 어플리케이션을 위한 사용자 제스쳐-명령 (User Gesture-command) 인식 시스템의 구현 (Implement of the User Gesture-Command Recognition System for Windows Application)

  • 장성원;심우섭;박병호;최용석;성현경
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2012년도 춘계 종합학술대회 논문집
    • /
    • pp.59-60
    • /
    • 2012
  • 본 논문에서는 윈도우 애플리케이션을 위한 사용자의 손동작 제스처 인식 시스템을 구현하였다. 실시간 제스처 인식 시스템은 사용자의 손 움직임을 웹캠으로 입력받아 제스처 명령으로 구현하였다. MFC Visual C++언어를 기반으로 개발된 인텔사의 OpenCV 라이브러리를 사용하였다. 인식시스템의 유효성을 검사하기 위하여 사용자의 입력을 받아 진행되는 사격게임을 개발 하였다.

  • PDF

센서모듈을 이용한 유비쿼터스 환경의 제어 (Control of Ubiquitous Environment using Sensors Module)

  • 정태민;최우경;김성주;김성현;전홍태
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 추계학술대회 학술발표 논문집 제16권 제2호
    • /
    • pp.101-104
    • /
    • 2006
  • 유비쿼터스 시대가 다가오면서 앞으로 가정 및 회사 등 인간이 거주하며 생활하는 공간에서의 좀 더 편리하고 효율적인 다양한 정보를 인간에게 인지시켜 줄 수 있는 환경이 구축되어야한다. 이를 기반으로 유비쿼터스 주변장치들의 네트워크와 인간에게 많은 정보와 편리성이 좀 더 효율적으로 이루어져야 할 것이다. 이를 위해 본 논문에서는 센서모듈에서 추출되는 데이터를 신경망과 퍼지 알고리즘을 사용해 동작인식의 패턴을 분류하여 인간의 사고를 움직임 파악한다. 이러한 패턴의 분류를 통해 홈네트워크 시스템과의 센서모듈의 통신제어가 가능하게 된다 이를 바탕으로 패턴이 분류된 행동들의 명령으로 미리 지정된 간단한 손동작으로 여러 가전기기라든지 홈네트워크 시스템의 제어방식을 더욱 간단히 제어하며, 인간의 건강상태를 파악함으로써 인간행동과 상태에 따른 유비쿼터스 환경의 제어가 이루어 질 수 있는 시스템을 제안한다.

  • PDF

핸드 제스처(Hand Gesture) 인식 기반의 파티클 시스템(Particle System)을 이용한 인터랙티브 미디어아트 작품구현 (Implementation of Interactive Media Art Work using Particle System based on Hand Gesture Detection)

  • 오민정;서용덕
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 추계학술대회
    • /
    • pp.39-41
    • /
    • 2018
  • 본 논문은 본인이 제작한 라는 인터랙티브 미디어 아트 작품에 관련한 글이다. 발전하는 디지털 기술 안에서 아날로그 감성을 이끌어내기 위한 작품 제작 방법으로 손으로 그린 나뭇잎을 입자로 사용한 파티클 시스템을 이용하였다. 그리고 NUI 인터페이스인 립모션 센서를 사용해 자연스러운 손 동작 인식을 하여 파티클 시스템과 연동하였다. 관람자는 바람을 일으키는 손 동작을 하며 가을 풍경과 같은 나뭇잎 파티클의 변화를 느끼게 되고, 계속되는 손동작에 따라 나타난 새로운 동영상을 감상하며 잃어버린 감성을 느끼게 된다. 아날로그 컨텐츠와 디지털 기술의 융합은 관람자에게 친근한 접근과 감성을 자극함으로써 인터렉티브 미디어 아트의 새로운 확장의 가능성을 보여준다.

  • PDF

XML과 키넥트를 이용한 멀티모달 NUI/NUX 설계 (Design of Multi-modal NUI/NUX using XML and KINECT)

  • 이광형;신동규;신동일
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.1693-1696
    • /
    • 2013
  • 현재까지, 사람과 컴퓨터간의 인터페이스로 키보드와 마우스를 사용하여 왔다. 최근, 유비쿼터스 시대가 도래하면서 스마트 폰의 활용이 대두 되었고, 각 디바이스들은 하나로 통합되고 있다. 이에 따라 인터페이스도 NUI로 발전하였고 터치, 모션 트래킹, 음성, 표정 인식과 같은 멀티 모달 형식으로 더욱 높은 인지 능력과 직관적인 인터페이스가 되도록 각 디바이스 단계에서 개발되고 있다. 본 논문에서는 키넥트를 이용한 마커 없는 직관적인 손동작 인식과 XML 클라우드 기반의 각종 디바이스 통합 인터페이스 구현 설계를 제안한다.

웨어러블 센서를 활용한 경량 인공신경망 기반 손동작 인식기술 (A Light-weight ANN-based Hand Motion Recognition Using a Wearable Sensor)

  • 이형규
    • 대한임베디드공학회논문지
    • /
    • 제17권4호
    • /
    • pp.229-237
    • /
    • 2022
  • Motion recognition is very useful for implementing an intuitive HMI (Human-Machine Interface). In particular, hands are the body parts that can move most precisely with relatively small portion of energy. Thus hand motion has been used as an efficient communication interface with other persons or machines. In this paper, we design and implement a light-weight ANN (Artificial Neural Network)-based hand motion recognition using a state-of-the-art flex sensor. The proposed design consists of data collection from a wearable flex sensor, preprocessing filters, and a light-weight NN (Neural Network) classifier. For verifying the performance and functionality of the proposed design, we implement it on a low-end embedded device. Finally, our experiments and prototype implementation demonstrate that the accuracy of the proposed hand motion recognition achieves up to 98.7%.