• 제목/요약/키워드: 제스쳐

검색결과 87건 처리시간 0.039초

손 제스쳐를 이용한 드론 활용 (Hand Gesture Controlled Drone)

  • 박소연;최민규;김진석;배준혁;조동우;홍동권
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.136-137
    • /
    • 2017
  • 본 논문에서는 컴퓨팅의 응용시스템인 센서 통신과 제스쳐 인식을 이용하여 드론을 제약 없이 조작할 수 있다. 개인이나 기업과 정부 모두에게 새로운 가능성과 기회를 제공하여 상업적 가치 창출할 수 있을 것으로 예상된다.

지체장애인을 위한 헤드 포인팅 시스템 기반 문자입력 방법 (Head Pointing System based Text Input Method for Person with physical disabilities)

  • 한상헌;윤태수;이동훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2006년도 추계학술발표대회
    • /
    • pp.281-284
    • /
    • 2006
  • 본 논문은 지체장애인들의 컴퓨터 접근성을 향상시키기 위해서 Head Pointing System을 기반으로한 키보드 대체 방법을 제안한다. 먼저 컴퓨터의 접근성을 돕기위해 현재 사용되고있는 Head Pointing System에는 어떤 기능을 대체하고 있는지 간략하게 살펴보고, 본 논문에서 제안하는 방법이 이전에 사용되었던 Head Pointing System, On-Screen Keyboard를 함께 사용하여 문자를 입력하는 방식에 비해 어떤 이점이 있는 확인한다. 또한, Quikwriting 방식을 사용하여 사용자에게 단순하고 직관적인 제스쳐를 요구하도록하여 입력에 대한 부담을 낮추고, 사용자 개인의 제스쳐 특성에 따라 문자를 입력할 수 있도록 하기위해 신경망 알고리즘을 사용하였고 이를통해 Head Pointing System기반 문자입력 방법이 유용함을 확인할 수 있었다.

  • PDF

플로팅 홀로그램 캐릭터 조작을 위한 사용자 제스처 인식 시스템 구현 (Implementation of User Gesture Recognition System for manipulating a Floating Hologram Character)

  • 장명수;이우범
    • 한국인터넷방송통신학회논문지
    • /
    • 제19권2호
    • /
    • pp.143-149
    • /
    • 2019
  • 플로팅 홀로그램은 광고나 콘서트와 같이 넓은 공간에서 현장감과 실존감이 뛰어난 3D 입체영상을 제공하면서, 3D 안경의 불편함, 시각적 피로, 공간 왜곡 현상 발생을 감소할 수 있는 기술이다. 따라서 본 논문은 좁은 공간에서도 사용가능한 플로팅 홀로그램 환경에서 캐릭터 조작을 위한 사용자 제스처 인식 시스템을 구현한다. 제안된 방법은 하르 특징기반의 캐시케이드((Harr feature-based cascade classifier) 분류기를 이용하여 얼굴 영역을 검출하고, 검출된 얼굴 영역을 기준으로 실시간으로 체스쳐 차영상으로부터 사용자 제스쳐의 발생 위치 정보를 이용하여 사용자 제스쳐를 인식한다. 그리고 각각 인식된 제스쳐 정보는 플로팅 홀로그램 환경에서 생성된 캐릭터 움직임을 조작하기 위하여 상응하는 행위에 맵핑된다. 제안된 플로팅 홀로그램 캐릭터 조작을 위한 사용자 제스처 인식 시스템의 성능평가를 위해서는 플로팅 홀로그램 디스플레이 장치를 제작하고, 몸 흔들기, 걷기, 손 흔들기, 점프 등의 각 제스처에 따른 인식률을 반복 측정한 결과 평균 88%의 인식률을 보였다.

제로 UI 기술 동향 (Zero UI Technology Trends)

  • 정치윤
    • 전자통신동향분석
    • /
    • 제32권2호
    • /
    • pp.37-44
    • /
    • 2017
  • 사용자 인터페이스는 기계와 인간 사이에 상호작용을 할 수 있도록 도와주는 기술로써, 개인용 컴퓨터에서부터 애플의 멀티터치를 사용한 스마트폰까지 스크린 기반의 사용자 인터페이스가 주류를 이루고 있다. 제로 UI(User Interface)는 사용자의 생활 환경 안에서 자연스럽게 사용자의 요구사항을 인지하여 필요한 서비스를 제공함으로써 현재 스크린 기반의 사용자 인터페이스를 최소화하려는 기술이다. 제로 UI는 스마트한 기계들의 상황인지를 통한 판단, 사용자의 음성 인식, 사용자의 자연스러운 제스쳐 인식 등을 통하여 구현될 수 있으며, 본고에서는 음성인식을 통하여 사용자와 친화적으로 상호작용하고 있는 관점과 스마트 기기들이 상황인지를 통하여 자율적으로 판단함으로써 인터랙션을 줄이는 측면에서의 제로 UI의 기술 동향을 소개한다.

  • PDF

전처리 필터링 후 픽셀 분포 평가를 통한 혀 방향 인식 (Direction Recognition of Tongue through Pixel Distribution Estimation after Preprocessing Filtering)

  • 김창대;이재성
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2013년도 추계학술대회
    • /
    • pp.73-76
    • /
    • 2013
  • 본 논문은 입 영역의 픽셀 분포의 비교를 통해 혀의 방향 인식 알고리즘을 제안한다. 스마트폰의 크기가 커짐에 따라 얼굴의 제스쳐를 이용한 스마트폰 제어 기술이 요구되고 있다. 처음 코의 영역을 먼저 검출한 뒤 코와 입 부분의 비율로 입의 영역을 검출한다. 입의 영역을 검출한 뒤 방향별 영역을 나누고 혀와 유사한 색의 픽셀분포를 파악해 가리키는 방향을 인지한다. 본 알고리즘은 연구실 연구원 5명을 대상으로 한 실험에서 인식률이 80%에 육박하였다.

  • PDF

컬러 마커를 이용한 3차원 모션 정보의 검출 및 추적 (3D Motion Information Detection and Tracking Using Color Marker)

  • 신수미;이칠우
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2001년도 추계학술발표논문집
    • /
    • pp.596-601
    • /
    • 2001
  • 본 논문에서는 두 대의 카메라로부터 입력받은 인간의 신체와 같은 관절체의 움직임을 Color Marker의 색상 특성을 이용하여 3차원 공간 정보를 인식하는 방법에 관해 기술한다. 이 방법은 인체에 물리적인 장치를 하지 않고 단순히 영상정보만을 이용하여 3차원 정보를 구하였다. 보다 정확한 인체의 특징점을 구하기 위해 환 논문에서는 신체의 관절각에 칼라 마커를 부착하고 칼라 마커틀을 세그먼트하여 관절각의 2차원 정보를 구한 다음 스테레오 기하(Stereo Geometry)를 이용하여 3차원 정보를 계산하고 가상 공간상에서 인간의 움직임을 추적하는 방법을 제안한다. 제안하는 방법은 제스쳐 인식과 3차원 Virtual Reality 인터페이스 시스템 구성 등에 사용될 수 있다.

  • PDF

손의 추적과 제스쳐 인식에 의한 슬라이드 제어 (Controlling Slides using Hand tracking and Gesture Recognition)

  • ;이은주
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 춘계학술발표대회
    • /
    • pp.436-439
    • /
    • 2012
  • The work is to the control the desktop Computers based on hand gesture recognition. This paper is worked en real time tracking and recognizes the hand gesture for controlling the slides based on hand direction such as right and left using a real time camera.

웹캠을 이용한 동적 제스쳐 인식 기반의 감성 메신저 구현 및 성능 분석 (A Implementation and Performance Analysis of Emotion Messenger Based on Dynamic Gesture Recognitions using WebCAM)

  • 이원주
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권7호
    • /
    • pp.75-81
    • /
    • 2010
  • 본 논문에서는 웹캠을 이용하여 사용자의 안면 또는 손동작을 인식하고, 그 제스쳐가 나타내는 감성(희노애락)을 플래시 콘으로 표현하여 상대방에게 전송하는 감성 메신저를 구현한다. 이 메신저는 안면 인식 모듈과 손동작 인식 모듈, 메신저 모듈로 구성된다. 안면 인식 모듈에서는 눈, 입의 각 영역을 이진 영상으로 변환하여 눈과 입의 모양 변화에 따라 윙크, 입맞춤, 하품 등을 인식한다. 또한 손동작 인식 모듈에서는 인식한 손가락 수에 따라 가위-바위-보로 인식한다. 메신저 모듈은 안면 인식 모듈과 손동작 인식 모듈에서 인식한 윙크, 입맞춤, 하품과 가위-바위-보를 플래시 콘으로 표현하여 상대방에게 전달한다. 본 논문에서는 시뮬레이션을 통하여 감성 메신저의 CPU 점유율이 최소임을 검증한다. 또한 감성 메신저의 손동작 인식 모듈의 성능이 안면 인식 모듈에 비해 우수함을 보인다.