• 제목/요약/키워드: NUI

검색결과 113건 처리시간 0.036초

Gesture based Natural User Interface for e-Training

  • Lim, C.J.;Lee, Nam-Hee;Jeong, Yun-Guen;Heo, Seung-Il
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.577-583
    • /
    • 2012
  • Objective: This paper describes the process and results related to the development of gesture recognition-based natural user interface(NUI) for vehicle maintenance e-Training system. Background: E-Training refers to education training that acquires and improves the necessary capabilities to perform tasks by using information and communication technology(simulation, 3D virtual reality, and augmented reality), device(PC, tablet, smartphone, and HMD), and environment(wired/wireless internet and cloud computing). Method: Palm movement from depth camera is used as a pointing device, where finger movement is extracted by using OpenCV library as a selection protocol. Results: The proposed NUI allows trainees to control objects, such as cars and engines, on a large screen through gesture recognition. In addition, it includes the learning environment to understand the procedure of either assemble or disassemble certain parts. Conclusion: Future works are related to the implementation of gesture recognition technology for a multiple number of trainees. Application: The results of this interface can be applied not only in e-Training system, but also in other systems, such as digital signage, tangible game, controlling 3D contents, etc.

전극 개수에 따른 근전도 기반 휴먼-컴퓨터 인터페이스의 정확도에 대한 연구 (Human-Computer Interface using sEMG according to the Number of Electrodes)

  • 이슬비;지영준
    • 한국HCI학회논문지
    • /
    • 제10권2호
    • /
    • pp.21-26
    • /
    • 2015
  • NUI(Natural User Interface)는 사용자의 자연스러운 동작이나 동작 시 발생하는 생체 신호를 해석하여 기계에 명령을 내리는 것을 말한다. 물리적인 변화가 있어야 사용이 가능한 가속도 센서나 영상 기반의 NUI와는 달리 특정 동작과 관련된 근육의 표면 근전도(surface Electromyogram, sEMG)를 측정하면 실제 움직임이 발생하지 않아도(isometric contraction) 동작 의도를 예측할 수 있다. 본 연구에서는 근전도 기반으로 손목 동작 의도를 분류할 때 전극 개수에 따른 정확도를 확인하고, 키보드 등에 적용 가능한 인터페이스 기술을 제안한다. 손목의 동작 중 신전(extension, up), 굴곡(flexion, down), 외전(abduction, right), 내전(adduction, left)의 네 가지 동작 의도를 분류하는 실험을 진행하였다. 50ms 간격으로 계산된 제곱평균제곱근(Root Mean Square, RMS)을 특징으로 사용하였고, 동작 의도 인식을 위해 역전파 알고리즘으로 학습한 다층 퍼셉트론 분류기를 사용하였다. 전극 쌍의 개수를 네 개(91.9%), 세 개(87.0%), 두 개(78.9%)로 줄여가며 정확도를 확인했다. 전극 쌍의 개수가 네 개에서 두 개로 줄었을 때 정확도는 약 13% 감소하였다. 두 쌍의 전극만 사용하는 경우의 분류 정확도를 높이기 위하여 직전의 RMS를 특징에 추가하였다. 150 ms 이전까지의 정보를 사용하였을 때, 분류 정확도가 78.9%에서 83.6%로 4.6% 증가하였다. 전극 쌍의 개수가 감소함에 따라 정확도는 감소하였지만, 이전 데이터를 함께 사용한 경우 부분적으로 증가 시킬 수 있음을 확인하였다.

모션 인식 센서 기반의 UAV 제어 신호 생성 방법 (Motion Recognition Sensor-based UAV Control Signal Generation Method)

  • 김동욱;김혁;성연식
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2016년도 춘계학술발표대회
    • /
    • pp.682-685
    • /
    • 2016
  • 최근 무인항공기(Unmanned Aerial Vehicle, UAV)가 많은 보급됨에 따라서 다양한 방법으로 이를 제어하기 위한 노력들이 이루어지고 있다. 그 중 NUI/NUX를 이용하여 UAV를 접목하려는 시도가 있다. 전통적인 NUI/NUX는 가상현실에서 시각적인 체감에 많이 의존하고 있지만 동작 인식 센서를 기반으로 가상 에이전트를 제어하는 기법들도 소개되고 있다. 이 논문에서는 모션 인식 센서인 Myo를 사용하여 UAV를 제어하는 시스템을 제안한다. 제안한 시스템은 지상 통제소(Ground Control Station, GCS)의 서브시스템이며 전통적인 드론 조종 방법과 같이 양팔로 제어하기 때문에 두 개의 Myo를 사용한다.

IoMTW 에서의 웨어러블 응용을 위한 손 제스처 검출 및 인식 (Detection of Hand Gesture and its Recognition for Wearable Applications in IoMTW)

  • 양안나;홍정훈;강한;천승문;김재곤
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 추계학술대회
    • /
    • pp.33-35
    • /
    • 2016
  • 손 제스처는 스마트 글라스 등 웨어러블 기기의 NUI(Natural User Interface)를 구현하기 위한 수단으로 각광받고 있다. 최근 MPEG 에서는 IoT(Internet of Things) 및 웨어러블 환경에서의 미디어 소비를 지원하기 위한 IoMTW(Internet of Media-Things and Wearables) 표준화를 진행하고 있다. 본 논문에서는 손 제스처를 웨어러블 기기의 NUI 로 사용하여 웨어러블 기기 제어 및 미디어 소비를 제어하기 위한 손 제스처 검출과 인식 기법를 제시한다. 제시된 기법은 스테레오 영상으로부터 깊이 정보와 색 정보를 이용하여 손 윤곽선을 검출하여 이를 베지어(Bezier) 곡선으로 표현하고, 표현된 손 윤곽선으로부터 손가락 수 등의 특징을 바탕으로 제스처를 인식한다.

  • PDF

적외선 센서를 사용한 손 동작 인식 (Hand Pose and Gesture Recognition Using Infrared Sensor)

  • 안준영;이상화;조남익
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 추계학술대회
    • /
    • pp.119-122
    • /
    • 2016
  • 최근 IT기술 영역에서 미래기술로 촉망받는 증강현실(AR)과 가상현실(VR)환경을 구축함에 있어서, 마우스나 키보드 등의 별도 장치 없이 기기에 원하는 동작을 입력 하도록 하는 NUI(Natural User Interface)기술이 각광받고 있다. 또한 NUI를 구현하는데 중요한 기술 중 하나로 손동작 인식 기술, 얼굴 인식 기술 등이 대두되고 있다. 이에 본 논문은 적외선 센서의 일종인 Leapmotion 센서를 사용하여 손동작 인식을 구현하고자 하였다. 첫 번째로 우선 거리변환 행렬을 사용하여 손바닥의 중심을 찾았다. 이후 각각의 손가락을 convex hull 알고리즘을 사용하여 추출한다. 제안한 알고리즘에서는 손가락, 손바닥 부분의optical flow를 구한 후, 두 optical flow의 특성을 사용하여 손의 이동, 정지, 클릭 동작을 구분 할 수 있도록 하였다.

  • PDF

OpenCV 이진화처리와 히스토그램 그래프를 이용한 제스처인식 (Gesture Recognition using binary processing and histogram graph with OpenCV)

  • 백영태;이세훈;김지성
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2016년도 제53차 동계학술대회논문집 24권1호
    • /
    • pp.133-136
    • /
    • 2016
  • NUI는 마우스, 키보드 등의 HID장치를 사용하지 않고 사용자의 신체를 사용하여 장치를 제어하는 모션 인터페이스이다. 본 논문에서는 소형 임베디드보드 라즈베리파이와 라즈베리파이에 연결된 파이카메라를 통해 영상인식과 컴퓨터 비전을 위하여 최적화된 알고리즘을 제공하는 OpenCV를 이용하여 손의 제스처를 인식하여 기존 HID장비와 비교하여 더욱 인간 친화적이며 직관적인 NUI장치 인터페이스를 구현하고자 한다.

  • PDF

Kinect와 Unity3D를 이용하여 제스처 기반 NUI를 적용한 3D 재활 치료 시스템 (Gesture-Based NUI 3D Rehabilitation System Using Kinect and Unity3D)

  • 손현호;구동현;정상철;이영만;이상민;이도훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 추계학술발표대회
    • /
    • pp.1142-1144
    • /
    • 2014
  • 본 논문에서는 뇌졸중, 치매 등 재활치료가 필요한 환자를 대상으로 하는 재활 프로그램을 Kinect와 Unity3D를 이용하여 구현하고, 이를 제어하기 위한 효과적인 제스처 기반 Natural User Interface를 적용하였다. 이는 동작 인식을 위해 Kinect 주변에 가까이 있기 어려운 프로그램 사용 환경을 원거리 조작이 가능케 하여 더욱 편하게 조작할 수 있게 하며, 직관적이고 단순한 제스처를 정의함으로써 가정에서도 손쉽게 사용할 수 있게 하였다.