• 제목/요약/키워드: Motion based interface

검색결과 310건 처리시간 0.028초

다양한 상호작용 어플리케이션을 위한 이종 센서 NUI/NUX 프레임워크 (Multi-sensor based NUI/NUX framework for various interactive applications)

  • 장위강;치옥용;문명운;조성재;채정숙;김준오;엄기현;조경은
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.1077-1078
    • /
    • 2017
  • In this study, we implement a natural user interface/experience framework using multi-sensors: Microsoft Kinect, Leap Motion, and Myo Armband. The framework is designed for customers to use in various types of interactive applications. We integrate the functions of three sensors into an application and provide an interface for customers, who can use it to interact with a computer easily. The framework can track body information in real-time, and accurately recognize the motion of different body parts.

손 제스처 인식에 기반한 Virtual Block 게임 인터페이스 (Virtual Block Game Interface based on the Hand Gesture Recognition)

  • 윤민호;김윤제;김태영
    • 한국게임학회 논문지
    • /
    • 제17권6호
    • /
    • pp.113-120
    • /
    • 2017
  • 최근 가상현실 기술의 발전으로 가상의 3D 객체와 자연스러운 상호작용이 가능하도록 하는 사용자 친화적인 손 제스처 인터페이스에 대한 연구가 활발히 진행되고 있다. 그러나 대부분의 연구는 단순하고 적은 종류의 손 제스처만 지원되고 있는 실정이다. 본 논문은 가상환경에서 3D 객체와 보다 직관적인 방식의 손 제스처 인터페이스 방법을 제안한다. 손 제스처 인식을 위하여 먼저 전처리 과정을 거친 다양한 손 데이터를 이진 결정트리로 1차 분류를 한다. 분류된 데이터는 리샘플링을 한 다음 체인코드를 생성하고 이에 대한 히스토그램으로 특징 데이터를 구성한다. 이를 기반으로 학습된 MCSVM을 통해 2차 분류를 수행하여 제스처를 인식한다. 본 방법의 검증을 위하여 3D 블록을 손 제스처를 통하여 조작하는 'Virtual Block'이라는 게임을 구현하여 실험한 결과 16개의 제스처에 대해 99.2%의 인식률을 보였으며 기존의 인터페이스보다 직관적이고 사용자 친화적임을 알 수 있었다.

윈도우 제어를 위한 시각적 비접촉 사용자 인터페이스 (Visual Touchless User Interface for Window Manipulation)

  • 김진우;정경부;정승도;최병욱
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권6호
    • /
    • pp.471-478
    • /
    • 2009
  • 최근 다양한 3차원 콘텐츠 및 응용 프로그램의 개발되고, 컴퓨터 사용자 계층이 다양화됨으로 인하여 인터페이스에 대한 연구가 활발히 진행되고 있다. 본 연구는 사용자가 손을 이용하여 윈도우를 효율적으로 제어할 수 있도록 하는 것을 목적으로 한다. 기존 인터페이스에 관한 연구들은 고가의 장비를 사용하거나 복잡한 제스처 인식, 또는 부가적인 도구인 마커 등을 사용하는 문제가 있다. 이러한 단점을 개선하기 위하여 새로운 시각적 비접촉 인터페이스를 제안한다. 손을 사용하여 윈도우를 제어하기 위하여 HSV 색상공간을 이용하여 손 영역을 검출한다. 그리고 거리변환 행렬과 손 외곽선의 곡률을 이용하여 손의 중심과 손가락의 위치를 파악한다. 손의 중심과 손가락 위치를 이용하여 본 논문에서 제안하는 7가지의 제어 동작 중 사용자가 의도하는 동작을 파악하여 인터페이스로써 활용한다. 제안하는 인터페이스는 스테레오 카메라를 사용함으로써 사유자가 3차원 공간에서 거리감을 가지고 제어할 수 있도록 하였다. 그리고 간단한 손동작으로 제어하고자 하는 객체를 시각적으로 접촉할 수 있도록 함으로써 직관적인 제어가 가능하도록 하였다. 마지막으로 제안하는 인터페이스를 활용한 응용을 통해서 효율성을 확인한다.

애니메이션 저작도구를 위한 음성 기반 음향 스케치 (Voice Driven Sound Sketch for Animation Authoring Tools)

  • 권순일
    • 한국콘텐츠학회논문지
    • /
    • 제10권4호
    • /
    • pp.1-9
    • /
    • 2010
  • 애니메이션 캐릭터의 동작을 만들어내기 위해 펜으로 스케치하는 형식의 인터페이스를 이용하는 저작 도구들이 연구되어 왔지만, 아직까지 음향적인 요소에 있어서 직관적인 인터페이스를 사용하여 만들어내는 방법은 연구되지 않았다. 본 논문에서는 사용자가 음향과 대응되는 의성어의 발성을 통하여 표현하면 이에 대응되는 음향샘플이 선택되어 삽입되는 방법을 제안하고자 한다. 일반적으로 사용되는 통계적 모델을 기반으로 하는 패턴인식 방법을 이용하여 의성어 발성만으로 대응되는 음향샘플을 어느 정도 인식할 수 있는지를 실험해본 결과 의성어의 음성샘플을 이용한 경우 최대 97%의 인식률을 얻을 수 있었다. 또한 새로운 음향샘플 등록 시에 발생하는 음성데이터 수집의 어려움을 극복하기 위하여 음성모델을 만드는 대신에 의성어의 음성샘플 하나만 사용하는 GLR Test를 활용해보니 기존의 방법과 거의 대등한 인식률을 실험적으로 확인할 수 있었다.

인체 동작 인식을 통한 PC 기반의 몰입 형 가상 환경 시스템 (PC based Immersive Virtual Environment(PIVE) System by Recognizing Human Motion)

  • 오영일;조경환;이지홍
    • 전자공학회논문지CI
    • /
    • 제43권4호
    • /
    • pp.103-112
    • /
    • 2006
  • 본 논문에서는 방대한 계산량으로 인해 슈퍼컴퓨터나 특수하게 제작된 컴퓨팅 시스템에서만 수행될 수 있었던 기존의 볼입 형 가상 환경(IVE) 시스템과는 달리 확장성과 호환성을 갖는 PC 기반의 몰입 형 가상 환경 시스템(PIVE)을 제안한다. 이러한 개인용 혹은 가정용 컴퓨터 기반의 어플리케이션은 두 가지 장점을 가진다. 첫 번째로 사용할 수 있는 리소스가 다양하다는 것이고, 두 번째로 사용자에게 친근한 인터페이스를 갖는다는 것이다. PC 기반의 몰입 형 가상 환경 시스템은 단순한 인터페이스와 호환성으로 일반 사용자가 IVE 시스템에 쉽고 편리하게 접근할 수 있게 해 준다. 또한 PC 기반의 몰입 형 가상 환경 시스템은 다양한 사용자로 하여금 많은 종류의 주제를 다룰 수 있게 하며, 기존의 복잡한 구조로 되어 있는 햄틱 장치를 PC 기반으로 제작하여 PC와의 호환성을 높여 인터페이스를 보다 쉽게 구현할 수 있게 해준다. 또한 제안된 PC 기반의 몰입 형 가상 환경 시스템은 물리적인 현상들을 계산하고, 시각화하는 시간을 단축시키기 위해서 기하학적인 방법들이 적용함으로써 일반 보급형 PC에서도 구현이 용이하다. 본 논문에서 제안된 PC 기반의 몰입 형 가상 환경 시스템을 사용자가 실내 환경에서 데이터 글러브와 행동 인식 장치, HMD를 착용하고 움직이는 예제에 적용해 보았다.

Drives and Motion Control Teaching based on Distance Laboratory and Remote Experiments

  • Vogelsberger, Markus A.;Macheiner, Peter;Bauer, Pavol;Wolb, Thomas M.
    • Journal of Power Electronics
    • /
    • 제10권6호
    • /
    • pp.579-586
    • /
    • 2010
  • This paper presents the organisation and the technical structure of a remote controlled laboratory in the field of high dynamic drives and motion control. It is part of the PEMCWebLab project with the goal of providing students with practical experience on real systems in the field of power electronics and drives. The whole project is based on clear targets and leading ideas. A set of experiments can be remotely performed on a real system to stepwise identify a two axes positioning system and to design different cascaded control loops. Each single experiment is defined by its goals, the content of how to achieve them, and a verification of the results as well as the achieved learning outcomes. After a short description of the PEMCWebLab project, the structure of the remote control is presented together with the hardware applied. One important point is error handling as real machines and power electronics are applied. Finally, a selection of experiments is presented to show the graphical user interface and the sequence of the laboratory.

하나의 비디오 입력을 위한 모습 기반법과 모델 사용법을 혼용한 사람 동작 추적법 (Human Motion Tracking by Combining View-based and Model-based Methods for Monocular Video Sequences)

  • 박지헌;박상호
    • 정보처리학회논문지B
    • /
    • 제10B권6호
    • /
    • pp.657-664
    • /
    • 2003
  • 사람의 동작을 믿을 수 있게 따라가는 것은 감시용 비디오나 사람과 컴퓨터간의 사용자 인터페이스 개발에 있어서 필수적이다. 이 논문은 모습 기반법(appearance-based method)과 모델 사용법을 혼용하여 사람을 추적하는 새로운 방법에 관한 논문이다. 하나의 비디오 입력이 화소 단위 및 물체 단위로 처리된다. 화소 단위의 처리에 있어서 개별 화소색을 분류하는 훈련방법으로, 가우스 혼합 모델(Gaussian mixture model)을 사용하였다. 물체 단위의 처리에 있어서 사람 몸에 대한 삼차원 모델링을 하고, 모델 몸체를 투사면(projection plane)에 투사시켰다. 투사된 몸체와 배경을 제외한 영상과 계산 기하 방법을 사용하여, 화소보다 작은 단위로 겹쳐지는 면적을 계산하였다. 우리의 방법은 정방향 기구학 (forward kinematics)을 사용하므로 역방향 기구학(inverse kinematics)을 사용하는 방법과 달리 계산 결함(singularity)을 갖지 않는다. 이 논문에서는 사람의 동작을 추적하기 위한 문제를 비선형 방정식 문제로 바꾸었다. 비선형 방정식의 비용 함수는 전경(foreground)의 영상 실루엣(silhouette)과 투사된 삼차원 모델 몸체의 실루엣의 겹쳐지는 면적이다. 화소 단위의 영상을 화소를 하나의 면적으로 계산함으로써, 겹쳐지는 면적에 대한 실수 단위의 계산은 계산 기하를 사용하였다. 이 논문의 방법은 다양한 사람 동작을 인식하기 위하여 사용되었다. 비디오에 나타나는 사람 동작 추적은 매우 우수하다.

증강현실 기반의 최소침습수술용 인터페이스의 개발 (Development of Immersive Augmented Reality interface for Minimally Invasive Surgery)

  • 문진기;박신석;김유진;김진욱
    • 로봇학회논문지
    • /
    • 제3권1호
    • /
    • pp.58-67
    • /
    • 2008
  • This study developed a novel augmented reality interface for minimally invasive surgery. The augmented reality technique can alleviate the sensory feedback problem inherent to laparoscopic surgery. An augmented reality system merges real laparoscope image and reconstructed 3D patient model based on diagnostic medical image such as CT, MRI data. By using reconstructed 3D patient model, AR interface could express structure of patient body that is invisible outside visual field of laparoscope. Therefore, an augmented reality system improved sight information of limited laparoscope. In our augmented reality system, the laparoscopic view is located at the center of a wide-angle concave screen and reconstructed 3D patient model is displayed outside the laparoscope. By using a joystick, the laparoscopic view and the reconstructed 3D patient model view are changed concurrently. With our augmented reality system, the surgeon can see the peritoneal cavity from a wide angle of view, without having to move the laparoscope. Since the concave screen serves immersive environments, the surgeon can feel as if she is in the patient body. For these reasons, a surgeon can recognize easily depth information about inner parts of patient and position information of surgical instruments without laparoscope motion. It is possible for surgeon to manipulate surgical instruments more exact and fast. Therefore immersive augmented reality interface for minimally invasive surgery will reduce bodily, environmental load of a surgeon and increase efficiency of MIS.

  • PDF

A Two Layered Approach for Animation Sketching

  • Sohn, Ei-Sung;Jeon, Jae-Woong;Park, Tae-Jin;Sohn, Won-Sung;Lim, Soon-Bum;Choy, Yoon-Chul
    • 한국멀티미디어학회논문지
    • /
    • 제12권12호
    • /
    • pp.1736-1744
    • /
    • 2009
  • In this paper, we present an animation sketching system using a two layered approach. Animation sketching is a popular technique to create informal animations but it is often suffered by the low-quality output due to a trade-off between convenience and complexity. Our aim is to support sketching practical animation scenes easily and fast while not complicating the simple sketching interface. The key idea is to combine two conceptual stop motion layers, a whiteboard and cutout animation layer, in a seamless interface. As a background, the whiteboard animation layer handles stroke-oriented objects, while the cutout animation layer takes charge of transform-oriented objects. We found that this approach enables users to express more complicated animation fast while still maintaining a concise sketching interface. We demonstrate the usability and flexibility through resulting animations from user experiments.

  • PDF

정밀구동메커니즘 적용 모션제어시스템 설계 및 구현 (Design and Implementation for Motion Control System with Precise Driving Mechanism)

  • 이상경;이준영;최윤석;박홍배
    • 대한임베디드공학회논문지
    • /
    • 제8권3호
    • /
    • pp.129-136
    • /
    • 2013
  • In this paper, a motion control system based on 2-axis gimbal system is designed and implemented to drive a high speed and precision. The proposed system consists of the RS-422 interface, 2-axis gimbal platform, servo control unit integrated with a high speed DSP chip-set, servo amplifier unit, potentiometer sensor unit, and resolver sensor unit. The servo control unit using the high speed DSP firmware is designed to get a fast response without an overshoot with step input and a RMS error of low probability with ramp input. The servo amplifier unit using a voltage control is designed to resolve the zero-crossing distortion for precise motion. To verify the performance and stability of the implemented system, experiments are performed through a measurement of the time and frequency domain response in a laboratory environment by using a PXI(PCI eXtentions for Instrumentation).