• 제목/요약/키워드: Vision Based User Interface

검색결과 49건 처리시간 0.022초

시각 센서 기반의 다 관절 매니퓰레이터 간접교시를 위한 유저 인터페이스 설계 (A User Interface for Vision Sensor based Indirect Teaching of a Robotic Manipulator)

  • 김태우;이후만;김중배
    • 제어로봇시스템학회논문지
    • /
    • 제19권10호
    • /
    • pp.921-927
    • /
    • 2013
  • This paper presents a user interface for vision based indirect teaching of a robotic manipulator with Kinect and IMU (Inertial Measurement Unit) sensors. The user interface system is designed to control the manipulator more easily in joint space, Cartesian space and tool frame. We use the skeleton data of the user from Kinect and Wrist-mounted IMU sensors to calculate the user's joint angles and wrist movement for robot control. The interface system proposed in this paper allows the user to teach the manipulator without a pre-programming process. This will improve the teaching time of the robot and eventually enable increased productivity. Simulation and experimental results are presented to verify the performance of the robot control and interface system.

로보트와 Vision System Interface (Robot vision interface)

  • 김선일;여인택;박찬웅
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1987년도 한국자동제어학술회의논문집; 한국과학기술대학, 충남; 16-17 Oct. 1987
    • /
    • pp.101-104
    • /
    • 1987
  • This paper shows the robot-vision system which consists of robot, vision system, single board computer and IBM-PC. IBM-PC based system has a great flexibility in expansion for a vision system interfacing. Easy human interfacing and great calculation ability are the benefits of this system. It was carried to interface between each component. The calibration between two coordinate systems is studied. The robot language for robot-vision system was written in "C" language. User also can write job program in "C" language in which the robot and vision related functions reside in the library.side in the library.

  • PDF

멀티모달 인터페이스(3차원 시각과 음성 )를 이용한 지능적 가상검객과의 전신 검도게임 (A Full Body Gumdo Game with an Intelligent Cyber Fencer using Multi-modal(3D Vision and Speech) Interface)

  • 윤정원;김세환;류제하;우운택
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제9권4호
    • /
    • pp.420-430
    • /
    • 2003
  • 본 논문에서는 멀티모달(multi-modal) 인터페이스를 통해 지능적 가상검객과 체감형 검도게임을 할 수 있는 시스템을 제안한다. 제안된 검도게임 시스템은 멀티모달 인터페이스(시각과 청각), 인공지능(AI), 피드백(스크린과 사운드) 등 크게 세 가지 모듈로 구성된다. 첫 번째로, 멀티모달 인터페이스는 시각기반, 3차원 인터페이스를 이용하여 사용자가 자유롭게 3차원 공간에서 움직일 수 있도록 하고, 음성기반 인터페이스를 이용하여 사용자가 현실감 있는 검도게임을 즐길 수 있도록 한다. 두 번째, 인공지능은 가상검객에게 멀티모달 인터페이스에서 입력되는 시각과 음성을 인식하여 가상검객의 반응을 유도한다. 마지막으로, 대형 스크린과 스피커를 통한 시청각 피드백은 체감형 상호작용을 통하여 사용자가 몰입감을 느끼며 검도게임을 경험할 수 있도록 한다. 따라서 제안된 시스템은 전신의 움직임으로 사용자에게 몰입감의 검도게임을 제공한다. 제안된 시스템은 오락 외에 교육, 운동, 예술행위 등 다양한 분야에 적용될 수 있다.

Stereo-Vision-Based Human-Computer Interaction with Tactile Stimulation

  • Yong, Ho-Joong;Back, Jong-Won;Jang, Tae-Jeong
    • ETRI Journal
    • /
    • 제29권3호
    • /
    • pp.305-310
    • /
    • 2007
  • If a virtual object in a virtual environment represented by a stereo vision system could be touched by a user with some tactile feeling on his/her fingertip, the sense of reality would be heightened. To create a visual impression as if the user were directly pointing to a desired point on a virtual object with his/her own finger, we need to align virtual space coordinates and physical space coordinates. Also, if there is no tactile feeling when the user touches a virtual object, the virtual object would seem to be a ghost. Therefore, a haptic interface device is required to give some tactile sensation to the user. We have constructed such a human-computer interaction system in the form of a simple virtual reality game using a stereo vision system, a vibro-tactile device module, and two position/orientation sensors.

  • PDF

머리의 자세를 추적하기 위한 효율적인 카메라 보정 방법에 관한 연구 (An Efficient Camera Calibration Method for Head Pose Tracking)

  • 박경수;임창주;이경태
    • 대한인간공학회지
    • /
    • 제19권1호
    • /
    • pp.77-90
    • /
    • 2000
  • The aim of this study is to develop and evaluate an efficient camera calibration method for vision-based head tracking. Tracking head movements is important in the design of an eye-controlled human/computer interface. A vision-based head tracking system was proposed to allow the user's head movements in the design of the eye-controlled human/computer interface. We proposed an efficient camera calibration method to track the 3D position and orientation of the user's head accurately. We also evaluated the performance of the proposed method. The experimental error analysis results showed that the proposed method can provide more accurate and stable pose (i.e. position and orientation) of the camera than the conventional direct linear transformation method which has been used in camera calibration. The results of this study can be applied to the tracking head movements related to the eye-controlled human/computer interface and the virtual reality technology.

  • PDF

가상 현실 어플리케이션을 위한 관성과 시각기반 하이브리드 트래킹 (Hybrid Inertial and Vision-Based Tracking for VR applications)

  • 구재필;안상철;김형곤;김익재;구열회
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2003년도 학술회의 논문집 정보 및 제어부문 A
    • /
    • pp.103-106
    • /
    • 2003
  • In this paper, we present a hybrid inertial and vision-based tracking system for VR applications. One of the most important aspects of VR (Virtual Reality) is providing a correspondence between the physical and virtual world. As a result, accurate and real-time tracking of an object's position and orientation is a prerequisite for many applications in the Virtual Environments. Pure vision-based tracking has low jitter and high accuracy but cannot guarantee real-time pose recovery under all circumstances. Pure inertial tracking has high update rates and full 6DOF recovery but lacks long-term stability due to sensor noise. In order to overcome the individual drawbacks and to build better tracking system, we introduce the fusion of vision-based and inertial tracking. Sensor fusion makes the proposal tracking system robust, fast, accurate, and low jitter and noise. Hybrid tracking is implemented with Kalman Filter that operates in a predictor-corrector manner. Combining bluetooth serial communication module gives the system a full mobility and makes the system affordable, lightweight energy-efficient. and practical. Full 6DOF recovery and the full mobility of proposal system enable the user to interact with mobile device like PDA and provide the user with natural interface.

  • PDF

스마트 기기의 비 접촉 사용자 인터페이스를 위한 비전 기반 고속 손동작 인식 기법 (Vision based Fast Hand Motion Recognition Method for an Untouchable User Interface of Smart Devices)

  • 박재병
    • 전자공학회논문지
    • /
    • 제49권9호
    • /
    • pp.300-306
    • /
    • 2012
  • 본 논문은 스마트 기기의 비 접촉 사용자 인터페이스를 위한 비전 기반 손동작 인식 기법에 대해 제안한다. 먼저 스마트 기기의 저 용량 메모리와 낮은 계산 능력을 고려하여 컬러 원본 이미지를 그레이 스케일 이미지로 변환하고 해상도를 줄이는 전처리 과정을 수행한다. 다음으로 손의 수평, 수직 움직임을 분리하여 강인하게 손동작을 검출할 수 있도록 수평, 수직 주요 검출 대상 영역을 정의한다. 그리고 연속적으로 획득된 영상의 차분 영상으로부터 손의 움직임에 의해 주요하게 변화되는 픽셀들의 무게 중심을 구하고, 시간에 따라 변화되는 무게 중심 값에 대한 최소 자승 선을 정의하여 손의 움직임 방향을 인식한다. 제안한 방법의 효용성을 검증하기 위해 비전 시스템에 의한 실험을 수행하였다.

차내 경험의 디지털 트랜스포메이션과 오디오 기반 인터페이스의 동향 및 시사점 (Trends and Implications of Digital Transformation in Vehicle Experience and Audio User Interface)

  • 김기현;권성근
    • 한국멀티미디어학회논문지
    • /
    • 제25권2호
    • /
    • pp.166-175
    • /
    • 2022
  • Digital transformation is driving so many changes in daily life and industry. The automobile industry is in a similar situation. In some cases, element techniques in areas called metabuses are also being adopted, such as 3D animated digital cockpit, around view, and voice AI, etc. Through the growth of the mobile market, the norm of human-computer interaction (HCI) has been evolving from keyboard-mouse interaction to touch screen. The core area was the graphical user interface (GUI), and recently, the audio user interface (AUI) has partially replaced the GUI. Since it is easy to access and intuitive to the user, it is quickly becoming a common area of the in-vehicle experience (IVE), especially. The benefits of a AUI are freeing the driver's eyes and hands, using fewer screens, lower interaction costs, more emotional and personal, effective for people with low vision. Nevertheless, when and where to apply a GUI or AUI are actually different approaches because some information is easier to process as we see it. In other cases, there is potential that AUI is more suitable. This is a study on a proposal to actively apply a AUI in the near future based on the context of various scenes occurring to improve IVE.

클라우드 방송 서비스 플랫폼 (Cloud Broadcasting Service Platform)

  • 김홍익;이동익;이종한
    • 한국통신학회논문지
    • /
    • 제42권3호
    • /
    • pp.623-638
    • /
    • 2017
  • 클라우드(Cloud) 기술이 적용되는 영역은 기술의 발전과 서비스의 다양화로 점차 확대되고 있다. 방송 플랫폼에도 투자 효율화, 운영 효율화, 서비스 경쟁력 확보 등의 측면에서 클라우드 기술이 도입되고 있다. 최근 국내에서는 클라우드 방송 플랫폼이 UI와 서비스에 도입되면서 서비스 경쟁이 가속화 되고 있다. 클라우드 방송 기술은 단말기의 자원과 소프트웨어 구조에 종속성 없이 서비스를 제공하고, 단말기 별로 분리되어 관리되고 있던 UI와 서비스를 서버기반으로 통합하여 운영될 수 있도록 한다. 논문에서는 클라우드 방송 플랫폼에 대해서 설명하고 적용 효과에 대해서 설명한다.

컴퓨터비전에 기반한 효율적인 프리젠테이션 슬라이드 제어 (Computer Vision Based Efficient Control of Presentation Slides)

  • 박정우;석민수;이준호
    • 전자공학회논문지CI
    • /
    • 제40권4호
    • /
    • pp.232-239
    • /
    • 2003
  • 본 연구에서는 컴퓨터 비전 기술을 응용하여 프리젠테이션시에 슬라이드의 내용을 설명하기 위해 사용되는 일반 레이저 포인터로 슬라이드 쇼를 효율적으로 제어하는 실제 시스템을 제안하고 구현하였다. 슬라이드 상에 레이저 포인터로 포인팅 할 가상 버튼 영역을 설정하여 카메라에서 보이는 슬라이드의 가상 버튼 영역에서 레이저 포인터를 검출함으로써 슬라이드 쇼 제어 명령을 수행한다. 따라서 발표자가 슬라이드 쇼를 제어하기 위해 키보드나 마우스 주변에 머물거나 다른 사람의 도움을 받을 필요가 없다. 본 연구에서는 사용자가 처음에 카메라에서 보이는 슬라이드의 모양에 대한 정보를 입력하는 복잡한 캘리브레이션 과정 없이 실시간으로 가상 버튼 영역을 계산하는 방법을 제안하였다. 또한, 가상 버튼 영역에 속하는 픽셀들의 컬러 정보 획득을 위해 해당 픽셀들의 좌표들을 동적 큐를 생성하여 저장 사용함으로써 계산의 복잡도를 낮추었다. 현재 구현된 시스템은 마이크로소프트사의 파워포인트를 기반으로 이루어졌으나, 이와 유사한 다른 프리젠테이션 소프트웨어에도 쉽게 적용이 가능하다. 이와 같은 인간 중심의 발표 시스템 하에서, 발표자는 기존의 슬라이드를 제어하기 위한 공간적인 제약에서 벗어나 편리하고 효율적으로 청중에게 내용 전달을 할 수 있다.