• Title/Summary/Keyword: 비전기반 사용자 인터페이스

Search Result 39, Processing Time 0.025 seconds

Gesture-Based Display Control Using Nature Interaction System (자연스러운 상호작용 시스템을 이용한 동작 기반 디스플레이 제어)

  • Kim, Sung-Woo;Jin, Moon-Sup;Uhm, Tae Young;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.387-389
    • /
    • 2011
  • 본 논문에서는 원거리에서 디스플레이를 제어하는 인터페이스를 제안한다. 제안하는 인터페이스는 사용자의 얼굴과 손을 관심 영역으로 규정하고, 이를 추적하여 사용자의 특정 동작을 인터페이스 입력으로 사용한다. 사용자에게 익숙한 손 동작을 인터페이스 입력으로 제공하고, 추가적인 장비를 강요하지 않는 비전 기반의 상호작용 방법을 이용하기 때문에, 사용자는 별도의 훈련 과정 없이 편하게 디스플레이를 제어할 수 있다. 빠르고 정확하게 사용자의 손을 검출하기 위해서 적외선 영상과 컬러 영상을 혼합하는 다중 비전 기반 방법을 사용하며, 손가락 끝 검출을 통해서 손가락 동작을 인식 한다. 인식된 동작을 원거리 통신방법을 이용하여 실제 디스플레이에 적용하여 효용성을 검증 한다.

  • PDF

An Implementation of User Interface Using Vision-based Gesture Recognition (비전 기반 제스처 인식을 이용한 사용자 인터페이스 구현)

  • Ko, Min-Sam;Lee, Kwang-Hee;Kim, Chang-Woo;Ahn, Jun-Ho;Kim, In-Jung
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06c
    • /
    • pp.507-511
    • /
    • 2008
  • 컴퓨터 비전을 기반으로 한 영상처리 및 제스처인식 기술을 이용하여 편리하게 응용프로그램을 제어 할 수 있는 인터페이스를 구성하였다. 카메라로 얻어진 영상을 HSV 색상계로 변환 후 색상 정보를 이용하여 손 영역을 추출한다. 추출된 손 영역의 무게중심과 크기 변화를 추적하여 제스처를 인식한다. 인식한 제스처는 응용프로그램의 동작을 제어하거나 마우스의 입력을 대체하는데 사용된다. 이는 별도의 입력장치 없이 컴퓨터 비전 기술만으로 제스처를 인식하여 응용프로그램을 실행할 수 있어 자연스러우며 사용자 친화적인 인터페이스 환경을 제공한다.

  • PDF

Hand-Gesture-Based Augmented Reality Interface on Mobile Phone (휴대폰 상에서의 손 동작 기반 증강 현실 인터페이스)

  • Choi, Junyeong;Park, Hanhoon;Park, Jungsik;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.61-64
    • /
    • 2011
  • 본 논문은 휴대폰 상에서 손(손가락) 동작을 이용한 가상 정보(객체)와의 자연스러운 상호작용을 제공하는 비전 기반 인터페이스를 제안한다. 이 인터페이스는 사용자가 한 손에 휴대폰을 들고 휴대폰의 카메라를 통해서 다른 손의 손바닥을 바라보는 상황을 가정한다. 사용자의 손바닥 위에 가상 객체가 증강되고, 사용자는 자신의 손과 손가락의 움직임을 통해서 가상 객체와 상호작용 할 수 있다. 제안하는 인터페이스는 사용자에게 친숙한 손동작 기반으로 동작하며 추가적인 센서나 마커를 요구하지 않기 때문에, 사용자는 별도의 훈련 과정 없이 원하는 시간과 장소에서 자유롭게 가상 객체와 상호작용 할 수 있다. 일부 시간이 많이 걸리는 처리 과정을 모바일 환경에 맞도록 최적화, 고속화함으로써, 제안하는 인터페이스는 상용화된 휴대폰(Galaxy S2)에서 5fps 로 동작한다.

  • PDF

Vision-based Hand Shape Recognition for Two-handed Interaction (양손기반 상호작용을 위한 비전 기반 손 모양 인식 방법)

  • Han, Seiheui;Choi, Junyeong;Lee, Daesun;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2012.11a
    • /
    • pp.140-143
    • /
    • 2012
  • 사람간의 상호작용에서 손은 중요한 역할을 담당하고 있기 때문에, 사람과 컴퓨터 사이의 인터페이스에 관한 연구에서 역시 손을 이용한 자연스러운 상호작용은 중요한 화두 중 하나이다. 따라서 본 논문에서는 손 기반 인터페이스를 위한 손 모양 인식 방법을 제안한다. 제안하는 방법은 비전 기반의 방법을 이용하기 때문에 사용자의 몰입을 방해할 수 있는 마커 혹은 센서의 부착을 요구하지 않으며, 간단하지만 효과적인 방법을 사용함으로써 실시간 연산을 보장한다. 또한 사용자의 양 손을 추적하고 손의 모양을 인식함으로써, 보다 자연스러운 양손 기반의 상호작용을 제공한다.

  • PDF

Design and Evaluation of Motion-based Interface for Image Browsing in Mobile Devices (모바일 장치에서의 이미지 브라우징을 위한 동작 추적 기반 인터페이스의 설계 및 평가)

  • Yim, Sung-Hoon;Choi, Seung-Moon
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.40-44
    • /
    • 2009
  • In this paper, we evaluate the feasibility of a motion-based interaction for image browsing in the mobile device. We present the design of a motion-based interface and a navigation scheme. A designed interaction scheme was evaluated in a usability experiment alongside the conventional button-based interaction for image browsing. After enough training of user, the usability and the user task performance of the motion based interaction were significantly increased, approaching those of the button based interaction.

  • PDF

Interface of Interactive Contents using Vision-based Body Gesture Recognition (비전 기반 신체 제스처 인식을 이용한 상호작용 콘텐츠 인터페이스)

  • Park, Jae Wan;Song, Dae Hyun;Lee, Chil Woo
    • Smart Media Journal
    • /
    • v.1 no.2
    • /
    • pp.40-46
    • /
    • 2012
  • In this paper, we describe interactive contents which is used the result of the inputted interface recognizing vision-based body gesture. Because the content uses the imp which is the common culture as the subject in Asia, we can enjoy it with culture familiarity. And also since the player can use their own gesture to fight with the imp in the game, they are naturally absorbed in the game. And the users can choose the multiple endings of the contents in the end of the scenario. In the part of the gesture recognition, KINECT is used to obtain the three-dimensional coordinates of each joint of the limb to capture the static pose of the actions. The vision-based 3D human pose recognition technology is used to method for convey human gesture in HCI(Human-Computer Interaction). 2D pose model based recognition method recognizes simple 2D human pose in particular environment On the other hand, 3D pose model which describes 3D human body skeletal structure can recognize more complex 3D pose than 2D pose model in because it can use joint angle and shape information of body part Because gestures can be presented through sequential static poses, we recognize the gestures which are configured poses by using HMM In this paper, we describe the interactive content which is used as input interface by using gesture recognition result. So, we can control the contents using only user's gestures naturally. And we intended to improve the immersion and the interest by using the imp who is used real-time interaction with user.

  • PDF

Vision based 3D Hand Interface Using Virtual Two-View Method (가상 양시점화 방법을 이용한 비전기반 3차원 손 인터페이스)

  • Bae, Dong-Hee;Kim, Jin-Mo
    • Journal of Korea Game Society
    • /
    • v.13 no.5
    • /
    • pp.43-54
    • /
    • 2013
  • With the consistent development of the 3D application technique, visuals are available at more realistic quality and are utilized in many applications like game. In particular, interacting with 3D objects in virtual environments, 3D graphics have led to a substantial development in the augmented reality. This study proposes a 3D user interface to control objects in 3D space through virtual two-view method using only one camera. To do so, homography matrix including transformation information between arbitrary two positions of camera is calculated and 3D coordinates are reconstructed by employing the 2D hand coordinates derived from the single camera, homography matrix and projection matrix of camera. This method will result in more accurate and quick 3D information. This approach may be advantageous with respect to the reduced amount of calculation needed for using one camera rather than two and may be effective at the same time for real-time processes while it is economically efficient.

Vision-Based User Interface for HomeNetwork Environment (홈네트워크 환경에서의 비전기반 사용자 인터페이스)

  • 이정민;박종일;박종진;김영만
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10b
    • /
    • pp.451-453
    • /
    • 2003
  • 인터넷과 네트워크의 발달로 유.무선네트워크를 통해 댁내의 가전기기가 연결되고 외부접속을 통한 원격제어가 가능해지는 홈네트워크[5]가 여러 가전기기들의 제품특성에 맞게 각기 적용되고 있다. 하지만 이들 가전기기의 사용을 위해 제공되는 홈네트워크의 사용자를 위한 인터페이스[1]를 살펴보면 몇 가지 사용상의 제한을 가지고있다. 첫째, 댁내에 동일제품이지만 여러 대의 제품이 설치된 환경에서 특정제품 이용시 검색의 단계를 거처야 한다. 둘째, 다수사용자 환경에서 개인별 차별기능을 제공하지 못한다. 셋째, 실제제품과 화면상의 제품간 차이로 인해 현실감이 부족하다. 본 논문에서는 Object를 인식하고 위치를 파악하며 실제Object에 가상효과를 더할 수 있는 증강현실[2]을 적용하여 개선안을 제시한다.

  • PDF

멀티 터치 인터페이스를 위한 FTIR 방식의 MTS 시스템 구축

  • Go, Yeong-Il;Lee, Sang-Jun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.775-778
    • /
    • 2010
  • 최근 인간과 컴퓨터간의 상호작용을 위한 사용자 의도 및 행위 인식에 관한 비전 기반 연구가 진행됨에 따를 이를 조작하기 위한 다양한 형태의 터치 인터페이스도 제안되고 있다. 본 논문에서는 다양한 형태의 터치 인터페이스의 유용성 및 효율성을 검중하기 위하여 FTIR 방식의 멀티 터치 인터페이스(MTS)를 구현하고 검증하였다.

Vision based Fast Hand Motion Recognition Method for an Untouchable User Interface of Smart Devices (스마트 기기의 비 접촉 사용자 인터페이스를 위한 비전 기반 고속 손동작 인식 기법)

  • Park, Jae Byung
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.49 no.9
    • /
    • pp.300-306
    • /
    • 2012
  • In this paper, we propose a vision based hand motion recognition method for an untouchable user interface of smart devices. First, an original color image is converted into a gray scaled image and its spacial resolution is reduced, taking the small memory and low computational power of smart devices into consideration. For robust recognition of hand motions through separation of horizontal and vertical motions, the horizontal principal area (HPA) and the vertical principal area (VPA) are defined respectively. From the difference images of the consecutively obtained images, the center of gravity (CoG) of the significantly changed pixels caused by hand motions is obtained, and the direction of hand motion is detected by defining the least mean squared line for the CoG in time. For verifying the feasibility of the proposed method, the experiments are carried out with a vision system.