• Title/Summary/Keyword: 제스쳐

Search Result 87, Processing Time 0.028 seconds

Remote Control Interaction for Individual Environment of Smart TV (개별 사용자 환경을 위한 스마트TV 리모트컨트롤 인터랙션 방식 제안)

  • Shin, Yoo-Kyung;Choe, Jong-Hoon
    • The Journal of the Korea Contents Association
    • /
    • v.11 no.11
    • /
    • pp.70-78
    • /
    • 2011
  • Today cases of using individual service on community TV are increasing with the advent of smart TV. The traditional way for using individual service like e-mail or SNS on TV is not simple and puts in too much time because it has to type so many text using remote control that is unsuitable for typing. In this paper, interaction using cube remote control is proposed in order to facilitate individual service on TV. It is simple interaction like shaking and tapping instead of a complex interaction method. In addition, it is believed that the proposed simple interaction using cube interaction might be one of great alternatives for using individual service on smart TV.

Development of a Interactive Stereoscopic Image Display System using Invisible Interaction Surface Generation (비가시성 인터랙션 표면 생성을 통한 인터랙티브 입체영상 시연 시스템 개발)

  • Lee, Dong-Hoon;Yang, Hwang-Kyu
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.6 no.3
    • /
    • pp.371-379
    • /
    • 2011
  • In this paper, we propose a development methodology of interactive stereoscopic image display system. In our case, we consider a multiple touch recognition technique as the interaction method. That's because we want to guarantee multiple user access and interaction to the content without any restriction. In this case, however, some restrictions are occurred on account of the distance between display and participants. For this reason, this paper propose an invisible interaction surfaces which are generated in the air. This surface is utilized as interaction medium instead of the display wall. We also present an effective way to generate and edit interactive stereoscopic images based on Game Engine.

large-scale interactive display system using gesture recognition module (제스처 인식 모듈을 이용한 대규모 멀티 인터랙티브 디스플레이 시스템)

  • Kang, Maeng-Kwan;Kim, Jung-Hoon;Jo, Sung-Hyun;Joo, Woo-Suck;Yoon, Tae-Soo;Lee, Dong-Hoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.803-806
    • /
    • 2010
  • 본 논문에서는 스크린을 터치를 하지 않고 또한 스크린의 영역의 크기에 상관없이 제스처를 이용하여 인터랙션이 가능한 제스쳐 인식 모듈을 이용한 대규모 멀티 인터랙티브 디스플레이 시스템을 제안한다. IR laser를 이용하여 인터랙션 영역을 생성하고 band pass filter를 장착한 적외선 카메라를 이용하여 인터랙션 영역 안의 영상을 획득한다. 획득되어진 영상은 제안하는 영상처리모듈을 이용하여 이진화->블랍-라벨링 과정을 거쳐 잡음을 제거한 후 인터랙션 영역 안에서 이루어지는 인터랙션 좌표를 획득한 후 Packet으로 저장한다. 저장 된 Packet은 네트워크 통신 시스템을 이용하여 Server로 보내어지고 Server에서는 메타포분석모듈을 이용하여 분석하여 결과를 메타포이벤트로 저장한 후 콘텐츠에 보낸다. 콘텐츠에서는 받은 메타포이벤트에 따라서 콘텐츠 결과를 보여 줌으로써 스크린을 터치 하지 않아도 터치 인터랙션이 가능하며 스크린 영역에 제한 없이 많은 사용자가 동시에 사용이 가능한 시스템 사용이 가능하도록 한다. 본 시스템은 향후 보다 다양한 인터랙션과 시스템 크기의 확장으로 보다 많은 사용자가 동시에 사용가능하며 다양한 인터랙션을 사용할 수 있는 인식 디바이스로써 활용이 가능하다.

IoT Multi Control Platform by Finger Gesture and Voice Recognition (Finger Gesture와 Voice Recognition을 활용한 IoT 통합 제어 웹 플랫폼)

  • Jinhyeong Kang;Hanju Kim;Dong Ho Kim
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.11a
    • /
    • pp.236-239
    • /
    • 2022
  • 증강현실로 날씨, 뉴스 요약 등이 제공되거나 AI 비서 기능을 제공하는 스마트 미러(smart mirror)가 개발되고 있다. 본 작품에서는 IoT 통합제어, 뉴스 요약 및 날씨 정보 제공 등의 서비스를 하나의 웹 플랫폼으로 구축하고 이를 손가락 제스쳐 및 음성 명령으로 제어하는 것을 제안하고 구현하였다. 본 작품에서는 음성 인식을 통해 IoT 서비스를 직관적으로 이용할 수 있게끔 설계하여 사용자의 편의성을 높였으며, 디바이스를 직접 터치하는 방식이 아닌 finger gesture로 제어하는 방식을 채택해, 디바이스 유지 보수 및 위생 문제를 해결하였다. 단순 IoT 통합 제어 기능뿐만 아니라 다양한 컨텐츠 및 기능을 제공함으로써 통합 플랫폼의 기능을 수행할 수 있도록 하였다. 뉴스 홈페이지에서 Crawling한 뉴스를 text rank 알고리즘을 이용. 자동으로 요약하는 기능과, 사용자의 IP를 기반으로 위도와 경도를 추론, 해당 지역의 일기 예보 정보를 표현해 주는 등 단순 IoT 제어 플랫폼이 아닌, 통합 플랫폼의 기능을 다하도록 설계하였다. 이처럼 다양한 정보를 압축해서 사용자가 편하게 볼 수 있도록 제공하며, 직관적인 two track 제어 방식을 채택. 사용 대상의 편의성을 증대시켜 본 프로젝트는 기존 프로젝트보다 사용자에게 더 나은 사용 경험을 제공할 것이다.

  • PDF

A Study on Comparative Experiment of Hand-based Interface in Immersive Virtua Reality (몰입형 가상현실에서 손 기반 인터페이스의 비교 실험에 관한 연구)

  • Kim, Jinmo
    • Journal of the Korea Computer Graphics Society
    • /
    • v.25 no.2
    • /
    • pp.1-9
    • /
    • 2019
  • This study compares hand-based interfaces to improve a user's virtual reality (VR) presence by enhancing user immersion in VR interactions. To provide an immersive experience, in which users can more directly control the virtual environment and objects within that environment using their hands and, to simultaneously minimize the device burden on users using immersive VR systems, we designed two experimental interfaces (hand motion recognition sensor- and controller-based interactions). Hand motion recognition sensor-based interaction reflects accurate hand movements, direct gestures, and motion representations in the virtual environment, and it does not require using a device in addition to the VR head mounted display (HMD). Controller-based interaction designs a generalized interface that maps the gesture to the controller's key for easy access to the controller provided with the VR HMD. The comparative experiments in this study confirm the convenience and intuitiveness of VR interactions using the user's hand.

Development of Emotion Recognition and Expression module with Speech Signal for Entertainment Robot (엔터테인먼트 로봇을 위한 음성으로부터 감정 인식 및 표현 모듈 개발)

  • Mun, Byeong-Hyeon;Yang, Hyeon-Chang;Sim, Gwi-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.11a
    • /
    • pp.82-85
    • /
    • 2007
  • 현재 가정을 비롯한 여러 분야에서 서비스 로봇(청소 로봇, 애완용 로봇, 멀티미디어 로봇 둥)의 사용이 증가하고 있는 시장상황을 보이고 있다. 개인용 서비스 로봇은 인간 친화적 특성을 가져야 그 선호도가 높아질 수 있는데 이를 위해서 사용자의 감정 인식 및 표현 기술은 필수적인 요소이다. 사람들의 감정 인식을 위해 많은 연구자들은 음성, 사람의 얼굴 표정, 생체신호, 제스쳐를 통해서 사람들의 감정 인식을 하고 있다. 특히, 음성을 인식하고 적용하는 것에 관한 연구가 활발히 진행되고 있다. 본 논문은 감정 인식 시스템을 두 가지 방법으로 제안하였다. 현재 많이 개발 되어지고 있는 음성인식 모듈을 사용하여 단어별 감정을 분류하여 감정 표현 시스템에 적용하는 것과 마이크로폰을 통해 습득된 음성신호로부터 특정들을 검출하여 Bayesian Learning(BL)을 적용시켜 normal, happy, sad, surprise, anger 등 5가지의 감정 상태로 패턴 분류를 한 후 이것을 동적 감정 표현 알고리즘의 입력값으로 하여 dynamic emotion space에 사람의 감정을 표현할 수 있는 ARM 플랫폼 기반의 음성 인식 및 감정 표현 시스템 제안한 것이다.

  • PDF

A Joystick-driven Mouse Controlling Method using Hand Gestures (손 제스쳐를 이용한 조이스틱 방식의 마우스제어 방법)

  • Jung, Jin-Young;Kim, Jung-In
    • Journal of Korea Multimedia Society
    • /
    • v.19 no.1
    • /
    • pp.60-67
    • /
    • 2016
  • PC users have long been controlling their computers using input devices such as mouse and keyboard. To improve inconveniences of these devices, the method of screen-touching has widely been used these days, and devices recognizing human gestures are being developed one after another. Fox example, Kinect, developed and distributed by Microsoft, is a non-contact input device that recognizes human gestures through motion-recognizing sensors, thus replacing the mouse as an input device. However, when controlling the mouse on a large screen, it suffers from the problem of requiring large motions in order to move the mouse pointer to the edges of the screen. In this paper, we propose a joystick-driven mouse-controlling method which enables the user to move the mouse pointer to the corners of the screen with small motions. The experimental results show that movements of the user's palm within the range of 30 cm ensure movements of the mouse pointer to the edges of the screen.

Emotion Recognition Based on Human Gesture (인간의 제스쳐에 의한 감정 인식)

  • Song, Min-Kook;Park, Jin-Bae;Joo, Young-Hoon
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.17 no.1
    • /
    • pp.46-51
    • /
    • 2007
  • This paper is to present gesture analysis for human-robot interaction. Understanding human emotions through gesture is one of the necessary skills fo the computers to interact intelligently with their human counterparts. Gesture analysis is consisted of several processes such as detecting of hand, extracting feature, and recognizing emotions. For efficient operation we used recognizing a gesture with HMM(Hidden Markov Model). We constructed a large gesture database, with which we verified our method. As a result, our method is successfully included and operated in a mobile system.

Good Design 2016 (Awards 1 - 2016 우수디자인(Good Design) 선정품 - 포장부문-)

  • (사)한국포장협회
    • The monthly packaging world
    • /
    • s.285
    • /
    • pp.82-94
    • /
    • 2017
  • 2016년 우수디자인(GD)상품선정 시상식이 지난해 12월 14일코리아디자인센터 컨벤션홀에서 열렸다. '우수디자인(GD)상품선정제도'는 1985년부터 산업디자인진흥법 제6조에 의거하여 상품의 경제성, 사용성, 환경친화성, 심미성 등을 종합적으로 심사하여 디자인이 우수한 상품과 서비스에 GD마크를 부여하는 제도로, 산업통상자원부가 주최하고 한국디자인진흥원이 주관하고 있다. GD마크는 우수한 디자인 상품 개발을 장려하여 국가경쟁력을 확보하고 국민 삶의 질을 향상시키는 것을 목표로 선정하고 있다. 또한 창의 디자인강국 구현을 위해 세계적 인증가치를 구축하고, 유니버설디자인, 서비스디자인, 전통시장 산업단지 디자인을 고도화(우수디자인 선정 장려 등)함으로써 사회적 문제해결과 지속가능한 창조경제 실현에 그 의의가 있다. 올해 선정대상품목은 제품, 커뮤니케이션, 포장, 공간환경, 서비스 등의 부문에서 39개 항목으로 출품됐다. 포장 부문은 소비자제품, 식음료, 뷰티/헬스, 의료, 산업/B2B, 기타 포장 등 6개 항목으로 구성됐다. 올해 포장 부문에서는 플러긴스의 STONE JEJU CANDLE이 국무총리상을, 엘지전자(주)의 LG Sound 360 패키지가 산업통상자원부장관상을, 유씨엘(주)의 아꼬제, (주)퍼스트마켓의 코코스타 핸드모이스쳐 팩, (주)웰코스의 후르디아 크림이 조달청장상을, 일동홀딩스(주)의 그녀는 프로다, 삼성전자(주)의 삼성 모바일 액세서리 패키지 시리즈, 피치앤드의 피치앤드는 KIDP원장상을, (주)유니베라의 남양알로에 맥스피는 중소기업청장상 등을 수상했다. 다음에 우수디자인으로 선정된 포장부문 제품들을 살펴보도록 한다.

  • PDF

Design and Construction of 3D Gesture Database for Analyzing Human Behaviors (휴먼 행동 분석을 위한 3차원 제스처 데이터베이스의 설계 및 구축)

  • Roh M.-C.;Hwang B.-W.;Kim S.;Shin H.-K.;Park A-Y.;Lee S.-W.
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.895-897
    • /
    • 2005
  • 인간 행동 분석은 컴퓨터 비전 및 패턴인식 분야에서 활발하게 연구가 이루어지는 분야이다. 이러한 행동 분석하고 평가하기 위해서는 다양한 환경과 종류의 제스쳐를 포함하고 있는 데이터베이스의 구축이 필수적이다. 본 논문에서는 총 40명의 사람에 대하여 일상생활에서 일어날 수 있는 14개의 정상 제스처, 위급한 상황에서 발생할 수 있는 10개의 비정상 제스처 그리고 30개의 명령형 제스처를 수집한 KU(Korea University) 제스처 데이터베이스를 소개한다. 각각의 제스처는 스테레오 카메라를 통해 얻어진 2차원 제스처 동영상, 3차원 동작 카메라를 통해 얻어진 3차원 모델의 좌표 정보 그리고 2차원 실루엣 동영상을 포함하고 있다.

  • PDF