• 제목/요약/키워드: Gesture Interface

검색결과 231건 처리시간 0.037초

쇼핑 서비스 지원 로봇 개발을 위한 실체적인 Human Robot Interface 디자인 개발에 관한 연구 (A Study on the Practical Human Robot Interface Design for the Development of Shopping Service Support Robot)

  • 홍성수;허성철;김억;장영주
    • 디자인학연구
    • /
    • 제19권4호
    • /
    • pp.81-90
    • /
    • 2006
  • 로봇디자인은 로봇이라는 첨단기술의 결정체와 인간을 연결하는 인터페이스 역할을 한다. 실용화 로봇기술의 성숙기에 접어들고 있는 현재 로봇에 대한 커다란 시장이 형성될 시점에서는 더욱 로봇디자인이 중요하게 될 것이다. 로봇이 인간과 같은 환경에서 살아가기 위해서는 인간 친화적인 인터페이스 디자인 기술과 기존의 로봇개념과는 다른 상호작용(interaction)을 고려한 로봇디자인이 개발되어져야 한다. 본 연구는 사례 연구 형식으로 쇼핑서비스지원 로봇을 대상으로 필요기능을 도출하고, HRI 디자인 요소에 대한 설계를 전개했다. 그리고 쇼핑서비스지원 로봇 디자인을 전개하였다. 특히, 제스처(Gesture), 표정(Expression), 사운드(Sound)의 HRI 디자인 요소 구성을 쇼핑서비스 로봇에 적용하여 구체적인 결과를 도출하였다. HRI 디자인에 대한 유효성 검증을 위해서 모션캡처, 애니메이션, 뇌파, 사운드 등이 통합된 인간과 로봇과의 구체적인 인터랙션을 제시하였다.

  • PDF

A New Eye Tracking Method as a Smartphone Interface

  • Lee, Eui Chul;Park, Min Woo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권4호
    • /
    • pp.834-848
    • /
    • 2013
  • To effectively use these functions many kinds of human-phone interface are used such as touch, voice, and gesture. However, the most important touch interface cannot be used in case of hand disabled person or busy both hands. Although eye tracking is a superb human-computer interface method, it has not been applied to smartphones because of the small screen size, the frequently changing geometric position between the user's face and phone screen, and the low resolution of the frontal cameras. In this paper, a new eye tracking method is proposed to act as a smartphone user interface. To maximize eye image resolution, a zoom lens and three infrared LEDs are adopted. Our proposed method has following novelties. Firstly, appropriate camera specification and image resolution are analyzed in order to smartphone based gaze tracking method. Secondly, facial movement is allowable in case of one eye region is included in image. Thirdly, the proposed method can be operated in case of both landscape and portrait screen modes. Fourthly, only two LED reflective positions are used in order to calculate gaze position on the basis of 2D geometric relation between reflective rectangle and screen. Fifthly, a prototype mock-up design module is made in order to confirm feasibility for applying to actual smart-phone. Experimental results showed that the gaze estimation error was about 31 pixels at a screen resolution of $480{\times}800$ and the average hit ratio of a $5{\times}4$ icon grid was 94.6%.

서비스 로봇을 위한 감성인터페이스 기술 (Emotional Interface Technologies for Service Robot)

  • 양현승;서용호;정일웅;한태우;노동현
    • 로봇학회논문지
    • /
    • 제1권1호
    • /
    • pp.58-65
    • /
    • 2006
  • The emotional interface is essential technology for the robot to provide the proper service to the user. In this research, we developed emotional components for the service robot such as a neural network based facial expression recognizer, emotion expression technologies based on 3D graphical face expression and joints movements, considering a user's reaction, behavior selection technology for emotion expression. We used our humanoid robots, AMI and AMIET as the test-beds of our emotional interface. We researched on the emotional interaction between a service robot and a user by integrating the developed technologies. Emotional interface technology for the service robot, enhance the performance of friendly interaction to the service robot, to increase the diversity of the service and the value-added of the robot for human. and it elevates the market growth and also contribute to the popularization of the robot. The emotional interface technology can enhance the performance of friendly interaction of the service robot. This technology can also increase the diversity of the service and the value-added of the robot for human. and it can elevate the market growth and also contribute to the popularization of the robot.

  • PDF

3 차원 오브젝트 직접조작을 위한 데이터 글러브 기반의 멀티모달 인터페이스 설계 (Design of dataglove based multimodal interface for 3D object manipulation in virtual environment)

  • 임미정;박범
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.1011-1018
    • /
    • 2006
  • 멀티모달 인터페이스는 인간의 제스처, 시선, 손의 움직임, 행동의 패턴, 음성, 물리적인 위치 등 인간의 자연스러운 행동들에 대한 정보를 해석하고 부호화하는 인지기반 기술이다. 본 논문에서는 제스처와 음성, 터치를 이용한 3D 오브젝트 기반의 멀티모달 인터페이스를 설계, 구현한다. 서비스 도메인은 스마트 홈이며 사용자는 3D 오브젝트 직접조작을 통해 원격으로 가정의 오브젝트들을 모니터링하고 제어할 수 있다. 멀티모달 인터랙션 입출력 과정에서는 여러 개의 모달리티를 병렬적으로 인지하고 처리해야 하기 때문에 입출력 과정에서 각 모달리티의 조합과 부호화 방법, 입출력 형식 등이 문제시된다. 본 연구에서는 모달리티들의 특징과 인간의 인지구조 분석을 바탕으로 제스처, 음성, 터치 모달리티 간의 입력조합방식을 제시하고 멀티모달을 이용한 효율적인 3D Object 인터랙션 프로토타입을 설계한다.

  • PDF

외부 환경에 강인한 딥러닝 기반 손 제스처 인식 (A Deep Learning-based Hand Gesture Recognition Robust to External Environments)

  • 오동한;이병희;김태영
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제14권5호
    • /
    • pp.31-39
    • /
    • 2018
  • 최근 딥러닝을 기반으로 사용자의 손 제스처를 인식하여 가상현실 환경에서 사용자 친화적 인터페이스를 제공하기 위한 연구가 활발히 진행되고 있다. 그러나 대부분 연구들은 손 정보를 얻기 위하여 별도 센서를 사용하거나 효율적인 학습을 위하여 전처리 과정을 거친다. 또한 조명의 변화나 손 일부가 가려지는 등과 같은 외부환경의 변화를 고려하지 못하고 있다. 본 논문은 일반 웹캠에서 얻어진 RGB 영상에서 별도의 전처리 과정없이 외부 환경에 강인한 딥러닝 기반 손 제스처 인식 방법을 제안한다. 딥러닝 모델로 VGGNet과 GoogLeNet 구조를 개선하고, 각 구조의 성능을 비교한다. 조명이 어둡거나 손 일부가 가려지거나 시야에서 일부 벗어난 손 영상들이 포함된 데이터로 실험한 결과 본 연구에서 제시한 VGGNet과 GoogLeNet 구조는 각각 93.88%와 93.75%의 인식률을 보였고 메모리와 속도 측면에서 GoogLeNet이 VGGNet 보다 메모리를 약 3배 적게 사용하면서 처리속도는 10배 이상 우수함을 알 수 있었다. 본 연구의 결과는 실시간 처리가 가능하여 가상현실 환경에서 게임, 교육, 의료 등 다양한 분야에서 손 제스처 인터페이스로 활용될 수 있다.

마커 및 제스처 상호작용이 가능한 증강현실 저작도구 (Augmented Reality Authoring Tool with Marker & Gesture Interactive Features)

  • 심진욱;공민제;김하영;채승호;정경호;서종훈;한탁돈
    • 한국멀티미디어학회논문지
    • /
    • 제16권6호
    • /
    • pp.720-734
    • /
    • 2013
  • 본 논문에서는 사용자들이 손쉽게 마커기반과 제스처 상호작용 방법들을 적용한 증강현실 콘텐츠를 제작할 수 있는 증강현실 저작도구 시스템을 제안한다. 기존의 증강현실 저작도구들은 가상의 객체를 증강하는데 초점이 맞춰져 있었고, 이러한 증강현실 콘텐츠와 상호작용을 하기 위해서는 사용자가 마커나 센서를 이용하는 방법을 사용하였다. 우리는 이러한 제한적인 상호작용 방법의 문제점을 마커기반 상호작용 방법과 깊이 인식 카메라인 Kinect를 사용한 제스처 상호작용 방법을 적용시킴으로써 해결하고자 한다. 제안하는 시스템에서는 사용자가 인터페이스를 통하여 간단한 형태의 마커기반 증강현실 콘텐츠를 쉽게 제작할 수 있다. 또한, 능동적으로 사용자가 증강현실 콘텐츠와 상호작용할 수 있는 방법들을 제공하고 있다. 본 연구에서 제공하는 상호작용 방법으로는 마커기반의 상호작용 방법으로 2개의 마커를 이용한 방법과 마커의 가림현상(Occlusion)을 이용한 방법이 있다. 그리고 사용자의 맨손을 인식, 추적하여 객체의 확대 축소, 이동, 회전이 가능한 제스처 상호작용 방법을 제공한다. 저작도구 시스템에 대한 사용성 평가와 마커 및 제스처 상호작용에 대한 사용성을 비교평가하여, 본 연구의 긍정적 결과를 확인하였다.

피지컬 인터페이스의 구현에 관한 연구

  • 오병근
    • 디자인학연구
    • /
    • 제16권2호
    • /
    • pp.131-140
    • /
    • 2003
  • 컴퓨터를 이용한 인터랙션 디자인에 있어서 일반적인 입력방식은 키보드나 마우스를 이용하여 사용자가 모니터를 통해 인터페이스를 조작하는 제한적 형태이다. 그러나 이것은 기존의 전기나 전자의 기초기술을 활용하여 다른 형식의 입력방법을 창작하고 구현하여 인터랙션 디자인의 영역을 넓힐 수 있다. 최근 컴퓨터나 영상매체를 이용한 미디어 예술표현도 다양한 방식으로 제공되는 인터페이스를 사용자가 직접 참여하여 작동해야 예술적 표현이 완성되는 형식이 선보이고 있다. 피지컬 인터페이스를 이용한 인터랙션 디자인도 사용자가 작동하는 인터페이스로부터의 신호를 디지털이나 아날로그 형식으로 구분하고 컴퓨터에 입력하거나 출력하므로써 이를 활용할 수 있다. 이 때 인터페이스의 신호는 컴퓨터가 안전하게 받아들 일 수 있는 형식이 필요하므로 이를 위한 전기적 회로장치 구현이 필요하다. 인터페이스의 형식도 컴퓨터 키보드나 마우스 등의 기존 형태가 아닌 스위치나 센서, 카메라 등을 이용한 또 다른 물리적 형태의 창작물이 되는 것이다. 이러한 형태의 인터랙션 디자인은 인간이 원래부터 사용하는 언어와 몸짓을 이용한 인터랙션의 인간적(Humanity) 풍부함을 부여할 수 있는 디자인이라고 할 수 있다.

  • PDF

제스처 기반의 HTPC 인터페이스 (Gesture based MTPC Interface)

  • 권경수;김상호;장재식;김항준
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 가을 학술발표논문집 Vol.31 No.2 (2)
    • /
    • pp.715-717
    • /
    • 2004
  • 본 논문에서는 HTPC를 제어하기 위한 제스처 기반의 인터페이스를 제안한다. 제안된 인터페이스를 이용하여 사용자는 HTPC와 떨어진 장소에서 쉽게 HTPC를 제어할 수 있다. 제스처를 인식하기 위해 인터페이스는 실시간 연속 영상으로부터 사용자의 손을 검출하고, 손의 움직임, 모양, 위치 정보를 추출한다. 사용자의 제스처를 인식하기 위해 추출된 정보와 HMMs 을 사용한다. 실험 결과는 제안한 인터페이스가 멀티미디어 응용프로그램뿐만 아니라 다른 종류의 컴퓨터 응용프로그램에서 사용자와 HTPC간에 상호작용하여 접근할 수 있음을 보인다.

  • PDF

적외선 근접센서 기반 제스처 센싱기술 동향 (State-of-the-Art on Gesture Sensing Technology Based on Infrared Proximity Sensor)

  • 석정희;전영득;여준기
    • 전자통신동향분석
    • /
    • 제30권6호
    • /
    • pp.31-41
    • /
    • 2015
  • 사람은 User Interface(UI)를 통해 기기와 접촉하고 활용하며, 서비스를 제공받는다. 대부분의 입력 도구들은 사용자의 접촉을 필요로 하기 때문에 기기에 접촉이 불가능한 상황에서는 사용자의 의도를 기기에 전달하기 어렵다. 본고에서는 접촉 없이 사용자 입력을 가능하게 하는 기술 중 적외선 근접센서에 기반을 둔 제스처 센싱기술을 소개한다.

  • PDF

스마트폰 시장동향 - 적외선 근접센서 기반 제스처 센싱기술 동향 (State-of-the-Art on Gesture Sensing Technology Based on Infrared Proximity Sensor)

  • 석정희;전영득;여준기
    • 광학세계
    • /
    • 통권161호
    • /
    • pp.58-73
    • /
    • 2016
  • 사람은 User Interface(UI)를 통해 기기와 접촉하고, 활용하며 서비스를 제공받는다. 대부분의 입력 도구들은 사용자의 접촉을 필요로 하기 때문에 기기에 접촉이 불가능한 상황에서는 사용자의 의도를 기기에 전달하기 어렵다. 본고에서는 접촉 없이 사용자의 입력을 가능하게 하는 기술 중 적외선 근접센서에 기반을 둔 제스처 센싱기술을 소개한다.

  • PDF