• 제목/요약/키워드: Interaction Gesture

검색결과 226건 처리시간 0.023초

Human-Computer Interaction Based Only on Auditory and Visual Information

  • Sha, Hui;Agah, Arvin
    • Transactions on Control, Automation and Systems Engineering
    • /
    • 제2권4호
    • /
    • pp.285-297
    • /
    • 2000
  • One of the research objectives in the area of multimedia human-computer interaction is the application of artificial intelligence and robotics technologies to the development of computer interfaces. This involves utilizing many forms of media, integrating speed input, natural language, graphics, hand pointing gestures, and other methods for interactive dialogues. Although current human-computer communication methods include computer keyboards, mice, and other traditional devices, the two basic ways by which people communicate with each other are voice and gesture. This paper reports on research focusing on the development of an intelligent multimedia interface system modeled based on the manner in which people communicate. This work explores the interaction between humans and computers based only on the processing of speech(Work uttered by the person) and processing of images(hand pointing gestures). The purpose of the interface is to control a pan/tilt camera to point it to a location specified by the user through utterance of words and pointing of the hand, The systems utilizes another stationary camera to capture images of the users hand and a microphone to capture the users words. Upon processing of the images and sounds, the systems responds by pointing the camera. Initially, the interface uses hand pointing to locate the general position which user is referring to and then the interface uses voice command provided by user to fine-the location, and change the zooming of the camera, if requested. The image of the location is captured by the pan/tilt camera and sent to a color TV monitor to be displayed. This type of system has applications in tele-conferencing and other rmote operations, where the system must respond to users command, in a manner similar to how the user would communicate with another person. The advantage of this approach is the elimination of the traditional input devices that the user must utilize in order to control a pan/tillt camera, replacing them with more "natural" means of interaction. A number of experiments were performed to evaluate the interface system with respect to its accuracy, efficiency, reliability, and limitation.

  • PDF

ITO 터치 패널 이용한 교시 제어 연구 (Development of Direct Teaching Control using ITO Touch Panel)

  • 윤재석;남상엽;김기은;김동한
    • 전자공학회논문지
    • /
    • 제52권3호
    • /
    • pp.206-212
    • /
    • 2015
  • 본 논문에서는 ITO 터치 패널 센서를 로봇의 피부로 이용하여 로봇 팔을 제어하는 물리적 인간-로봇 상호작용 방법을 제안한다. 사람과 로봇간의 물리적 상호작용을 구현하기 위해서는 힘/토크 센서를 사용하는 방법과 작은 소자 타입의 센서를 배치하여 만든 촉각 센서를 사용하는 방법이 연구되고 있다. 하지만, 이러한 센서들은 가격적인 측면이나 성능적인 측면에서 장단점이 존재하며, 본 연구에서는 터치 패널을 로봇의 피부로 사용하여 물리적 상호작용을 하는 방법을 제안하고 전체적인 시스템을 구축하여 실험을 통해 힘/토크 센서의 정확성과 소자 타입 센서의 경제성을 보이고자 한다. 실험은 터치 패널에서 기준점을 잡아 제스처를 생성하여 로봇 팔을 제어하는 방법과 엔드이펙터에 장착하여 로봇 팔을 제어하는 방법에 대해 진행하였다. 이러한 실험을 통해 터치 패널을 이용한 교시 제어의 가능성도 확인하였다.

손동작 인식을 통한 Human-Computer Interactio 구현 (Recognition of Hand gesture to Human-Computer Interaction)

  • 이래경;김성신
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2000년도 추계학술대회 학술발표 논문집
    • /
    • pp.344-348
    • /
    • 2000
  • 인간의 손동작 인식은 오랫동안 언어로서의 역할을 해왔던 통신수단의 한 방법이다. 현대의 사회가 정보화 사회로 진행됨에 따라 보다 빠르고 정확한 의사소통 및 정보의 전달을 필요로 하는 가운데 사람과 컴퓨터간의 상호 연결 혹은 사람의 의사 표현에 있어 기존의 장치들이 가지는 단점을 보안하며 이 부분에 사람의 두 손으로 표현되는 자유로운 몸짓을 이용하려는 연구가 최근에 많이 진행되고 있는 추세이다. 본 논문에선 2차원의 입력 영상으로부터 동적인 손동작의 인식을 위해 복잡하고 시간이 많이 소요되는 기존의 방법과는 다르게 부가적인 특별한 장치의 사용 없이 손의 특징을 이용한 새로운 인식 알고리즘을 제안하고, 보다 높은 인식률과 실 시간적 처리를 위해 Radial Basis Function Network 및 부가적인 특징점을 통한 손동작의 인식을 구현하였다. 또한 인식된 손동작의 의미를 바탕으로 인식률 및 손동작 표현의 의미성에 대한 정확도를 판별하기 위해 로봇의 제어에 적용한 실험을 수행하였다.

  • PDF

유비쿼터스 로봇과 휴먼 인터액션을 위한 제스쳐 추출 (Gesture Extraction for Ubiquitous Robot-Human Interaction)

  • 김문환;주영훈;박진배
    • 제어로봇시스템학회논문지
    • /
    • 제11권12호
    • /
    • pp.1062-1067
    • /
    • 2005
  • This paper discusses a skeleton feature extraction method for ubiquitous robot system. The skeleton features are used to analyze human motion and pose estimation. In different conventional feature extraction environment, the ubiquitous robot system requires more robust feature extraction method because it has internal vibration and low image quality. The new hybrid silhouette extraction method and adaptive skeleton model are proposed to overcome this constrained environment. The skin color is used to extract more sophisticated feature points. Finally, the experimental results show the superiority of the proposed method.

자연스러운 상호작용 시스템을 이용한 동작 기반 디스플레이 제어 (Gesture-Based Display Control Using Nature Interaction System)

  • 김성우;진문섭;엄태영;박종일
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2011년도 하계학술대회
    • /
    • pp.387-389
    • /
    • 2011
  • 본 논문에서는 원거리에서 디스플레이를 제어하는 인터페이스를 제안한다. 제안하는 인터페이스는 사용자의 얼굴과 손을 관심 영역으로 규정하고, 이를 추적하여 사용자의 특정 동작을 인터페이스 입력으로 사용한다. 사용자에게 익숙한 손 동작을 인터페이스 입력으로 제공하고, 추가적인 장비를 강요하지 않는 비전 기반의 상호작용 방법을 이용하기 때문에, 사용자는 별도의 훈련 과정 없이 편하게 디스플레이를 제어할 수 있다. 빠르고 정확하게 사용자의 손을 검출하기 위해서 적외선 영상과 컬러 영상을 혼합하는 다중 비전 기반 방법을 사용하며, 손가락 끝 검출을 통해서 손가락 동작을 인식 한다. 인식된 동작을 원거리 통신방법을 이용하여 실제 디스플레이에 적용하여 효용성을 검증 한다.

  • PDF

인터액티브 가상 환경을 위한 손 제스처 인식 시스템 (A Hand Gesture Recognition System for Interactive Virtual Environment)

  • 조오영;김형곤;고성제;안상철
    • 전자공학회논문지S
    • /
    • 제36S권4호
    • /
    • pp.70-82
    • /
    • 1999
  • 본 논문에서는 복잡한 영상에서 추출해낸 손 영역으로부터 제스처를 인식하여 인간과 컴퓨터의 상호작용(HCI, Human-Computer Interaction)을 위한 보다 자연스러운 인터페이스를 제공한다. 제안하는 방법은 정규화된 RGB 색상 공간에 정의한 피부색의 가우시안 분포를 이용해 조명의 변화나 개인의 차이에도 안정적으로 손 영역을 추출하며, 배경에 대한 상대적인 움직임을 이용해 복잡한 영상에서도 효과적으로 손 영역을 추출해 낸다. 추출된 손 영역은 RBF(Radial Basis Function) 신경망을 이용해 각 제스처로 인식된다. 가상 환경과의 상호작용을 제공하기 위해 두 종류의 기본적인 정적 제스처들을 정의하며 간단한 구문론적 규칙을 사용해 하나 이상의 인식 결과들을 조합함으로써 적은 수의 제스처들만으로 보다 효율적이고 다양한 상호작용이 가능하게 한다. 제안하는 시스템은 TM320C80 DSP 칩을 사용하여 구현되었으며 300×240 영상을 12Hz로 처리함으로써 빠른 속도로 가상 환경의 인터페이스를 제공한다.

  • PDF

제스처 인터렉션 지원을 위한 동적 사용자 특징 추출 (Moving Object Feature Extraction for the Gesture Interaction)

  • 이제성;최유주
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.909-914
    • /
    • 2007
  • 본 논문은 조명변화가 심한 주변환경에서 동적객체의 특징정보를 안정적으로 추출하는 기법을 제시한다. 제안기법에서는 우선 조명변화의 효과를 최소화 하기위해 HSI 컬러공간에서 색상(Hue) 강도 및 색상기울기에 대한 평균값과 표준편차 값으로 이루어진 배경모델을 생성한다. 실시간으로 입력되는 동적 객체를 포함한 연속영상에 대하여 각 화소에 대한 색상(Hue) 성분을 추출하고 이웃 화소와의 색상성분에 대한 기울기 크기를 계산한다. 이를 기구축된 배경모델과 비교하여 그 차분값이 일정 임계값을 초과하는 경우 동적 객체의 영역으로 판별한다. 마지막으로 모폴로지 연산을 수행하여 배경영상의 노이즈 영역을 제거한다. 본 논문에서는 기존 동적객체 추출기법과 제안기법을 핸드 트래킹과 전체 몸 움직임 추적의 비교실험을 통하여 제안 기법의 안정성을 보였다. 제안 기법은 극심한 조명변화에 강건하게 동적 객체의 영역정보를 실시간 추출하였다.

  • PDF

모바일 사용 행태에 따른 모바일 브라우저 UX (Mobile Browser UX Based on Mobile User Behavior)

  • 이태숙
    • 대한인간공학회지
    • /
    • 제29권4호
    • /
    • pp.547-551
    • /
    • 2010
  • In mobile browser two mental models coexist; one for mobile users and the other for PC users. In this research shows that users apply these two mental models simultaneously while they use mobile browsers. However cases where these two mental models conflict with each other, rapid deterioration of usability of the UX based on the mobile user's mental model was evident. Also usability of mobile user interfaces for use cases like "View Mode" or "Copy and Send Mode" were also poor, and the research shows that these "Modes" could be substituted by gesture interaction with which users were already familiar.

휴먼-로봇 상호작용을 위한 비전 기반3차원 손 제스처 인식 (Vision-based 3D Hand Gesture Recognition for Human-Robot Interaction)

  • 노명철;장혜민;강승연;이성환
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 가을 학술발표논문집 Vol.33 No.2 (B)
    • /
    • pp.421-425
    • /
    • 2006
  • 최근 들어서 휴머노이드 로봇을 비롯한 로봇에 대하여 관심이 증대되고 있다. 이에 따라, 외모를 닮은 로봇 뿐 만 아니라, 사람과 상호 작용을 할 수 있는 로봇 기술의 중요성이 부각되고 있다. 이러한 상호 작용을 위한 효율적이고, 가장 자연스러운 방법 중의 하나가 비전을 기반으로 한 제스처 인식이다. 제스처를 인식하는데 있어서 가장 중요한 것은 손의 모양과 움직임을 인식하는3차원 제스처 인식이다. 본 논문에서는 3차원 손 제스처를 인식하기 위하여3차원 손 모델 추정 방법과 명령형 제스처 인식 시스템을 소개하고, 수화, 지화 등으로의 확장성을 위한 프레임워크를 제안한다.

  • PDF

손의 외곽선 추출에 의한 실시간 제스처 인식 (Real-Time Gesture Recognition Using Boundary of Human Hands from Sequence Images)

  • 이인호;박찬종
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1999년도 추계학술대회 논문집
    • /
    • pp.438-442
    • /
    • 1999
  • 제스처 인식은 직관적일 뿐 아니라, 몇 가지의 기본 구성요소에 의하여 코드화(code)가 용이하여, 인간과 컴퓨터의 상호작용(HCI, Human-Computer Interaction)에 있어서 폭넓게 사용되고 있다. 본 논문에서는 손의 모양이나 크기와 같은 개인차 및 조명의 변화나 배율과 같은 입력환경의 영향을 최소화하여, 특별한 초기화 과정이나 모델의 준비과정 없이도 제스처를 인식할 수 있고, 적은 계산량으로 실시간 인식이 가능한 제스처 인식 시스템의 개발을 목표로 한다. 본 논문에서는 손에 부착하는 센서나 마커 없이, CCD 카메라에 의하여 입력된 컬러영상에서, 컬러정보 및 동작정보를 이용하여 손영역을 추출하고, 추출된 손의 경계선 정보를 이용하여 경계선-중심 거리 함수를 생성했다. 그리고, 손가락의 끝 부분에서는 경계선-중심 거리가 극대점을 이룬다는 원리를 이용하여 생성된 함수의 주파수를 분석하여 극대점을 구함으로써 각각의 손가락 끝 위치를 찾고, 손의 자세를 인식하여 제스처를 인식했다. 또한 본 논문에서 제안된 제스처 인식 방법은 PC상에서 구현되어 그 유용성과 실효성이 증명되었다.

  • PDF