• 제목/요약/키워드: 인간과 로봇의 상호작용

검색결과 169건 처리시간 0.038초

인간-로봇 상호작용을 위한 자세가 변하는 사용자 얼굴검출 및 얼굴요소 위치추정 (Face and Facial Feature Detection under Pose Variation of User Face for Human-Robot Interaction)

  • 박성기;박민용;이태근
    • 제어로봇시스템학회논문지
    • /
    • 제11권1호
    • /
    • pp.50-57
    • /
    • 2005
  • We present a simple and effective method of face and facial feature detection under pose variation of user face in complex background for the human-robot interaction. Our approach is a flexible method that can be performed in both color and gray facial image and is also feasible for detecting facial features in quasi real-time. Based on the characteristics of the intensity of neighborhood area of facial features, new directional template for facial feature is defined. From applying this template to input facial image, novel edge-like blob map (EBM) with multiple intensity strengths is constructed. Regardless of color information of input image, using this map and conditions for facial characteristics, we show that the locations of face and its features - i.e., two eyes and a mouth-can be successfully estimated. Without the information of facial area boundary, final candidate face region is determined by both obtained locations of facial features and weighted correlation values with standard facial templates. Experimental results from many color images and well-known gray level face database images authorize the usefulness of proposed algorithm.

EMG 신호 기반의 웨어러블 기기를 통한 화재감지 자율 주행 로봇 제어 (Autonomous Mobile Robot Control using the Wearable Devices Based on EMG Signal for detecting fire)

  • 김진우;이우영;유제훈;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제26권3호
    • /
    • pp.176-181
    • /
    • 2016
  • 본 논문은 EMG(Electromyogram) 신호 기반의 웨어러블 기기를 이용하여 화재 감지 자율 주행 로봇을 제어하는 시스템을 제안하였다. 사용자의 EMG 신호를 읽어내기 위한 기기로는 Myo armband를 이용하였다. EMG 신호의 데이터를 블루투스 통신을 이용하여 컴퓨터로 전송한 후 동작을 분류하였다. 그 후 다시 블루투스를 이용하여 분류한 데이터 값을 uBrain 로봇으로 전송해 로봇이 움직일 수 있도록 구현하였다. 로봇을 조종 가능한 명령으로는 직진, 우회전, 좌회전, 정지를 구성하였다. 또한 로봇이 사용자로부터의 블루투스 신호를 받아오지 못하거나 사용자가 주행모드 변경의 명령을 내리면 로봇이 자율 주행을 하도록 하였다. 로봇이 주변을 돌아다니면서 적외선 센서로 화재를 감지하면 LED를 깜빡여 로봇 주변의 상황을 확인할 수 있도록 하였다.

Mirror Neuron System 계산 모델을 이용한 모방학습 기반 인간-로봇 인터페이스에 관한 연구 (A Study on Human-Robot Interface based on Imitative Learning using Computational Model of Mirror Neuron System)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제23권6호
    • /
    • pp.565-570
    • /
    • 2013
  • 영장류 대뇌 피질 영역 중 거울 뉴런들이 분포한 것으로 추정되는 몇몇 영역은 목적성 행위에 대한 시각 정보를 기반으로 모방학습을 수행함으로써 관측 행동의 의도 인식 기능을 담당한다고 알려졌다. 본 논문은 이러한 거울 뉴런 영역을 모델링 하여 인간-로봇 상호작용 시스템에 적용함으로써, 자동화 된 의도인식 시스템을 개발하고자 한다. 거울 뉴런 시스템 계산 모델은 동적 신경망을 기반으로 구축하였으며, 모델의 입력은 객체와 행위자 동작에 대한 연속된 특징 벡터 집합이고 모델의 모방학습 및 추론과정을 통해 관측자가 수행할 수 있는 움직임 정보를 출력한다. 이를 위해 제한된 실험 공간 내에서 특정 객체와 그에 대한 행위자의 목적성 행동, 즉 의도에 대한 시나리오를 전제로 키넥트 센서를 통해 모델 입력 데이터를 수집하고 가상 로봇 시뮬레이션 환경에서 대응하는 움직임 정보를 계산하여 동작을 수행하는 프레임워크를 개발하였다.

상황 인지 방법을 이용한 지능형 제스처 인터페이스 (Intelligent Gesture Interface Using Context Awareness)

  • 오재용;이칠우
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.130-135
    • /
    • 2006
  • 본 논문에서는 상황 인지(Context Aware)를 이용한 제스처 인식 방법에 대하여 기술한다. 기존의 인식 방법들은 대부분 제스처의 개별적인 의미를 중심으로 제스처를 분류하는 방법을 사용한다. 그러나 이러한 방법들은 인식 알고리즘을 일반화하는데 있어서 다음과 같은 문제점들을 가지고 있다. 첫째, 인간의 모든 제스처를 제한된 특징으로 모호하지 않게 구별하기 어렵다. 둘째, 같은 제스처라 할지라도 상황에 따라 다른 의미를 내포할 수 있다. 이러한 문제점들을 해결하고자 본 논문에서는 확률 기반의 상황 인지 모델을 이용한 제스처 인식 방법을 제안한다. 이 방법은 제스처의 개별적인 의미를 인식하기 전에 대상의 상황을 추상적으로 분류함으로써 행위자의 의도를 정확히 파악할 수 있다. 본 방법은 시스템의 상태를 [NULL], [OBJECT], [POSTURE], [GLOBAL], [LOCAL]의 5 가지 상태로 정의한 뒤, 각 상태의 천이를 바탕으로 대상의 상황을 판단한다. 이러한 상황 정보에 따라 각 상태에 최적화된 인식 알고리즘을 적용함으로써 지능적인 제스처 인식을 수행할 수 있으며, 기존 방법들이 갖는 제스처 인식의 제약을 완화 시키는 효과가 있다. 따라서, 제안하는 제스처 인터페이스는 자연스러운 상호 작용이 필요한 지능형 정보 가전 혹은 지능형 로봇의 HCI 로 활용될 수 있을 것이다.

  • PDF

인간과의 안전한 상호 작용을 고려한 휴머노이드 조인트 모듈 개발 (Development of Humanoid Joint Module for Safe Human-Robot Interaction)

  • 오연택
    • 로봇학회논문지
    • /
    • 제9권4호
    • /
    • pp.264-271
    • /
    • 2014
  • In this study, we have developed the humanoid joint modules which provide a variety of service while living with people in the future home life. The most important requirement is ensuring the safety for humans of the robot system for collaboration with people and providing physical service in dynamic changing environment. Therefore we should construct the mechanism and control system that each joint of the robot should response sensitively and rapidly to fulfill that. In this study, we have analyzed the characteristic of the joint which based on the target constituting the humanoid motion, developed the optimal actuator system which can be controlled based on each joint characteristic, and developed the control system which can control an multi-joint system at a high speed. In particular, in the design of the joint, we have defined back-drivability at the safety perspective and developed an actuator unit to maximize. Therefore we establish a foundation element technology for future commercialization of intelligent service robots.

얼굴표정 인식 기법의 최신 연구 동향 (Recent Research Trends of Facial Expression Recognition)

  • 이민규;송병철
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 추계학술대회
    • /
    • pp.128-130
    • /
    • 2019
  • 최근 딥러닝의 급격한 발전과 함께 얼굴표정 인식(facial expression recognition) 기술이 상당한 진보를 이루었다. 얼굴표정 인식은 컴퓨터 비전 분야에서 지속적으로 관심을 받고 있으며, 인포테인먼트 시스템(Infotainment system), 인간-로봇 상호작용(human-robot interaction) 등 다양한 분야에서 활용되고 있다. 그럼에도 불구하고 얼굴표정 인식 분야는 학습 데이터의 부족, 얼굴 각도의 변화 또는 occlusion 등과 같은 많은 문제들이 존재한다. 본 논문은 얼굴표정 인식 분야에서의 위와 같은 고유한 문제들을 다룬 기술들을 포함하여 고전적인 기법부터 최신 기법에 대한 연구 동향을 제시한다.

  • PDF

SoC 기반 상황 인식 시스템 구조 (An SoC-based Context-Aware System Architecture)

  • 이건명;손봉기;김종태;이승욱;이지형;전재욱;조준동
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 춘계학술대회 학술발표 논문집 제14권 제1호
    • /
    • pp.487-490
    • /
    • 2004
  • 상황 인식(context-awrare)은 인간-컴퓨터 상호작용의 단점을 극복하기 위한 방법으로써 많은 주목을 받고 있다. 이 논문에서는 SoC(System-on-a-Chip)로 구현될 수 있는 상황 인식 시스템 구조를 제안한다. 제안한 구조는 센서 추상화, 컨텍스트 변경에 대한 통지 메커니즘, 모듈식 개발, if-then규칙을 이용한 쉬운 서비스 구성과 유연한 상황 인식 서비스 구현을 지원한다. 이 구조는 통신 모듈, 처리 모듈, 블랙보드를 포함하는 SoC 마이크로프로세서 부분과 규칙 기반 시스템 모듈을 구현한 하드웨어로 구성된다. 규칙 기반 시스템 하드웨어는 모든 규칙의 조건부에 대해 매칭 연산을 병렬로 수행하고, 규칙의 결론부는 마이크로프로세서에 내장된 행위 모듈을 호출함으로써 작업을 수행한다. 제안한 구조의 SoC 시스템은 SystemC SoC 개발 환경에서 설계되고, 성공적으로 테스트되었다. 제안한 SoC 기반의 상황 인식 시스템 구조는 주거 환경에서 컨텍스트를 인식하여 노인을 보조하는 지능형 이동 로봇 등에 적용될 수 있을 것으로 기대된다.

  • PDF

음성의 특정 주파수 범위를 이용한 잡음환경에서의 감정인식 (Noise Robust Emotion Recognition Feature : Frequency Range of Meaningful Signal)

  • 김은호;현경학;곽윤근
    • 한국정밀공학회지
    • /
    • 제23권5호
    • /
    • pp.68-76
    • /
    • 2006
  • The ability to recognize human emotion is one of the hallmarks of human-robot interaction. Hence this paper describes the realization of emotion recognition. For emotion recognition from voice, we propose a new feature called frequency range of meaningful signal. With this feature, we reached average recognition rate of 76% in speaker-dependent. From the experimental results, we confirm the usefulness of the proposed feature. We also define the noise environment and conduct the noise-environment test. In contrast to other features, the proposed feature is robust in a noise-environment.

오프라인 맞춤형 광고 제공을 위한 오픈소스 로봇 플랫폼 (Open-source robot platform providing offline personalized advertisements)

  • 김영기;류건희;황의송;이병호;유정기
    • 융합정보논문지
    • /
    • 제10권4호
    • /
    • pp.1-10
    • /
    • 2020
  • 오프라인 쇼핑몰은 온라인과 비교하여 고객들의 방문 정보를 얻기 어렵기 때문에 맞춤형 제품 추천 시스템의 수준이 온라인과 비교하면 빈약하다. 본 논문에서는 MS Azure의 Face API를 이용해 오프라인 쇼핑몰을 방문하는 고객들의 얼굴을 인식하여 얻은 성별과 나이 정보를 이용해 맞춤형 광고를 제공하는 이동형 로봇 플랫폼을 개발하였다. 개발한 로봇은 구동 실험을 통해 프로세스가 정상 동작하는 것을 보였고, 오픈 얼굴 데이터셋(AFAD)을 사용해 API의 성능을 검증하였다. 개발된 로봇은 오프라인 쇼핑몰의 방문 고객층을 실시간으로 파악하여 맞춤형 광고를 제공함으로써 효율적인 마케팅 효과를 기대할 수 있다.

인간의 비언어적 행동 특징을 이용한 다중 사용자의 상호작용 의도 분석 (Interaction Intent Analysis of Multiple Persons using Nonverbal Behavior Features)

  • 윤상석;김문상;최문택;송재복
    • 제어로봇시스템학회논문지
    • /
    • 제19권8호
    • /
    • pp.738-744
    • /
    • 2013
  • According to the cognitive science research, the interaction intent of humans can be estimated through an analysis of the representing behaviors. This paper proposes a novel methodology for reliable intention analysis of humans by applying this approach. To identify the intention, 8 behavioral features are extracted from the 4 characteristics in human-human interaction and we outline a set of core components for nonverbal behavior of humans. These nonverbal behaviors are associated with various recognition modules including multimodal sensors which have each modality with localizing sound source of the speaker in the audition part, recognizing frontal face and facial expression in the vision part, and estimating human trajectories, body pose and leaning, and hand gesture in the spatial part. As a post-processing step, temporal confidential reasoning is utilized to improve the recognition performance and integrated human model is utilized to quantitatively classify the intention from multi-dimensional cues by applying the weight factor. Thus, interactive robots can make informed engagement decision to effectively interact with multiple persons. Experimental results show that the proposed scheme works successfully between human users and a robot in human-robot interaction.