• 제목/요약/키워드: Human-robot interaction

검색결과 342건 처리시간 0.024초

자가 변위 측정이 가능한 전기-유압식 소프트 지핑 구동기의 개발 (Development of an Electro-hydraulic Soft Zipping Actuator with Self-sensing Mechanism)

  • 이동영;곽보건;배준범
    • 로봇학회논문지
    • /
    • 제16권2호
    • /
    • pp.79-85
    • /
    • 2021
  • Soft fluidic actuators (SFAs) are widely utilized in various areas such as wearable systems due to the inherent compliance which allows safe and flexible interaction. However, SFA-driven systems generally require a large pump, multiple valves and tubes, which hinders to develop a miniaturized system with small range of motion. Thus, a highly integrated soft actuator needs to be developed for implementing a compact SFA-driven system. In this study, we propose an electro-hydraulic soft zipping actuator that can be used as a miniature pump. This actuator exerts tactile force as a dielectric liquid contained inside the actuator pressurized its deformable part. In addition, the proposed actuator can estimate the internal dielectric liquid thickness by using its self-sensing function. Besides, the electrical characteristics and driving performance of the proposed system were verified through experiments.

가정환경에서의 분류된 지역정보를 통한 계층적 시맨틱 지도 작성 (Building of a Hierarchical Semantic Map with Classified Area Information in Home Environments)

  • 박중태;송재복
    • 로봇학회논문지
    • /
    • 제7권4호
    • /
    • pp.252-258
    • /
    • 2012
  • This paper describes hierarchical semantic map building using the classified area information in home environments. The hierarchical semantic map consists of a grid, CAIG (Classified Area Information in Grid), and topological map. The grid and CAIG maps are used for navigation and motion selection, respectively. The topological map provides the intuitive information on the environment, which can be used for the communication between robots and users. The proposed semantic map building algorithm can greatly improve the capabilities of a mobile robot in various domains, including localization, path-planning and HRI (Human-Robot Interaction). In the home environment, a door can be used to divide an area into various sections, such as a room, a kitchen, and so on. Therefore, we used not only the grid map of the home environment, but also the door information as a main clue to classify the area and to build the hierarchical semantic map. The proposed method was verified through various experiments and it was found that the algorithm guarantees autonomous map building in the home environment.

무용작품을 통해 본 인간의 기계화, 기계의 인간화 그리고 공존 (Mechanization of humans, humanization of machines, and coexistence through dance works)

  • 장소정
    • 문화기술의 융합
    • /
    • 제7권1호
    • /
    • pp.145-150
    • /
    • 2021
  • 본 논문은 무용작품을 통해 인간의 기계화와 기계의 인간화 그리고 공존된 형태를 살펴보고자 하였다. 무용작품은 오스카슐레머의 <3화음 발레>와 펠린드롬 댄스컴퍼니의 작품 를 부분 발췌하여 살펴보았다. 또한 공존의 형태가 내재되어 있는 무용작품 을 살펴보았다. 위의 작품을 통해 로봇과 같은 과학기술과 융. 복합형태로 공존하는 다양한 무용공연이 인간에게 지속적인 창의력을 제공하고, 데이터를 토대로 한 다양한 형태의 감성과 독창적인 움직임이 인간에게 풍성한 공연을 제작가능하게 함을 알 수 있었다. 본 연구자는 과학기술을 내포한 무용공연이 구체화 된 상호 작용 통해 시대변화를 수용하고 반영하는 수많은 작품이 나오길 기대한다.

공연로봇을 위한 인간자세 추정방법 개선에 관한 연구 (A Study on Improvement of the Human Posture Estimation Method for Performing Robots)

  • 박천유;박재훈;한재권
    • 방송공학회논문지
    • /
    • 제25권5호
    • /
    • pp.750-757
    • /
    • 2020
  • 공연에 사용하는 로봇이 인간과의 상호작용하기 위한 기본 성능 중 하나는 인간의 행동을 빠르고 정확하게 파악하는 것이다. 따라서 로봇이 인간의 자세를 추정할 때 자세 인식의 정확도를 높임과 동시에 가능한 빠른 속도로 인식할 수 있어야 한다. 그러나 현재 인공지능 기술의 대표적인 방식인 딥 러닝을 사용하여 인간의 자세를 추정할 경우, 인식의 정확도와 속도라는 두 가지 성능을 동시에 만족하지 못하고 있다. 따라서 사용 목적에 따라 추론정확도가 높은 하향식 자세추정과 처리속도가 빠른 상향식 자세추정 중 하나를 선택해서 사용하는 것이 일반적이다. 본 논문에서는 앞서 언급한 두 가지 방식이 가진 장점을 모두 포함하면서 단점을 보완한 두 가지 방식을 제안한다. 첫 번째는 다중 그래픽 처리 장치를 활용해 상향식 자세추정과 물체검출을 병렬로 사용하는 방식이고, 두 번째는 상향식 자세추정과 단항분류를 융합하는 방식이다. 실험을 통해 두 가지 방식 모두 속도가 개선됨을 증명했다. 공연로봇에 이 두 가지 방식 중 하나를 사용한다면, 관객과 신뢰도 높으며 보다 빠른 상호작용을 수행할 수 있을 것으로 기대된다.

인간과 감정적 상호작용을 위한 '감정 엔진' (Engine of computational Emotion model for emotional interaction with human)

  • 이연곤
    • 감성과학
    • /
    • 제15권4호
    • /
    • pp.503-516
    • /
    • 2012
  • 지금까지 로봇 및 소프트웨어 에이전트들을 살펴보면, 감정 모델이 내부에 종속적으로 존재하기 때문에 감정모델만을 별도로 분리해 새로운 시스템에 재활용하기란 쉽지 않다. 따라서 어떤 로봇 및 에이전트와 연동될 수 있는 Engine of computational Emotion model (이하 EE로 표시한다)을 소개한다. 이 EE는 어떤 입력 정보에도 치중되지 않고, 어떤 로봇 및 에이전트의 내부와도 연동되도록 독립적으로 감정을 담당하기 위해, 입력 단계인 인식과 출력 단계인 표현을 배제하고, 순수하게 감정의 생성 및 처리를 담당하는 중간 단계인 감정 발생만을 분리하여, '입력단 및 출력단과 독립적인 소프트웨어 형태, 즉 엔진(Engine)'으로 존재한다. 이 EE는 어떤 입력단 및 출력단과 상호작용이 가능하며, 자체 감정뿐 아니라 상대방의 감정을 사용하며, 성격을 활용하여 종합적인 감정을 산출해낸다. 또한 이 EE는 로봇 및 에이전트의 내부에 라이브러리 형태로 존재하거나, 별도의 시스템으로 존재하여 통신할 수 있는 구조로 활용될 수 있다. 감정은 Joy(기쁨), Surprise(놀람), Disgust(혐오), Fear(공포), Sadness(슬픔), Anger(분노)의 기본 감정을 사용하며, 문자열과 계수를 쌍으로 갖는 정보를 EE는 입력 인터페이스를 통해 입력 신호로 받고, 출력 인터페이스를 통해 출력 신호로 내보낸다. EE는 내부에 감정마다 감정경험의 연결 목록을 가지고 있으며, 이의 계수의 쌍으로 구성된 정보를 감정의 생성 및 처리하기 위한 감정상태 목록으로 사용한다. 이 감정경험 목록은 '인간이 실생활에서 경험하는 다양한 감정에 대한 이해를 도모'하는 감정표현어휘로 구성되어 있다. EE는 인간의 감정을 탐색하여 적절한 반응을 나타내주는 상호작용 제품에 이용 가능할 것이다. 본 연구는 제품이 '인간을 공감하고 있음'을 인간이 느낄 수 있도록 유도하는 시스템을 만들고자 함이므로, HRI(인간-로봇 상호작용)나 HCI(인간-컴퓨터 상호작용)와 관련 제품이 효율적인 감정적 공감 서비스를 제공하는데 도움이 될 수 있을 것으로 기대한다.

  • PDF

사물인터넷 구축을 위한 스마트폰을 이용한 이동로봇의 제어 (Mobile Robot Control using Smart Phone for internet of Things)

  • 유제훈;안성인;이성원;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제26권5호
    • /
    • pp.396-401
    • /
    • 2016
  • 사물인터넷이 발전함에 따라 다양한 분야에서 적용될 수 있는 제품들이 개발되고 있고, 여러 연구들이 진행되고 있다. 사물인터넷의 여러 분야 중 스마트 홈은 실생활과 밀접하기 때문에 다른 분야보다 주목받고 있다. 자율이동로봇 또한 산업과 군사, 가정 등에서 적용되어 여러 역할을 수행하고 있다. 본 논문에서는 자율이동로봇과 사물인터넷을 결합하여 Smart housekeeping 로봇을 구현하였다. Smart housekeeping 로봇을 구현하기 위해 라즈베리 파이와 무선 USB 카메라, Huins 사의 uBrain 로봇을 사용하였다. 로봇을 제어하기 위해 핸드폰을 라즈베리 파이의 IP에 접속하였고 라즈베리 파이에서는 uBrain 로봇과 블루투스 연결을 하였다. 핸드폰에서 해당 명령에 맞춰 로봇을 제어하도록 구현하였다. 또한 사용자가 원할 경우 로봇이 자율 주행을 선택할 수 있도록 구현하였다. 무선 USB 카메라로 실시간 촬영하는 영상을 핸드폰 혹은 개인용 컴퓨터로 확인할 수 있도록 하였다. 이 Smart housekeeping 로봇은 집 내부를 실시간으로 확인할 수 있도록 도울 것이다.

몰입형 대형 사이니지 콘텐츠를 위한 STAGCN 기반 인간 행동 인식 시스템 (STAGCN-based Human Action Recognition System for Immersive Large-Scale Signage Content)

  • 김정호;황병선;김진욱;선준호;선영규;김진영
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권6호
    • /
    • pp.89-95
    • /
    • 2023
  • 인간 행동 인식 (Human action recognition, HAR) 기술은 스포츠 분석, 인간과 로봇 간의 상호작용, 대형 사이니지 콘텐츠 등의 애플리케이션에 활용되는 핵심 기술 중 하나이다. 본 논문에서는 몰입형 대형 사이니지 콘텐츠를 위한 STAGCN (Spatial temporal attention graph convolutional network) 기반 인간 행동 인식 시스템을 제안한다. STAGCN은 attention mechanism을 통해 스켈레톤 시퀀스의 시공간적 특징에 서로 다른 가중치를 부과하여, 동작 인식에 중요한 관절 및 시점을 고려할 수 있다. NTU RGB+D 데이터셋을 사용한 실험 결과, 제안된 시스템은 기존 딥러닝 모델들에 비해 높은 분류 정확도를 달성한 것을 확인했다.

Intelligent robotic walker with actively controlled human interaction

  • Weon, Ihn-Sik;Lee, Soon-Geul
    • ETRI Journal
    • /
    • 제40권4호
    • /
    • pp.522-530
    • /
    • 2018
  • In this study, we developed a robotic walker that actively controls its speed and direction of movement according to the user's gait intention. Sensor fusion between a low-cost light detection and ranging (LiDAR) sensor and inertia measurement units (IMUs) helps determine the user's gait intention. The LiDAR determines the walking direction by detecting both knees, and the IMUs attached on each foot obtain the angular rate of the gait. The user's gait intention is given as the directional angle and the speed of movement. The two motors in the robotic walker are controlled with these two variables, which represent the user's gait intention. The estimated direction angle is verified by comparison with a Kinect sensor that detects the centroid trajectory of both the user's feet. We validated the robotic walker with an experiment by controlling it using the estimated gait intention.

음성의 특정 주파수 범위를 이용한 잡음환경에서의 감정인식 (Noise Robust Emotion Recognition Feature : Frequency Range of Meaningful Signal)

  • 김은호;현경학;곽윤근
    • 한국정밀공학회지
    • /
    • 제23권5호
    • /
    • pp.68-76
    • /
    • 2006
  • The ability to recognize human emotion is one of the hallmarks of human-robot interaction. Hence this paper describes the realization of emotion recognition. For emotion recognition from voice, we propose a new feature called frequency range of meaningful signal. With this feature, we reached average recognition rate of 76% in speaker-dependent. From the experimental results, we confirm the usefulness of the proposed feature. We also define the noise environment and conduct the noise-environment test. In contrast to other features, the proposed feature is robust in a noise-environment.

손 동작을 통한 인간과 컴퓨터간의 상호 작용 (Recognition of Hand gesture to Human-Computer Interaction)

  • 이래경;김성신
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2000년도 하계학술대회 논문집 D
    • /
    • pp.2930-2932
    • /
    • 2000
  • In this paper. a robust gesture recognition system is designed and implemented to explore the communication methods between human and computer. Hand gestures in the proposed approach are used to communicate with a computer for actions of a high degree of freedom. The user does not need to wear any cumbersome devices like cyber-gloves. No assumption is made on whether the user is wearing any ornaments and whether the user is using the left or right hand gestures. Image segmentation based upon the skin-color and a shape analysis based upon the invariant moments are combined. The features are extracted and used for input vectors to a radial basis function networks(RBFN). Our "Puppy" robot is employed as a testbed. Preliminary results on a set of gestures show recognition rates of about 87% on the a real-time implementation.

  • PDF