• Title/Summary/Keyword: 인간 행동

Search Result 1,007, Processing Time 0.024 seconds

State-of-the-Art of Domestic Emotional Robots (국내 감성로봇 연구 현황)

  • Cha, Go-Eum;Kim, Eun Jin;Lee, Kang-Hee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.01a
    • /
    • pp.161-162
    • /
    • 2017
  • 외부환경을 인식하고 상황을 판단해 자율적으로 행동하는 지능형 서비스 로봇은 앞으로 새로운 시장을 열어줄 것으로 기대되며 이와 관련된 연구와 개발이 빠르게 확대되고 있다. 이러한 서비스 로봇에게 가장 중요한 기능은 인간과의 원활한 상호작용이다. 여기서 말하는 상호작용이란 단순히 인간이 원하는 것을 명령하고, 로봇이 이 명령을 수행하는 것에 그치는 것이 아니라, 로봇이 스스로 인간의 감정을 파악하고, 이에 대한 적절한 로봇 자신의 감정 표출이나 서비스, 행동을 제공함으로써 직접적인 소통이 이루어지는 것을 의미한다. 이렇게 로봇이 자연스럽게 인간과 함께 공존하기 위해서 감성 로봇(Emotional Robot) 분야에서 관련된 연구가 활발히 진행되고 있다 본 논문에서는 국내의 감성 로봇의 연구 현황과 발전 방향에 대해 서술한다.

  • PDF

Acquisition Of Biometric Data To Percept Human Emotion (감성 인식을 위한 생체 정보 수집)

  • Whang Se-Hee;Park Chang-Hyun;Sim Kwee-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2005.04a
    • /
    • pp.353-356
    • /
    • 2005
  • 감성이란 외부의 여러 가지 감각적인 자극에 대해 직관적이고 반사적으로 발생하는 반응이다. 감성에는 희로애락과 같은 다양한 감정이 포함된다. 감성은 개인과 환경의 영향을 받는 동시에 사회$\cdot$문화적인 영향에 의해 달라지는 종합적이고 복합적인 느낌이기 때문에 명확하게 표현하기 어렵다. 개인적인 차이는 있지만 인간의 감정은 다양한 행동이나 신체적 혹은 생리적인 반응으로 표출되기 때문에 이러한 다양한 반응을 이용해서 인간의 감정을 유추할 수 있다. 행동이나 신체적인 표현은 개인과 환경, 사회$\cdot$문화적인 영향에 따라 다양하게 나타나기 때문에 이를 정량화하기에는 힘든 부분이 있다. 반면 감정 상태에 따른 생리적인 반응은 여러 사람들에게서 공통적인 부분을 찾을 수가 있다. 본 논문에서는 감정에 따라 다양하게 나타나는 인간의 생리적인 반응 정토를 측정하고 이들의 공통점에 따라 생리적 반응을 통해 인간의 감정에 유추할 수 있는 공학적 모델을 제시하고자 한다.

  • PDF

Hierarchical User Intention-Response Model using Behavior Network (행동 네트워크를 이용한 계층적 사용자 의도대응 모델)

  • Yoon, Jong-Won;Cho, Sung-Bae
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06c
    • /
    • pp.315-318
    • /
    • 2011
  • 최근 인간-컴퓨터 상호작용 분야에 있어서 사용자와의 원활한 협력을 위해 각종 센서 정보로부터 사용자 의도를 인식하고 행동을 예측하여 대응하는 의도대응 인터페이스에 대한 연구가 주목 받고 있다. 이는 사람들 사이에서는 자연스러운 일이며, 인간의 의도대응 과정을 모방하여 공학적으로 구현하는 연구가 활발히 진행 중이다. 본 논문에서는 보다 효과적으로 사용자의 의도에 대응하기 위해서 거울 뉴런과 마음의 이론을 기반으로 하는 사람의 의도대응 과정을 분석하고 이를 바탕으로 인터페이스에 적용 가능한 의도대응 방법을 제안한다. 본 논문에서는 센서로부터 즉각적으로 인식하여 대응 가능한 기본의도와 추가적인 지식을 통해 추론 가능하며 기본의도의 조합으로 이루어진 복합의도에 대해 계층적으로 대응하는 방법을 제안한다. 제안하는 방법은 행동네트워크를 이용하여 기본의도에 대해 즉각적으로 대응을 생성하며, 복합의도에 대하여 계획 기반 방법을 통해 대응 시퀀스를 생성하고 대응을 수행한다. 제안하는 방법은 일정 관리와 집안 관리 서비스를 제공하는 인공비서 시스템에 적용되었으며, 다양한 의도와 상황에 대한 생성 대응을 분석함으로써 사용자의 의도와 관측된 행동을 반영하여 적합한 대응을 생성함을 확인하였다.

악이 표출되는 행동양식 분석한 책 잇따라

  • Lee, Hyeon-Ju
    • The Korean Publising Journal, Monthly
    • /
    • s.230
    • /
    • pp.16-16
    • /
    • 1998
  • 세계 양차대전을 거치면서 인간의 악마적 본성은 학문의 중요한 화두가 되었고 각 학문에서 악마적 본성을 탐구하는 열의를 보였다. 최근 출간된 세 책은 인간이 지닌 악의 실체를 여러 시각에서 규명하고 있어 주목된다.

  • PDF

VTS와 사회심리학

  • Kim, Jae-Il;Kim, Jae-Su;Jeong, Jae-Yeon
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2012.06a
    • /
    • pp.579-581
    • /
    • 2012
  • 사회속에서 인간은 타인과의 관계를 가지면서 사회의 문화 제도 법 등의 규제를 받고 생활하고 있다. 이러한 인간의 경험이나 행동을 사회적 조건속에서 설명하는 학문이 사회심리학이라고 할 수 있는데, VTS는 그 사회 범주의 일부분이라고 무방할 것이다. 사회심리학의 이론을 VTS에 적용함과 동시에 기본이라고 할 수 있는 커뮤니케이션, 즉 의사소통의 중요성을 부각하고 VTS가 가지는 특수한 상황을 파악하여 VTS user와 좀 더 효과적인 커뮤니케이션이 될 수 있도록 모색해 보았다.

  • PDF

Disaster Detection Using Human Action Recognition (인간 행동 분석을 이용한 재해 발생 탐지 모델)

  • Han, Yul-Kyu;Choi, Young-Bok
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2019.05a
    • /
    • pp.433-434
    • /
    • 2019
  • 전 세계적으로 돌발적인 인공 재해로 인해 많은 인명 피해가 발생하고 있다. 이러한 재해는 발 빠른 대피가 중요하며 신속한 대피를 위해서는 재해 발생 여부를 빠르게 감지해야 한다. 본 논문에서는 공공장소에서 화재, 테러 등의 재해 발생 여부를 신속하게 파악하기 위해 재난 탐지 모델을 제안하였다. 스마트 폰에 내장되어있는 가속도 센서를 이용하여 평상시 상황과 재해 발생시 인간 행동에 대한 데이터를 얻고, 제안한 LSTM 딥러닝 모델을 통해 재난 발생을 즉시 감지 할 수 있다는 것을 확인하였다.

  • PDF

Implementation of VR Interface using 3D Visual Information (3차원 시각정보를 이용한 VR 인터폐이스 구현)

  • 오재용;이칠우
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.165-168
    • /
    • 2001
  • 최근 인간과 컴퓨터간의 원활한 상호작용의 필요성이 커짐에 따라 인간의 행동을 분석하는 연구가 많이 수행되고 있다. 기존의 시스템은 인간과 컴퓨터의 상호작용을 위해 3차원 센서 등의 별도의 장치를 필요로 한다. 그러나, 이러한 시스템은 원활한 상호작용이라는 관점에서 볼 때 자연스럽지 못하게 되고, 또한 시스템의 제약이 많기 때문에 다양한 시스템으로의 응용이 어려워지게 된다. 본 논문에서는 보다 자연스러운 인간과 컴퓨터의 상호작용을 위해서 센서가 아닌 카메라를 이용하여 대상을 입력받고, 이를 분석함으로써 대상이어떠한 상태이고, 어떤 동작을 취하고 있는지를 파악하여, 보다 자연스러운 인간과 컴퓨터간의 인터페이스를 구현하고자 한다.

  • PDF

Tracking Path Generation of Mobile Robot for Interrupting Human Behavior (행동차단을 위한 이동로봇의 추적경로 생성)

  • Jin, Taeseok
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.23 no.5
    • /
    • pp.460-465
    • /
    • 2013
  • In this paper, we describe a security robot system to control human's behavior in the security area. In order to achieve these goals, we present a method for representing, tracking and human blocking by laserscanner systems in security area, with application to pedestrian tracking in a crowd. When it detects walking human who is for the security area, robot calculates his velocity vector, plans own path to forestall and interrupts him who want to head restricted area and starts to move along the estimated trajectory. While moving the robot continues these processes for adapting change of situation. After arriving at an opposite position human's walking direction, the robot advises him not to be headed more and change his course. The experimental results of estimating and tracking of the human in the wrong direction with the mobile robot are presented.

Knowledge Structures to Simulate the Spatial Behavior of Intelligent Virtual Humans (지능형 가상인간의 공간적 행동을 모사하기 위한 지식구조)

  • Hong, Seung-Wan;Park, Jong-Hee
    • The Journal of the Korea Contents Association
    • /
    • v.20 no.12
    • /
    • pp.230-240
    • /
    • 2020
  • To develop a virtual world-based immersive tutoring system, we would like to develop a simulation in the spatial aspect to maximize the diversity and realism of the situation. This implementation requires the modeling of virtual space as well as the knowledge and intelligent thinking functions of virtual humans. First, information structures are needed to simulate the hierarchical and multifaceted composition of space and the corresponding knowledge of virtual humans. Specifically, four structures for 2.5D spatial distribution expression, complex spatial relationship expression, object expression, and temporal and spatial representation of events are developed respectively. It then uses these expressed knowledge to develop the spatial thinking function of virtual humans needed to make spatial movement. In general, events have a chain effect on adjacent or connected objects through force, resulting in a variety of situations and reflected in the planning of the next action by the virtual humans involved. For this purpose, the development of events according to historical trends is recorded on the representation structure of time and space. It embodies typical events to demonstrate the feasibility of independent behavior in complex spaces among virtual people.

Human Action Recognition in Still Image Using Weighted Bag-of-Features and Ensemble Decision Trees (가중치 기반 Bag-of-Feature와 앙상블 결정 트리를 이용한 정지 영상에서의 인간 행동 인식)

  • Hong, June-Hyeok;Ko, Byoung-Chul;Nam, Jae-Yeal
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.38A no.1
    • /
    • pp.1-9
    • /
    • 2013
  • This paper propose a human action recognition method that uses bag-of-features (BoF) based on CS-LBP (center-symmetric local binary pattern) and a spatial pyramid in addition to the random forest classifier. To construct the BoF, an image divided into dense regular grids and extract from each patch. A code word which is a visual vocabulary, is formed by k-means clustering of a random subset of patches. For enhanced action discrimination, local BoF histogram from three subdivided levels of a spatial pyramid is estimated, and a weighted BoF histogram is generated by concatenating the local histograms. For action classification, a random forest, which is an ensemble of decision trees, is built to model the distribution of each action class. The random forest combined with the weighted BoF histogram is successfully applied to Standford Action 40 including various human action images, and its classification performance is better than that of other methods. Furthermore, the proposed method allows action recognition to be performed in near real-time.