• Title/Summary/Keyword: 사람과 컴퓨터간의 상호작용

Search Result 49, Processing Time 0.033 seconds

Control of Real Time Mobile Robot Based Internet using Fuzzy Analytic Hierachy Process (퍼지AHP를 이용한 인터넷기반 이동로봇의 실시간 제어)

  • Jin, Hyeon-Su
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.11a
    • /
    • pp.91-95
    • /
    • 2007
  • 인터넷의 발전과 더불어 유무선 통신 인터페이스의 발전은 가상 인터넷 공간 및 현실세계에서의 사람과 사람 또는 컴퓨터와 컴퓨터사이의 정보전달 뿐만 아니라, 컴퓨터와 사람사이의 양방향 정보전달과 상호작용을 가능하게 하고 있다. 이러한 추세에 맞추어 지능형 디지털 주거 공간의 컴퓨터및 디지털 기기와 연통되어 언제 어디서나 접근 가능한 Ubiquitous Robot은 디지털 사회를 이끌 주요 신산업의 통력이 될 것이다. Ubibot은 스마트센서. 지능형 정보입출력 장치 등을 지니고 다양한 컴퓨터 및 디지털 기기와 스마트 환경센서 등을 제어할수 있고 정보를 전달하는 통신 능력을 지닌다.

  • PDF

Vision-based Hand Shape Recognition for Two-handed Interaction (양손기반 상호작용을 위한 비전 기반 손 모양 인식 방법)

  • Han, Seiheui;Choi, Junyeong;Lee, Daesun;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2012.11a
    • /
    • pp.140-143
    • /
    • 2012
  • 사람간의 상호작용에서 손은 중요한 역할을 담당하고 있기 때문에, 사람과 컴퓨터 사이의 인터페이스에 관한 연구에서 역시 손을 이용한 자연스러운 상호작용은 중요한 화두 중 하나이다. 따라서 본 논문에서는 손 기반 인터페이스를 위한 손 모양 인식 방법을 제안한다. 제안하는 방법은 비전 기반의 방법을 이용하기 때문에 사용자의 몰입을 방해할 수 있는 마커 혹은 센서의 부착을 요구하지 않으며, 간단하지만 효과적인 방법을 사용함으로써 실시간 연산을 보장한다. 또한 사용자의 양 손을 추적하고 손의 모양을 인식함으로써, 보다 자연스러운 양손 기반의 상호작용을 제공한다.

  • PDF

Object Interaction Animation Using Imitation Learning and Motion Blending (모방학습과 모션 블렌딩을 이용한 객체 상호작용 애니메이션)

  • Jeong-Min-Shin;Sang-Won Han;Byeong-Seok Shin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.571-574
    • /
    • 2023
  • 애니메이션은 주어진 키프레임(key frame)에 맞추어 움직이기 때문에, 다른 객체와 상호작용할 때 상대편 물체의 위치나 방향을 애니메이션에 맞추어 변환해야 한다. 이 논문에서는 모방학습으로 애니메이션을 학습하고, 모션 블렌딩(motion blending) 기법으로 객체 간 상호작용을 학습하여 새로운 애니메이션을 생성하는 방법을 제안한다. 에이전트(agent)는 오브젝트의 상태를 관측하고 주어진 모션들을 블렌딩하는 방법으로 다양한 행동을 취하고 목적에 대한 보상을 받는다. 에이전트가 행동하는 과정에서 모션 블렌딩 비율에 대한 가중치를 계산하는 함수를 설계하고, 생성되는 애니메이션이 사람이 취할 수 있는 동작에 가깝도록 회전 각도 clamping 함수와 보상 시스템을 설계하여 반영한다. 모방학습 기반 모션 블렌딩 기법은 객체의 변화에 상호작용하는 애니메이션을 기존 강화학습 기반 애니메이션 생성 기법보다 적은 학습량으로 생성할 수 있음을 확인했다.

Inference of Disease Module using Bayesian Network by Genetic Algorithm (유전자 알고리즘으로 학습한 베이지안 네트워크에 기초한 질병 모듈 추론)

  • Jeong, Da-Ye;Yeu, Yun-ku;Ahn, Jae-Gyoon;Park, Sang-Hyun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1117-1120
    • /
    • 2013
  • 사람의 질병은 여러 요인의 복합적인 작용으로 발생하는데 이 중 유전적인 요인에는 유전자 간의 상호작용을 들 수 있다. 마이크로어레이(Microarray) 데이터로부터 유전자의 활성화 및 억제 관계를 밝히려는 다양한 시도는 계속되어왔다. 그러나 마이크로어레이 자체가 갖는 불안정성과 실험조건 수의 제약이 커다란 장애가 되어 왔다. 이에 생물학적 사전 지식을 포함하는 방법들이 제안되었다. 본 논문에서는 질병과 관련된 유전자 간의 상호작용의 집합을 질병 모듈이라 정의하고 이를 유전자 알고리즘으로 학습한 베이지안 네트워크(Bayesian network)로 추론하는 방법을 제안한다.

지능형 IoT서비스를 위한 기계학습 기반 동작 인식 기술

  • Choe, Dae-Ung;Jo, Hyeon-Jung
    • The Proceeding of the Korean Institute of Electromagnetic Engineering and Science
    • /
    • v.27 no.4
    • /
    • pp.19-28
    • /
    • 2016
  • 최근 RFID와 같은 무선 센싱 네트워크 기술과 객체 추적을 위한 센싱 디바이스 및 다양한 컴퓨팅 자원들이 빠르게 발전함에 따라, 기존 웹의 형태는 소셜 웹에서 유비쿼터스 컴퓨팅 웹으로 자연스럽게 진화되고 있다. 유비쿼터스 컴퓨팅 웹에서 사물인터넷(IoT)은 기존의 컴퓨터를 대체할 수 있는데, 이것은 곧 한 사람과 주변 사물들 간에 연결되는 네트워크가 확장되는 것과 동시에 네트워크 안에서 생성되는 데이터의 수가 기하급수적으로 증가되는 것을 의미한다. 따라서 보다 지능적인 IoT 서비스를 위해서는, 수많은 미가공 데이터들 사이에서 사람의 의도와 상황을 실시간으로 정확히 파악할 수 있어야 한다. 이때 사물과의 상호작용을 위한 동작 인식 기술(Gesture recognition)은 집적적인 접촉을 필요로 하지 않기 때문에, 미래의 사람-사물 간 상호작용에 응용될 수 있는 잠재력을 갖고 있다. 한편, 기계학습 분야의 최신 알고리즘들은 다양한 문제에서 사람의 인지능력을 종종 뛰어넘는 성능을 보이고 있는데, 그 중에서도 의사결정나무(Decision Tree)를 기반으로 한 Decision Forest는 분류(Classification)와 회귀(Regression)를 포함한 전 영역에 걸쳐 우월한 성능을 보이고 있다. 따라서 본 논문에서는 지능형 IoT 서비스를 위한 다양한 동작 인식 기술들을 알아보고, 동작 인식을 위한 Decision Forest의 기본 개념과 구현을 위한 학습, 테스팅에 대해 구체적으로 소개한다. 특히 대표적으로 사용되는 3가지 학습방법인 배깅(Bagging), 부스팅(Boosting) 그리고 Random Forest에 대해 소개하고, 이것들이 동작 인식을 위해 어떠한 특징을 갖는지 기존의 연구결과를 토대로 알아보았다.

Bare-hand Human Computer Interaction on the 3D sensor table (3D 센서테이블에서의 맨손을 이용한 컴퓨터와의 상호작용)

  • Lee, Jae-Seon;Park, Kyoung-Shin
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.142-147
    • /
    • 2006
  • 3D 센서테이블은 디스플레이가 내장된 테이블 위에서 사용자의 맨손이 움직일 때 그것을 감지하고 반응하는 센싱정보를 처리하도록 만든 것으로 양안시차 방식의 3 차원 입체영상에서 보여지는 가상의 오브젝트와 사람과의 인터렉션이 가능하도록 설계되었다. 본 연구에서는 3 차원 공간에서의 맨손을 이용한 사람과 컴퓨터 간의 인터렉션 방법에 중점을 두고 있는데 맨손의 위치정보와 제스처를 알기 위해서 Electric Field Sensing 기법을 이용하였다. 현재 구현된 3D 센서테이블은 테이블로부터 30cm 이내의 거리에서 움직이는 맨손의 위치와 간단한 제스처를 인식할 수 있다. 이를 통해서 기존의 마우스나 키보드가 가졌던 3 차원 공간에서 사용할 때 불편했던 점들을 해소하고, 직관적이면서도 누구나 사용하기에 쉬운 인터페이스 방법을 제시함으로써 사람과 컴퓨터와의 인터렉션 방법을 확장시킬 수 있다. 또한 기존의 많은 연구에서 맨손을 이용한 기법들이 주로 2D 기반이었던 것에 비하여 본 시스템은 2D뿐 아니라 3 차원 공간에서도 활용할 수 있다는 장점을 가진다.

  • PDF

A Study on the Factors Affecting Flow in e-Learning Environment - Focusing on Interaction Factors and Affordance - (이러닝 환경에서 몰입에 영향을 미치는 요인 연구 -상호작용 요인과 어포던스 요인을 중심으로-)

  • Lee, So-Young;Kim, Hyung-Jun
    • The Journal of the Korea Contents Association
    • /
    • v.19 no.10
    • /
    • pp.522-534
    • /
    • 2019
  • The purpose of this study is to investigate the interaction factors(learning motivation, concrete feedback, learner's control) and affordance factors (aesthetics, playfulness, stability) that influence flow in e - learning. This study collected 236 survey data from e-learning users. The data was analyzed the statistical relationships among the variables using the SPSS21 and AMOS21. The measurement model was reliable and valid, and the structual model was good. The result shows that interaction factors (concrete feedback, learner's control) and affordance factor (playfulness) influence on flow. Flow has a significant effect on satisfaction. Especially the effect of playfulness on flow is meaningful. Playfulness is one of the most important factors leading to the flow state of humans. The contribution of this study is to find the factors influencing flow in the interaction between learners and computer in e-learning. It can be used to provide an entertainment experience that can enhance the satisfaction of consumers in the Internet environment by finding the antecedents that affect the flow in computer - human interaction.

Natural Hand Detection and Tracking (자연스러운 손 추출 및 추적)

  • Kim, Hye-Jin;Kwak, Keun-Chang;Kim, Do-Hyung;Bae, Kyung-Sook;Yoon, Ho-Sub;Chi, Su-Young
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.148-153
    • /
    • 2006
  • 인간-컴퓨터 상호작용(HCI) 기술은 과거 컴퓨터란 어렵고 소수의 숙련자만이 다루는 것이라는 인식을 바꾸어 놓았다. HCI 는 컴퓨터 사용자인 인간에게 거부감 없이 수용되기 위해 인간과 컴퓨터가 조화를 이루는데 많은 성과를 거두어왔다. 컴퓨터 비전에 기반을 두고 인간과 컴퓨터의 상호작용을 위하여 사용자 의도 및 행위 인식 연구들이 많이 행해져 왔다. 특히 손을 이용한 제스처는 인간과 인간, 인간과 컴퓨터 그리고 최근에 각광받고 있는 인간과 로봇의 상호작용에 중요한 역할을 해오고 있다. 본 논문에서 제안하는 손 추출 및 추적 알고리즘은 비전에 기반한 호출자 인식과 손 추적 알고리즘을 병행한 자연스러운 손 추출 및 추적 알고리즘이다. 인간과 인간 사이의 상호간의 주의집중 방식인 호출 제스처를 인식하여 기반하여 사용자가 인간과 의사소통 하는 것과 마찬가지로 컴퓨터/로봇의 주의집중을 끌도록 하였다. 또한 호출 제스처에 의해서 추출된 손동작을 추적하는 알고리즘을 개발하였다. 호출 제스처는 카메라 앞에 존재할 때 컴퓨터/로봇의 사용자가 자신에게 주의를 끌 수 있는 자연스러운 행동이다. 호출 제스처 인식을 통해 복수의 사람이 존재하는 상황 하에서 또한 원거리에서도 사용자는 자신의 의사를 전달하고자 함을 컴퓨터/로봇에게 알릴 수 있다. 호출 제스처를 이용한 손 추출 방식은 자연스러운 손 추출을 할 수 있도록 한다. 현재까지 알려진 손 추출 방식은 피부색을 이용하고 일정 범위 안에 손이 존재한다는 가정하에 이루어져왔다. 이는 사용자가 제스처를 하기 위해서는 특정 자세로 고정되어 있어야 함을 의미한다. 그러나 호출 제스처를 통해 손을 추출하게 될 경우 서거나 앉거나 심지어 누워있는 상태 등 자연스러운 자세에서 손을 추출할 수 있게 되어 사용자의 불편함을 해소 할 수 있다. 손 추적 알고리즘은 자연스러운 상황에서 획득된 손의 위치 정보를 추적하도록 고안되었다. 제안한 알고리즘은 색깔정보와 모션 정보를 융합하여 손의 위치를 검출한다. 손의 피부색 정보는 신경망으로 다양한 피부색 그룹과 피부색이 아닌 그룹을 학습시켜 얻었다. 손의 모션 정보는 연속 영상에서 프레임간에 일정 수준 이상의 차이를 보이는 영역을 추출하였다. 피부색정보와 모션정보로 융합된 영상에서 블랍 분석을 하고 이를 민쉬프트로 추적하여 손을 추적하였다. 제안된 손 추출 및 추적 방법은 컴퓨터/로봇의 사용자가 인간과 마주하듯 컴퓨터/로봇의 서비스를 받을 수 있도록 하는데 주목적을 두고 있다.

  • PDF

A Development of Activity Manager based on Android for Analysis of Close-relationship (친밀한 관계 분석을 위한 안드로이드 기반 액티비티 매니저 개발)

  • Kim, Paul;Kim, Kyungdeok;Kim, Sangwook
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.1438-1441
    • /
    • 2010
  • 모바일 사용자의 주변 상태를 자동으로 인지하는 상황 인지 기술은 사람과 컴퓨터의 상호작용에 있어서 중요하다. 모바일 환경에서 사용자의 상황 인지를 하기 위해서는 플랫폼단에서 상황 정보를 수집하고 처리하는 미들웨어와 대량의 정보를 저장하고 분배해주는 서버가 필요하다. 특히 모바일 사용자간 친밀한 관계를 인지하기 위해서는 동시다발적으로 발생하는 상황 정보들을 효율적으로 처리하는 시스템이 필요하며 전체 성능에 영향을 적게 주어야 한다. 따라서 본 논문에서는 상황 인지 플랫폼에서 다양한 상황 정보들을 처리하는 액티비티 매니저 모듈을 구현한다. 제안하는 모듈은 상황 정보를 플랫폼간 통신이 가능한 형태로 변환하는 기술을 포함하며 상황 정보의 알림, 요청 작업을 실시간으로 처리하여 공유함으로써 사용자간 친밀한 관계를 분석할 수 있다.

An Integrated User Interface for Visualizing User Data Using VR Juggler and OpenSceneGraph (데이터 가시화를 위한 VR Juggler와 OpenSceneGraph를 이용한 통합 사용자 인터페이스)

  • Hur, YoungJu
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.11a
    • /
    • pp.455-458
    • /
    • 2011
  • 컴퓨터에서 생성된 시뮬레이션 결과는 가시화(Visualization)라는 과정을 통해 인간이 직관적으로 해석하기 쉬운 형태로 가공된다. 사람이 직관적으로 이해하기 어려운 수치의 나열로 구성돼 있던 데이터가 컴퓨터 그래픽스 기술의 적용을 통해 보다 쉽게 분석할 수 있는 형태로 변형되는 것이다. 최근에는 이런 시뮬레이션 데이터의 크기와 복잡도가 점점 증가하고 있는 추세로, 이런 추세에 따라 고해상도 디스플레이 장치나 몰입형 가상현실 장치의 필요성은 점점 증가하고 있다. 이런 이유로 클러스터 시스템을 이용한 고해상도의 디스플레이 장치에서 해당 시스템에 대한 전문적인 지식을 갖추지 않은 일반 연구자가 상호작용할 수 있는 사용자 인터페이스에 대한 필요성도 높아지고 있다. 본 논문에서는 고해상도 디스플레이 장치에서 데이터를 가시화하는 프레임워크와 그 프레임워크에서 사용하는 통합 환경 인터페이스를 소개하기로 한다. 이 인터페이스는 VR Juggler와 OSG(OpenSceneGraph)를 기반으로 하며, 다양한 형태의 디스플레이 장치와 몰입형 가상현실 환경에서 시뮬레이션 데이터와 실시간 상호작용을 통한 해석을 수행하는데 필요한 기반 환경을 제공한다.