• 제목/요약/키워드: Human-Computer Interaction Analysis

검색결과 133건 처리시간 0.025초

형태론적 손짓 인식 알고리즘 (Morphological Hand-Gesture Recognition Algorithm)

  • 최종호
    • 한국정보통신학회논문지
    • /
    • 제8권8호
    • /
    • pp.1725-1731
    • /
    • 2004
  • 최근 들어 인간의 의지를 컴퓨터에 전달하기 위한 수단으로 컴퓨터 시각기반 방식으로 제스처를 인식하고자 하는 연구가 널리 진행되고 있다. 제스처 인식에서 가장 중요한 이슈는 알고리즘의 단순화와 처리시간의 감소이다. 이러한 문제를 해결하기 위하여 본 연구에서는 기하학적 집합론에 근거하고 있는 수학적 형태론을 적용하였다. 본 논문에서 제안한 알고리즘의 중요한 아이디어는 형태론적 형상 분해를 적용하여 제스처를 인식하는 것이다. 손짓 형상으로부터 얻은 원시형상요소들의 방향성은 손짓에 관한 중요한 정보를 내포하고 있다. 이러한 특징에 근거하여 본 연구에서는 주 원시형상요소와 부 원시형상요소의 중심점을 연결하는 직선으로부터 특징벡터를 이용한 형태론적 손짓 인식 알고리즘을 제안하고 실험을 통하여 그 유용성을 증명하였다. 자연스러운 손짓을 이용한 인터페이스 설계는 TV 스위치 조정이나 비디오 컨텐츠 검색용 시스템으로 널리 이용할 수 있을 것으로 판단된다.

캐릭터 동작 애니메이션 제어를 위한 에이전트 시스템 (An Agent-based System for Character Motion Animation Control)

  • 김기현;김상욱
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제7권5호
    • /
    • pp.467-474
    • /
    • 2001
  • 사용자가 하나의 캐릭터 이상을 애니메이션 하기를 원할때 캐릭터들 사이에 충돌과 같은 기대되지 않은 동작 애니메이션을 생성할 수 있다. 그러므로, 이러한 문제가 적절한 제어 메커니즘을 이용하여 해결되어야 한다. 본 논문은 사용자의 의도를 반영한 애니메이션 시나리오를 표현하기 위해 캐릭터의 동작 애니메이션을 제어하는 에이전트 기반 시스템을 제안한다. 이 시스템은 3차원 공간상에서 캐릭터가 움직이는 경로에 따라 캐릭터들간의 충돌을 회피하고 동작의 형태를 조정하는 방법을 제공한다. 에이전트는 동작을 동기화하기 위해 다른 에이전트와 통신한다. 에이전트는 캐릭터의 동작을 조정하는 여러 지능적인 에이전트로 확장되어진다. 에이전트 시스템은 의도된 동작 애니메이션 뿐만 아니라 전체 캐릭터 애니메이션에 대한 동작의 스케쥴링을 가능하게 한다. 에이전트들의 정보를 전달하고 에이전트들의 현 상태를 추론하는 방법으로써 에이전트의 대화를 위한 페트리넷 분석을 이용하여 오토마타 모델을 디자인한다. 에이전트 기술을 이용하여 캐릭터의 동작을 제어하기 위한 에이전트 시스템을 구현한다. 인체 모델 캐릭터의 동작을 제어하는 예를 보이고, 동작 제어의 가능성을 보인다.

  • PDF

The effects of the usability of products on user's emotions - with emphasis on suggestion of methods for measuring user's emotions expressed while using a product -

  • Jeong, Sang-Hoon
    • 디자인학연구
    • /
    • 제20권2호
    • /
    • pp.5-16
    • /
    • 2007
  • The main objective of our research is analyzing user's emotional changes while using a product, to reveal the influence of usability on human emotions. In this study we have extracted some emotional words that can come up during user interaction with a product and reveal emotional changes through three methods. Finally, we extracted 88 emotional words for measuring user's emotions expressed while using products. And we categorized the 88 words to form 6 groups by using factor analysis. The 6 categories that were extracted as a result of this study were found to be user's representative emotions expressed while using products. It is expected that emotional words and user's representative emotions extracted in this study will be used as subjective evaluation data that is required to measure user's emotional changes while using a product. Also, we proposed the effective methods for measuring user's emotion expressed while using a product in the environment which is natural and accessible for the field of design, by using the emotion mouse and the Eyegaze. An examinee performs several tasks with the emotion mouse through the mobile phone simulator on the computer monitor connected to the Eyegaze. While testing, the emotion mouse senses user's EDA and PPG and transmits the data to the computer. In addition, the Eyegaze can observe the change of pupil size. And a video camera records user's facial expression while testing. After each testing, a subjective evaluation on the emotional changes expressed by the user is performed by the user him/herself using the emotional words extracted from the above study. We aim to evaluate the satisfaction level of usability of the product and compare it with the actual experiment results. Through continuous studies based on these researches, we hope to supply a basic framework for the development of interface with consideration to the user's emotions.

  • PDF

HCI를 위한 트리 구조 기반의 자동 얼굴 표정 인식 (Automatic Facial Expression Recognition using Tree Structures for Human Computer Interaction)

  • 신윤희;주진선;김은이;;;박세현;정기철
    • 한국산업정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.60-68
    • /
    • 2007
  • 본 논문에서는 자동으로 사용자의 얼굴 표정을 인식할 수 있는 시스템을 제안한다. 제안된 시스템은 휴리스틱 정보를 기반으로 설계된 트리 구조를 이용하여 행복, 역겨움, 놀람의 감정과 무표정을 인식한다. 카메라로부터 영상이 들어오면 먼저 얼굴 특징 검출기에서 피부색 모델과 연결성분 분석을 이용하여 얼굴 영역을 획득한다. 그 후에 신경망 기반의 텍스처 분류기를 사용하여 눈 영역과 비 눈 영역으로 구분한 뒤 눈의 중심 영역과 에지 정보를 기반으로 하여 눈, 눈썹, 입 등의 얼굴 특징을 찾는다. 검출된 얼굴 특징들은 얼굴 표정 인식기에 사용되며 얼굴 인식기는 이를 기반으로 한 decision tree를 이용하여 얼굴 감정을 인식한다. 제안된 방법의 성능을 평가하기 위해 MMI JAFFE, VAK DB에서 총 180장의 이미지를 사용하여 테스트하였고 약 93%의 정확도를 보였다.

  • PDF

손 동작 인식을 통한 인간 - 컴퓨터 인터페이스용 저가형 비주얼 모션 데이터 글러브 (Inexpensive Visual Motion Data Glove for Human-Computer Interface Via Hand Gesture Recognition)

  • 한영모
    • 정보처리학회논문지B
    • /
    • 제16B권5호
    • /
    • pp.341-346
    • /
    • 2009
  • 모션 데이터 글러브는 손의 움직임을 측정하여 컴퓨터에 입력하는 대표적인 인간과 컴퓨터간의 인터페이스 도구로서, 홈 오토에이션, 가상 현실, biometrics, 모션 캡쳐 등의 컴퓨터 신기술에 사용되는 필수 장비이다. 본 논문에서는 대중화를 위하여, 별도의 특수 장비 없이 사용 가능한 저가형 비주얼 모션 데이터 글러브를 개발하고자 한다. 본 방식의 특징은 기존의 모션 데이터 글러브에 사용되었던, 고가의 모션 센싱 섬유를 사용하지 않음으로써, 저가형으로 개발이 가능하다는 것이다. 따라서 제작이 용이하고 대중화에 크게 기여할 수 있다는 장점을 가진다. 본 방식에서는 모션 센싱 섬유를 사용하는 기계적인 방식대신 광학적 모션 캡쳐 기술을 개량한 비주얼 방식을 채택한다. 기존의 비주얼 방식에 비해 본 방식은 다음과 같은 장점과 독창성을 가진다. 첫째, 기존의 비주얼 방식은 가려짐 현상을 제거하고 3차원 자세 복원을 위해 많은 수의 카메라와 장비를 사용하는 데 비해, 본 방식은 모노비전 방식을 채택하여 장비가 간소하고 저가형 개발이 가능하다. 둘째, 기존의 모노비전방삭은 가려짐 현상에 취약하여 영상에서 가려진 부분은 3차원 자세 복원이 어려웠다. 하지만 본 논문은 독창적으로 설계된 막대 모양의 지시자를 사용하여, 영상에서 가려진 부분도 3차원 자세 복원이 가능하다. 셋째, 기존의 모노 비전 방식은 비선형 수치해석 형태의 영상 해석 알고리즘을 사용하는 경우가 많아서 초기화나 계산시간 면에서 불편하였다. 하지만, 본 논문에서는 독창적인 공식화 방법을 사용하여 닫힌 형태의 영상해석 알고리즘을 도출함으로써 이와 같은 불편을 개선하였다. 넷째, 기존의 닫힌 형태의 알고리즘은 공식화 과정에서 근사화 방법을 도입하는 경우가 많아서 정확도가 떨어지고 특이점에 의한 응용분야에 제한이 있었다. 하지만 본 방식은 오일러 각과 같은 국부적인 매개화나 근사화 등을 사용하는 대신 지수형태의 트위스트좌표계를 사용하는 독창적인 공식화 방법을 사용하여, 공식화 단계에서의 근사화 방법 없이 닫힌 형태의 알고리즘을 도출함으로써 이 문제들을 개선하였다.

신경망과 Mean-shift를 이용한 눈 추적 (Eye Tracking Using Neural Network and Mean-shift)

  • 강신국;김경태;신윤희;김나연;김은이
    • 전자공학회논문지CI
    • /
    • 제44권1호
    • /
    • pp.56-63
    • /
    • 2007
  • 본 논문은 신경망 (neural network: NN)과 mean-shift알고리즘을 이용하여 복잡한 배경에서 사용자의 눈을 정확히 추출하고 추적할 수 있는 눈 추적 시스템을 제안한다. 머리의 움직임에 강건한 시스템을 개발하기 위해서 먼저 피부색 모델과 연결 성분분석을 이용하여 얼굴영역을 추출한다. 그 다음 신경망기반의 텍스처 분류기를 이용하여 얼굴 영역(face region)을 눈 영역(eye region)과 비눈 영역(non-eye region)으로 구분함으로써 눈을 찾는다. 이러한 눈 검출 방법은 안경의 착용 유무에 상관없이 사용자의 눈 영역을 정확히 검출 할 수 있게 한다. 일단 눈 영역이 찾아지면 이후 프레임에서의 눈 영역은 mean-shift알고리즘에 의해 정확하게 추적된다. 제안된 시스템의 효율성을 검증하기 위해서 제안된 시스템은 눈의 움직임을 이용한 인터페이스 시스템에 적용되었고, 이 인터페이스를 이용한 'aliens game'이 구현되었다. 25명의 사용자에 대해 실험한 결과는 제안된 시스템이 보다 편리하고 친숙한 인터페이스로 활용될 수 있다는 것을 보여주었으며, 또한 $320{\times}240$ 크기의 영상을 초당 30프레임의 빠른 속도로 처리함으로써 실시간 시스템에 적용될 수 있음을 보여주었다.

플랫폼 액션 게임의 특징을 고려한 어포던스 (Affordance in Consideration of a Feature of Platform Action Game)

  • 송승근
    • 한국콘텐츠학회논문지
    • /
    • 제13권12호
    • /
    • pp.62-69
    • /
    • 2013
  • 최근 HCI, 제품디자인, 인지과학 등에서 어포던스에 대한 많은 연구가 진행되고 있다. 또한 게임분야에서도 어포던스에 대한 개념을 적용하여 게이머와 게임 시스템간의 관계를 이해하고자 하는 시도가 증가하고 있다. 그러나 게임의 특성을 고려하지 않고 기존의 HCI에서 중요하게 다루는 사용편의성, 일관성, 유용성 측면으로 연구가 진행되는 문제가 발생하고 있다. 그래서 본 연구는 생태심리학에서 제시한 어포던스(Affordance: 행동유도성) 개념을 토대로 판타지, 다양성, 재미와 같은 게임의 특징을 고려한 어포던스를 규명하는 것을 목적으로 한다. 이를 위해 게임의 기본 장르인 액션게임에서 플랫폼 액션 장르의 게임을 대상으로 게임플레이 전 과정에 대한 Think aloud 방법을 적용하여 프로토콜 분석을 실시하였다. 그 결과 고정 상태로서의 정지, 이동적 어포던스, 변형상태로서의 변형연속, 단일생성, 단일소멸 어포던스, 물리적, 인지적 어포던스가 발견되었다. 본 연구결과는 게임을 어떻게 디자인해야 할지에 대한 중요한 디자인 지침을 제시할 것으로 기대된다.

Emotion Recognition using Facial Thermal Images

  • Eom, Jin-Sup;Sohn, Jin-Hun
    • 대한인간공학회지
    • /
    • 제31권3호
    • /
    • pp.427-435
    • /
    • 2012
  • The aim of this study is to investigate facial temperature changes induced by facial expression and emotional state in order to recognize a persons emotion using facial thermal images. Background: Facial thermal images have two advantages compared to visual images. Firstly, facial temperature measured by thermal camera does not depend on skin color, darkness, and lighting condition. Secondly, facial thermal images are changed not only by facial expression but also emotional state. To our knowledge, there is no study to concurrently investigate these two sources of facial temperature changes. Method: 231 students participated in the experiment. Four kinds of stimuli inducing anger, fear, boredom, and neutral were presented to participants and the facial temperatures were measured by an infrared camera. Each stimulus consisted of baseline and emotion period. Baseline period lasted during 1min and emotion period 1~3min. In the data analysis, the temperature differences between the baseline and emotion state were analyzed. Eyes, mouth, and glabella were selected for facial expression features, and forehead, nose, cheeks were selected for emotional state features. Results: The temperatures of eyes, mouth, glanella, forehead, and nose area were significantly decreased during the emotional experience and the changes were significantly different by the kind of emotion. The result of linear discriminant analysis for emotion recognition showed that the correct classification percentage in four emotions was 62.7% when using both facial expression features and emotional state features. The accuracy was slightly but significantly decreased at 56.7% when using only facial expression features, and the accuracy was 40.2% when using only emotional state features. Conclusion: Facial expression features are essential in emotion recognition, but emotion state features are also important to classify the emotion. Application: The results of this study can be applied to human-computer interaction system in the work places or the automobiles.

손가락 움직임 인식을 위한 웨어러블 디바이스 설계 및 ML 기법별 성능 분석 (Design and Performance Analysis of ML Techniques for Finger Motion Recognition)

  • 정우순;이형규
    • 한국산업정보학회논문지
    • /
    • 제25권2호
    • /
    • pp.129-136
    • /
    • 2020
  • 손가락 움직임 인식을 통한 제어는 직관적인 인간-컴퓨터 상호작용 방법의 하나이다. 본 연구에서는 여러 가지 ML (Machine learning) 기법을 사용하여 효율적인 손가락 움직임 인식을 위한 웨어러블 디바이스를 구현한다. 움직임 인식을 위한 시계열 데이터 분석에 전통적으로 사용되어 온 HMM (Hidden markov model) 및 DTW (Dynamic time warping) 기법뿐만 아니라 NN (Neural network) 기법을 적용하여 손가락 움직임 인식의 효율성 및 정확성을 비교하고 분석한다. 제안된 시스템의 경우, 경량화된 ML 모델을 설계하기 위해 각 ML 기법에 대해 최적화된 전처리 프로세스를 적용한다. 실험 결과, 최적화된 NN, HMM 및 DTW 기반 손가락 움직임 인식시스템은 각각 99.1%, 96.6%, 95.9%의 정확도를 제공한다.

체감형 학습을 위한 매개 디바이스의 디자인 요구사항 - 프로토콜 분석법을 통한 미취학 아동의 행동 패턴 분석 (Design requirements of mediating device for total physical response - A protocol analysis of preschool children's behavioral patterns)

  • 김윤경;김현정;김명석
    • 감성과학
    • /
    • 제13권1호
    • /
    • pp.103-110
    • /
    • 2010
  • 미취학 아동의 창의적 사고, 다양한 경험 기반의 학습 활동, 그리고 인성 및 감성 중심의 교육에 대한 욕구를 충족시켜줄 수 있는 새로운 교육 방식으로써 체감형 교육 방식의 보급이 활발해지고 있다. 체감형 학습은 사용자의 움직임이나 감각을 통해 디지털 교육 콘텐츠를 조작하는 인간-컴퓨터 인터랙션을 활용한 교육 방식이다. 그러나 사람의 움직임이나 목소리 같은 음성/영상 인식의 정확도가 높지 않아 실제 교육 시스템 적용에는 한계를 보인다. 이러한 한계점의 극복을 위해 인간과 서비스 콘텐츠 사이에 매개체를 두고 이를 통해 사람의 움직임을 가속도, 각속도와 같은 숫자 값으로 변환/전송하여 인터랙션 하는 매개 인터페이스 개념이 제안된다. 본 연구에서는, 교육 시스템의 대상인 미취학 아동의 행동을 관찰하고 프로토콜 분석을 통하여 사용자 중심의 매개 디바이스 디자인 요구사항을 제안한다. 분석 결과, 미취학 아동들은 물체를 조작하는 데 서툴고, 무의식적으로 물체를 만지작거리거나 기대는 행동을 보였다. 또한 물건을 사용할 때 그에 종속되어 행동의 부자연스러움을 보였다. 따라서 체감형 교육을 위한 매개 디바이스는 사용자의 익숙하지 않은 조작을 보조할 수 있어야 하며, 디바이스 사용 중에도 자연스러운 행동을 유지할 수 있도록 디자인되어야 한다.

  • PDF