• Title/Summary/Keyword: human-computer interaction

검색결과 622건 처리시간 0.03초

유비쿼터스 환경과 상호작용을 위한 착용형 도움 슈트 개발 (Development of Wearable Assistance Suite for Interaction with Ubiquitous Environment)

  • 서용호;한태우
    • 한국인터넷방송통신학회논문지
    • /
    • 제9권5호
    • /
    • pp.93-99
    • /
    • 2009
  • 일상생활의 상황을 이해하고 다양한 전자매체들과 지능적으로 의사소통할 수 있는 착용형 컴퓨터가 유비쿼터스 환경에서 사용자를 위한 에이전트로서 매우 유용할 것이다. 본 논문에서는 유비쿼터스 컴퓨팅 환경에서 사용자가 다양한 정보 에이전트들과 상호작용할 수 있는 새로운 형태의 컴퓨팅 시스템으로서 착용형 도움 슈트를 제안한다. 개발된 시스템은 사용자가 사용하거나 통신하기를 원하는 상호작용형 전자매체를 자동으로 감지할 수 있다. 이러한 상호작용 능력을 활용하여 사용자와 각각의 매체들을 중재하고 이 시스템을 착용하고 있는 사용자에게 친숙한 인터페이스를 제공한다. 또한 유비쿼터스 환경에서 상호작용형 전자매체들과 상호작용하는 모습을 연출함으로써 제안된 시스템의 사용법을 설명한다.

  • PDF

얼굴영상과 음성을 이용한 멀티모달 감정인식 (Multimodal Emotion Recognition using Face Image and Speech)

  • 이현구;김동주
    • 디지털산업정보학회논문지
    • /
    • 제8권1호
    • /
    • pp.29-40
    • /
    • 2012
  • A challenging research issue that has been one of growing importance to those working in human-computer interaction are to endow a machine with an emotional intelligence. Thus, emotion recognition technology plays an important role in the research area of human-computer interaction, and it allows a more natural and more human-like communication between human and computer. In this paper, we propose the multimodal emotion recognition system using face and speech to improve recognition performance. The distance measurement of the face-based emotion recognition is calculated by 2D-PCA of MCS-LBP image and nearest neighbor classifier, and also the likelihood measurement is obtained by Gaussian mixture model algorithm based on pitch and mel-frequency cepstral coefficient features in speech-based emotion recognition. The individual matching scores obtained from face and speech are combined using a weighted-summation operation, and the fused-score is utilized to classify the human emotion. Through experimental results, the proposed method exhibits improved recognition accuracy of about 11.25% to 19.75% when compared to the most uni-modal approach. From these results, we confirmed that the proposed approach achieved a significant performance improvement and the proposed method was very effective.

모바일 기기를 통한 지능형 로봇의 인간-로봇 상호작용 (Human-Robot Interaction by Mobile Device for Intelligence Robot)

  • 최병기;곽별샘;박춘성;이재호
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2010년도 한국컴퓨터종합학술대회논문집 Vol.37 No.1(B)
    • /
    • pp.43-46
    • /
    • 2010
  • 지능형 로봇의 인간-로봇 상호작용(Human-Robot Interaction)은 현재 세계적으로 주목받는 연구 분야 중 하나이다. 이 논문에서는 지능형 로봇의 작업 완결성을 높이기 위한 방편의 일환으로 사용자에게 작업 내용을 공개하고, 문제 발생 시 사용자의 개입을 유도하는 형태의 인간-로봇 상호작용을 제안한다. 이러한 형태의 서비스는 지능형 로봇이 작업 수행 중 필요한 경우 사용자의 선택 통해 예상치 못한 상황에 대해 유연한 대처를 할 수 있으며, 동시에 로봇의 현재 상황을 사용자가 확인할 수 있도록 하는 수단을 제공한다. 이를 위해 이 논문은 Android 플랫폼과 로봇 간의 로봇-사용자 정보교환을 구현하고, 나아가 범용적이고 일반적인 인간-로봇 상호작용을 위한 연구방향을 제시하고자 한다.

  • PDF

Fine-Motion Estimation Using Ego/Exo-Cameras

  • Uhm, Taeyoung;Ryu, Minsoo;Park, Jong-Il
    • ETRI Journal
    • /
    • 제37권4호
    • /
    • pp.766-771
    • /
    • 2015
  • Robust motion estimation for human-computer interactions played an important role in a novel method of interaction with electronic devices. Existing pose estimation using a monocular camera employs either ego-motion or exo-motion, both of which are not sufficiently accurate for estimating fine motion due to the motion ambiguity of rotation and translation. This paper presents a hybrid vision-based pose estimation method for fine-motion estimation that is specifically capable of extracting human body motion accurately. The method uses an ego-camera attached to a point of interest and exo-cameras located in the immediate surroundings of the point of interest. The exo-cameras can easily track the exact position of the point of interest by triangulation. Once the position is given, the ego-camera can accurately obtain the point of interest's orientation. In this way, any ambiguity between rotation and translation is eliminated and the exact motion of a target point (that is, ego-camera) can then be obtained. The proposed method is expected to provide a practical solution for robustly estimating fine motion in a non-contact manner, such as in interactive games that are designed for special purposes (for example, remote rehabilitation care systems).

생체정보를 이용한 지능형 감성 추천시스템에 관한 연구 (A Study on Intelligent Emotional Recommendation System Using Biological Information)

  • 김태연
    • 한국정보전자통신기술학회논문지
    • /
    • 제14권3호
    • /
    • pp.215-222
    • /
    • 2021
  • 인간과 컴퓨터의 상호 작용 (Human Computer Interface) 기술의 중요성이 더욱 커지고 있으며 HCI에 대한 연구가 진행됨에 따라 사용자의 직접적인 입력에 의한 컴퓨터 반응이 아닌 감정 추론 혹은 사용자 의도에 따른 컴퓨터 반응에 대한 연구가 증가되고 있다. 스트레스는 현대 인간 문명사회에서의 피할 수 없는 결과이며 복잡한 현상을 나타내며 통제 유무에 따라 인간의 활동능력은 심각한 변화를 받을 수 있다. 본 논문에서는 인간과 컴퓨터의 상호 작용의 일환으로 스트레스를 통해 증가된 심박변이도 (HRV)와 가속도 맥파(APG)를 측정한 후 스트레스를 완화시키기 위한 방안으로 음악을 이용한 지능형 감성 추천시스템을 제안하고자 한다. 사용자의 생체정보 즉, 스트레스 지수를 획득 및 인식하여 신뢰성 있는 데이터를 추출하고자 차분진화 알고리즘을 사용하였으며 이렇게 획득된 스트레스 지수를 단계별에 따라 시멘틱 웹 (Semantic Web)을 통해 감성추론을 하였다. 또한 스트레스 지수와 감성의 변화에 매칭 되는 음악 리스트를 검색 및 추천함으로써 사용자의 생체정보에 맞는 감성 추천시스템을 애플리케이션으로 구현하였다.

A Memory-efficient Hand Segmentation Architecture for Hand Gesture Recognition in Low-power Mobile Devices

  • Choi, Sungpill;Park, Seongwook;Yoo, Hoi-Jun
    • JSTS:Journal of Semiconductor Technology and Science
    • /
    • 제17권3호
    • /
    • pp.473-482
    • /
    • 2017
  • Hand gesture recognition is regarded as new Human Computer Interaction (HCI) technologies for the next generation of mobile devices. Previous hand gesture implementation requires a large memory and computation power for hand segmentation, which fails to give real-time interaction with mobile devices to users. Therefore, in this paper, we presents a low latency and memory-efficient hand segmentation architecture for natural hand gesture recognition. To obtain both high memory-efficiency and low latency, we propose a streaming hand contour tracing unit and a fast contour filling unit. As a result, it achieves 7.14 ms latency with only 34.8 KB on-chip memory, which are 1.65 times less latency and 1.68 times less on-chip memory, respectively, compare to the best-in-class.

컴퓨터 인터페이스를 위한 Hand Gesture 인식에 관한 연구 (A Study of Hand Gesture Recognition for Human Computer Interface)

  • 장호정;백한욱;정진현
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2000년도 하계학술대회 논문집 D
    • /
    • pp.3041-3043
    • /
    • 2000
  • GUI(graphical user interface) has been the dominant platform for HCI(human computer interaction). The GUI-based style of interaction has made computers simpler and easier to use. However GUI will not easily support the range of interaction necessary to meet users' needs that are natural, intuitive, and adaptive. In this paper we study an approach to track a hand in an image sequence and recognize it, in each video frame for replacing the mouse as a pointing device to virtual reality. An algorithm for real time processing is proposed by estimating of the position of the hand and segmentation, considering the orientation of motion and color distribution of hand region.

  • PDF

Human Posture Recognition: Methodology and Implementation

  • Htike, Kyaw Kyaw;Khalifa, Othman O.
    • Journal of Electrical Engineering and Technology
    • /
    • 제10권4호
    • /
    • pp.1910-1914
    • /
    • 2015
  • Human posture recognition is an attractive and challenging topic in computer vision due to its promising applications in the areas of personal health care, environmental awareness, human-computer-interaction and surveillance systems. Human posture recognition in video sequences consists of two stages: the first stage is training and evaluation and the second is deployment. In the first stage, the system is trained and evaluated using datasets of human postures to ‘teach’ the system to classify human postures for any future inputs. When the training and evaluation process is deemed satisfactory as measured by recognition rates, the trained system is then deployed to recognize human postures in any input video sequence. Different classifiers were used in the training such as Multilayer Perceptron Feedforward Neural networks, Self-Organizing Maps, Fuzzy C Means and K Means. Results show that supervised learning classifiers tend to perform better than unsupervised classifiers for the case of human posture recognition.

재미를 위한 HCI -HCI 관점에서의 재미있는 경험에 대한 개념적 연구- (Fun-centered HCI -Investigating the concept of Fun in Human-Computer Interaction-)

  • 윤지은;김진우;이인성;최동성
    • 한국HCI학회논문지
    • /
    • 제1권1호
    • /
    • pp.63-71
    • /
    • 2006
  • 지난 몇 년 동안 인간과 컴퓨터의 상호 작용(Human Computer Interaction: HCI)에서 사용성(Usability)은 중요한 연구 주제가 되어 왔다. 하지만, 최근 컴퓨터 게임과 같은 유희적인 시스템이 발전하면서, 사용자들의 경험은 유용성과 사용성이 아닌 재미(Fun)와 같은 유희적인 요소들에 초점을 맞추게 되었다. 하지만, 인간과 컴퓨터의 상호작용을 통해서 사용자가 얻는 재미와 재미있는 경험에 대한 연구는 매우 부족한 실정이다. 따라서 본 연구는 컴퓨터 와 같은 디지털 기기를 사용함으로서 사용자가 얻는 재미와 재미있는 경험에 대하여 개념적으로 고찰하고자 하였다. 기존 문헌 조사를 본 연구는 "재미란, 유희 충동에 의해서 놀이 활동을 함으로써 얻을 수 있는 긍정적인 심리 에너지이다" 라는 정의를 내릴 수 있었다. 또한, 본 연구는 "활동 자체를 질서 없이 자유롭게 즐기며, 흥겨움을 느끼는" 재미있는 경험의 내용을 기반으로, 재미있는 경험을 제공하기 위해서 유희적인 시스템이 갖추어야 할 세 가지 요소로서 "상징, 생생함, 새로움"을 제시하였다.

  • PDF

Agent Mobility in Human Robot Interaction

  • Nguyen, To Dong;Oh, Sang-Rok;You, Bum-Jae
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 제36회 하계학술대회 논문집 D
    • /
    • pp.2771-2773
    • /
    • 2005
  • In network human-robot interaction, human can access services of a robot system through the network The communication is done by interacting with the distributed sensors via voice, gestures or by using user network access device such as computer, PDA. The service organization and exploration is very important for this distributed system. In this paper we propose a new agent-based framework to integrate partners of this distributed system together and help users to explore the service effectively without complicated configuration. Our system consists of several robots. users and distributed sensors. These partners are connected in a decentralized but centralized control system using agent-based technology. Several experiments are conducted successfully using our framework The experiments show that this framework is good in term of increasing the availability of the system, reducing the time users and robots needs to connect to the network at the same time. The framework also provides some coordination methods for the human robot interaction system.

  • PDF