• 제목/요약/키워드: human-computer interaction

검색결과 622건 처리시간 0.026초

PERSONAL SPACE-BASED MODELING OF RELATIONSHIPS BETWEEN PEOPLE FOR NEW HUMAN-COMPUTER INTERACTION

  • Amaoka, Toshitaka;Laga, Hamid;Saito, Suguru;Nakajima, Masayuki
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.746-750
    • /
    • 2009
  • In this paper we focus on the Personal Space (PS) as a nonverbal communication concept to build a new Human Computer Interaction. The analysis of people positions with respect to their PS gives an idea on the nature of their relationship. We propose to analyze and model the PS using Computer Vision (CV), and visualize it using Computer Graphics. For this purpose, we define the PS based on four parameters: distance between people, their face orientations, age, and gender. We automatically estimate the first two parameters from image sequences using CV technology, while the two other parameters are set manually. Finally, we calculate the two-dimensional relationship of multiple persons and visualize it as 3D contours in real-time. Our method can sense and visualize invisible and unconscious PS distributions and convey the spatial relationship of users by an intuitive visual representation. The results of this paper can be used to Human Computer Interaction in public spaces.

  • PDF

Efficient Emotional Relaxation Framework with Anisotropic Features Based Dijkstra Algorithm

  • Kim, Jong-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권4호
    • /
    • pp.79-86
    • /
    • 2020
  • 본 논문에서는 비등방성 특징 기반의 다익스트라 알고리즘(Dijkstra algorithm)을 이용한 효율적인 감성 완화 프레임워크를 제안한다. 감성을 완화시키는 것은 감성 분석만큼이나 중요하며, 사람의 우울함이나 외로움을 자동으로 완화시켜줄 수 있는 프레임워크로써 인간과 컴퓨터의 상호작용(HCI, Human-Computer Interaction)측면에서도 매우 중요한 의미를 갖는다. 본 논문에서는 1) 마이크로소프트의 Emotion API를 이용하여 얼굴 표정으로부터 변화하는 감정값을 계산하고, 2) 이 감정값의 차이를 이용하여 우울이나 외로움 같은 이상 감정을 인지한다. 3) 마지막으로, 감성 히스토그램과 비등방성 특성을 고려한 감정 메시 기반의 매칭 과정을 거침으로써 사용자에게 완화된 감성이 내포된 이미지들을 제시해준다. 본 논문에서 제안하는 기법은 얼굴 영상을 이용하여 사용자가 쉽게 감성의 변화를 인지하고, 완화된 감성으로 감정을 트레이닝 할 수 있는 시스템이다.

A Cyber-Physical Information System for Smart Buildings with Collaborative Information Fusion

  • Liu, Qing;Li, Lanlan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권5호
    • /
    • pp.1516-1539
    • /
    • 2022
  • This article shows a set of physical information fusion IoT systems that we designed for smart buildings. Its essence is a computer system that combines physical quantities in buildings with quantitative analysis and control. In the part of the Internet of Things, its mechanism is controlled by a monitoring system based on sensor networks and computer-based algorithms. Based on the design idea of the agent, we have realized human-machine interaction (HMI) and machine-machine interaction (MMI). Among them, HMI is realized through human-machine interaction, while MMI is realized through embedded computing, sensors, controllers, and execution. Device and wireless communication network. This article mainly focuses on the function of wireless sensor networks and MMI in environmental monitoring. This function plays a fundamental role in building security, environmental control, HVAC, and other smart building control systems. The article not only discusses various network applications and their implementation based on agent design but also demonstrates our collaborative information fusion strategy. This strategy can provide a stable incentive method for the system through collaborative information fusion when the sensor system is unstable in the physical measurements, thereby preventing system jitter and unstable response caused by uncertain disturbances and environmental factors. This article also gives the results of the system test. The results show that through the CPS interaction of HMI and MMI, the intelligent building IoT system can achieve comprehensive monitoring, thereby providing support and expansion for advanced automation management.

Using Spatial Ontology in the Semantic Integration of Multimodal Object Manipulation in Virtual Reality

  • Irawati, Sylvia;Calderon, Daniela;Ko, Hee-Dong
    • 한국HCI학회논문지
    • /
    • 제1권1호
    • /
    • pp.9-20
    • /
    • 2006
  • This paper describes a framework for multimodal object manipulation in virtual environments. The gist of the proposed framework is the semantic integration of multimodal input using spatial ontology and user context to integrate the interpretation results from the inputs into a single one. The spatial ontology, describing the spatial relationships between objects, is used together with the current user context to solve ambiguities coming from the user's commands. These commands are used to reposition the objects in the virtual environments. We discuss how the spatial ontology is defined and used to assist the user to perform object placements in the virtual environment as it will be in the real world.

  • PDF

RGB-D 카메라를 사용한 사용자-실사물 상호작용 프레임워크 (Human-Object Interaction Framework Using RGB-D Camera)

  • 백용환;임창민;박종일
    • 방송공학회논문지
    • /
    • 제21권1호
    • /
    • pp.11-23
    • /
    • 2016
  • 터치 인터페이스는 가장 최근에 등장한 상호작용 인터페이스 중에서도 그 사용성과 응용성이 뛰어난 인터페이스이다. 기술의 발전과 더불어 터치 인터페이스는 현대 사회에서 시계에서부터 광고판까지 많은 영역에 걸쳐 빠르게 퍼져나가고 있다. 하지만 여전히 터치 상호작용은 접촉식 센서가 내장되어있는 유효한 영역 내에서만 이루어질 수 있다. 따라서 센서가 내장될 수 없는 일반적인 사물들과의 상호작용은 아직 불가능한 상황이다. 본 논문에서는 이와 같은 제약 사항을 극복하기 위해 RGB-D 카메라를 이용한 사람-사물 상호작용 프레임워크를 제안한다. 제안하는 프레임워크는 물체와 사용자의 손이 서로 가려지는 상황에서도 서로 문제없이 상호작용을 수행할 수 있는 장점을 가지고 있으며, 빠르고 크기 변화와 회전에 강인한 물체 인식 알고리즘과 윤곽 정보를 이용한 손 제스처 인식 알고리즘을 통해 실시간으로 사용자가 사물과 상호작용을 수행할 수 있다.

인간-컴퓨터 상호작용을 위한 신경망 알고리즘기반 레이저포인터 검출 (Laser pointer detection using neural network for human computer interaction)

  • 정찬웅;정성문;이민호
    • 한국산업정보학회논문지
    • /
    • 제16권1호
    • /
    • pp.21-30
    • /
    • 2011
  • 본 논문에서는 인간-컴퓨터 상호작용 시스템 구현을 위해 신경망 알고리즘을 적용하여 스크린 상의 레이저포인터를 효과적으로 검출하는 방법을 제안하였다. 제안된 신경망 알고리즘은 먼저 레이저포인터가 없는 입력 카메라 영상의 패치들을 학습시킨다. 학습된 선경망은 카메라 영상으로부터 얻은 입력 패치에 대해 출력 값을 발생시킨다. 만약 미세한 레이저빔의 변화가 입력영상에 감지되면 이를 증폭시켜 레이저 빔을 검출하는 역할을 한다. 제안된 시스템은 레이저포인터, 싼 가격의 웹캠 그리고 영상처리 프로그램으로 구현할 수 있다. 그리고 레이저포인터와 컴퓨터의 배경화면 색상이 유사한 경우에도 레이저포인터를 검출할 수 있는 장점이 있으므로 인간-컴퓨터 상호작용 시스템의 성능개선에 기여할 것이다.

Comparative Study on the Educational Use of Home Robots for Children

  • Han, Jeong-Hye;Jo, Mi-Heon;Jones, Vicki;Jo, Jun-H.
    • Journal of Information Processing Systems
    • /
    • 제4권4호
    • /
    • pp.159-168
    • /
    • 2008
  • Human-Robot Interaction (HRI), based on already well-researched Human-Computer Interaction (HCI), has been under vigorous scrutiny since recent developments in robot technology. Robots may be more successful in establishing common ground in project-based education or foreign language learning for children than in traditional media. Backed by its strong IT environment and advances in robot technology, Korea has developed the world's first available e-Learning home robot. This has demonstrated the potential for robots to be used as a new educational media - robot-learning, referred to as 'r-Learning'. Robot technology is expected to become more interactive and user-friendly than computers. Also, robots can exhibit various forms of communication such as gestures, motions and facial expressions. This study compared the effects of non-computer based (NCB) media (using a book with audiotape) and Web-Based Instruction (WBI), with the effects of Home Robot-Assisted Learning (HRL) for children. The robot gestured and spoke in English, and children could touch its monitor if it did not recognize their voice command. Compared to other learning programs, the HRL was superior in promoting and improving children's concentration, interest, and academic achievement. In addition, the children felt that a home robot was friendlier than other types of instructional media. The HRL group had longer concentration spans than the other groups, and the p-value demonstrated a significant difference in concentration among the groups. In regard to the children's interest in learning, the HRL group showed the highest level of interest, the NCB group and the WBI group came next in order. Also, academic achievement was the highest in the HRL group, followed by the WBI group and the NCB group respectively. However, a significant difference was also found in the children's academic achievement among the groups. These results suggest that home robots are more effective as regards children's learning concentration, learning interest and academic achievement than other types of instructional media (such as: books with audiotape and WBI) for English as a foreign language.

한국 전통춤의 전승 및 보급을 위한 이러닝 시스템에 관한 연구 (A Study on E-Learning System of Korean Traditional Dance for Transmission and Dissemination)

  • 이종욱;이지현
    • 한국HCI학회논문지
    • /
    • 제12권3호
    • /
    • pp.5-11
    • /
    • 2017
  • 한국 전통춤은 인류의 문화적 자산으로 문화적 활용가치를 가지고 있지만 전수희망자의 부족과 대중적인 무관심으로 소멸의 위기에 처해 있다. 네트워크 기술과 영상매체 기술을 활용한 전통춤의 이러닝(E-Learning)은 위에서 제기한 문제점들을 해결하기 위한 방법이 될 수 있다. 이 연구는 전통춤 교육에 활용될 수 있는 이러닝 교육과정 및 실시간 이러닝 교육시스템들을 제안하였다. 시스템들은 일반인을 대상으로 HCI(Human Computer Interaction) 사용자 평가법에 따라 비교평가하고 피드백 및 교육경험 인터뷰를 실시하였다. 본 연구는 전통춤의 실시간 이러닝 교육시스템을 제안함으로써 공간적 제약을 극복하고 새로운 매체 경험을 통해 무형문화재로서 전통춤을 전승, 보급하는데 기여할 수 있다.

컴퓨터 비전 기술을 활용한 관객의 움직임과 상호작용이 가능한 실시간 파티클 아트 (Real-time Interactive Particle-art with Human Motion Based on Computer Vision Techniques)

  • 조익현;박거태;정순기
    • 한국멀티미디어학회논문지
    • /
    • 제21권1호
    • /
    • pp.51-60
    • /
    • 2018
  • We present a real-time interactive particle-art with human motion based on computer vision techniques. We used computer vision techniques to reduce the number of equipments that required for media art appreciations. We analyze pros and cons of various computer vision methods that can adapted to interactive digital media art. In our system, background subtraction is applied to search an audience. The audience image is changed into particles with grid cells. Optical flow is used to detect the motion of the audience and create particle effects. Also we define a virtual button for interaction. This paper introduces a series of computer vision modules to build the interactive digital media art contents which can be easily configurated with a camera sensor.

멀티터치를 위한 테이블-탑 디스플레이 기술 동향 (Survey: Tabletop Display Techniques for Multi-Touch Recognition)

  • 김송국;이칠우
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.84-91
    • /
    • 2007
  • 최근에 인간과 컴퓨터 상호작용을 위한 사용자 의도 및 행위 인식에 관한 비전 기반 연구가 활발히 진행되고 있다. 그 중에서도 테이블-탑 디스플레이 시스템은 터치 감지 기술의 발전, 협력적인 작업 추구에 발맞추어 다양한 응용으로 발전하였다. 이전의 테이블-탑 디스플레이는 오직 한 명의 사용자만을 지원하였으나 현재에는 멀티터치를 통한 멀티유저를 지원하게 되었다. 따라서 테이블-탑 디스플레이의 궁극적인 목적인 협력적인 작업과 네 가지 원소 (인간, 컴퓨터, 투영된 객체, 물리적 객체) 의 상호작용이 실현 가능하게 되었다. 일반적으로 테이블-탑 디스플레이 시스템은 다음의 네 가지 측면; 맨 손을 이용한 멀티 터치 상호작용, 동시적인 사용자 상호작용을 통한 협력적인 작업의 구현, 임의의 위치 터치를 이용한 정보 조작, 상호작용의 도구로서 물리적인 객체의 사용을 중심으로 설계되어 있다. 본 논문에서는 테이블-탑 디스플레이 시스템을 위한 최첨단의 멀티터치 센싱 기술을 시각기반 방법, 비-시각 기반 방법으로 분류하고 비판적인 견해에서 분석을 하였다. 또한 테이블-탑 디스플레이 관련 연구들을 시스템 구성방식에 따라 분류하고 그 장단점과 실제 사용되는 응용 분야에 대해 기술하였다.