• 제목/요약/키워드: human computer interface & interaction

검색결과 157건 처리시간 0.026초

W3C 기반 상호연동 가능한 멀티모달 커뮤니케이터 (W3C based Interoperable Multimodal Communicator)

  • 박대민;권대혁;최진혁;이인재;최해철
    • 방송공학회논문지
    • /
    • 제20권1호
    • /
    • pp.140-152
    • /
    • 2015
  • 최근 사용자와 컴퓨터간의 양방향 상호작용을 가능하게 하는 HCI(Human Computer Interaction) 연구를 위해 인간의 의사소통 체계와 유사한 인터페이스 기술들이 개발되고 있다. 이러한 인간과의 의사소통 과정에서 사용되는 커뮤니케이션 채널을 모달리티라고 부르며, 다양한 단말기 및 서비스 환경에 따라 최적의 사용자 인터페이스를 제공하기 위해서 두 개 이상의 모달리티를 활용하는 멀티모달 인터페이스가 활발히 연구되고 있다. 하지만, 멀티모달 인터페이스를 사용하기에는 각각의 모달리티가 갖는 정보 형식이 서로 상이하기 때문에 상호 연동이 어려우며 상호 보완적인 성능을 발휘하는데 한계가 있다. 이에 따라 본 논문은 W3C(World Wide Web Consortium)의 EMMA(Extensible Multimodal Annotation Markup language)와 MMI(Multimodal Interaction Framework)표준에 기반하여 복수의 모달리티를 상호연동할 수 있는 멀티모달 커뮤니케이터를 제안한다. 멀티모달 커뮤니케이터는 W3C 표준에 포함된 MC(Modality Component), IM(Interaction Manager), PC(Presentation Component)로 구성되며 국제 표준에 기반하여 설계하였기 때문에 다양한 모달리티의 수용 및 확장이 용이하다. 실험에서는 시선 추적과 동작 인식 모달리티를 이용하여 지도 탐색 시나리오에 멀티모달 커뮤니케이터를 적용한 사례를 제시한다.

중력에 기반한 자연스러운 사용자 인터페이스 (Natural User Interface with Self-righting Feature using Gravity)

  • 김승찬;임종관;안드레아 뱐키;구성용;권동수
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.384-389
    • /
    • 2009
  • 일반적으로 사용자의 동작 정보는 human-computer interaction 에 유용하게 사용되는데, 이때 사용자의 의도 파악은 주로 움직임의 가속도 정보를 통해 분석된다. 그러나 일반적인 사람의 움직임은 등속 운동 및 미미한 가속도를 수반하는 경우가 많아 기존의 접근 방식으로는 사용자의 모든 움직임을 검출하기 어려운 단점이 있으며, 경우에 따라서는 부자연스러운 움직임을 유발시키기도 한다. 본 논문에서는 이러한 문제를 해결하기 위해 자연스러운 interaction 을 위한 새로운 인터페이스 방식을 제안하고 이의 활용방안에 대해 논의한다. 제안된 시스템은 중력을 기구부의 복원력으로 활용하여, 초기화와 같은 가속도계 기반의 IMU 의 공통적인 문제를 해결하고 또한 비교적 간단한 움직임으로도 다양한 신호 패턴을 생성시킬 수 있도록 하는 것에 그 목적을 둔다.

  • PDF

생체정보를 이용한 지능형 감성 추천시스템에 관한 연구 (A Study on Intelligent Emotional Recommendation System Using Biological Information)

  • 김태연
    • 한국정보전자통신기술학회논문지
    • /
    • 제14권3호
    • /
    • pp.215-222
    • /
    • 2021
  • 인간과 컴퓨터의 상호 작용 (Human Computer Interface) 기술의 중요성이 더욱 커지고 있으며 HCI에 대한 연구가 진행됨에 따라 사용자의 직접적인 입력에 의한 컴퓨터 반응이 아닌 감정 추론 혹은 사용자 의도에 따른 컴퓨터 반응에 대한 연구가 증가되고 있다. 스트레스는 현대 인간 문명사회에서의 피할 수 없는 결과이며 복잡한 현상을 나타내며 통제 유무에 따라 인간의 활동능력은 심각한 변화를 받을 수 있다. 본 논문에서는 인간과 컴퓨터의 상호 작용의 일환으로 스트레스를 통해 증가된 심박변이도 (HRV)와 가속도 맥파(APG)를 측정한 후 스트레스를 완화시키기 위한 방안으로 음악을 이용한 지능형 감성 추천시스템을 제안하고자 한다. 사용자의 생체정보 즉, 스트레스 지수를 획득 및 인식하여 신뢰성 있는 데이터를 추출하고자 차분진화 알고리즘을 사용하였으며 이렇게 획득된 스트레스 지수를 단계별에 따라 시멘틱 웹 (Semantic Web)을 통해 감성추론을 하였다. 또한 스트레스 지수와 감성의 변화에 매칭 되는 음악 리스트를 검색 및 추천함으로써 사용자의 생체정보에 맞는 감성 추천시스템을 애플리케이션으로 구현하였다.

A Long-Range Touch Interface for Interaction with Smart TVs

  • Lee, Jaeyeon;Kim, DoHyung;Kim, Jaehong;Cho, Jae-Il;Sohn, Joochan
    • ETRI Journal
    • /
    • 제34권6호
    • /
    • pp.932-941
    • /
    • 2012
  • A powerful interaction mechanism is one of the key elements for the success of smart TVs, which demand far more complex interactions than traditional TVs. This paper proposes a novel interface based on the famous touch interaction model but utilizes long-range bare hand tracking to emulate touch actions. To satisfy the essential requirements of high accuracy and immediate response, the proposed hand tracking algorithm adopts a fast color-based tracker but with modifications to avoid the problems inherent to those algorithms. By using online modeling and motion information, the sensitivity to the environment can be greatly decreased. Furthermore, several ideas to solve the problems often encountered by users interacting with smart TVs are proposed, resulting in a very robust hand tracking algorithm that works superbly, even for users with sleeveless clothing. In addition, the proposed algorithm runs at a very high speed of 82.73 Hz. The proposed interface is confirmed to comfortably support most touch operations, such as clicks, swipes, and drags, at a distance of three meters, which makes the proposed interface a good candidate for interaction with smart TVs.

Study on Gesture and Voice-based Interaction in Perspective of a Presentation Support Tool

  • Ha, Sang-Ho;Park, So-Young;Hong, Hye-Soo;Kim, Nam-Hun
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.593-599
    • /
    • 2012
  • Objective: This study aims to implement a non-contact gesture-based interface for presentation purposes and to analyze the effect of the proposed interface as information transfer assisted device. Background: Recently, research on control device using gesture recognition or speech recognition is being conducted with rapid technological growth in UI/UX area and appearance of smart service products which requires a new human-machine interface. However, few quantitative researches on practical effects of the new interface type have been done relatively, while activities on system implementation are very popular. Method: The system presented in this study is implemented with KINECT$^{(R)}$ sensor offered by Microsoft Corporation. To investigate whether the proposed system is effective as a presentation support tool or not, we conduct experiments by giving several lectures to 40 participants in both a traditional lecture room(keyboard-based presentation control) and a non-contact gesture-based lecture room(KINECT-based presentation control), evaluating their interests and immersion based on contents of the lecture and lecturing methods, and analyzing their understanding about contents of the lecture. Result: We check that whether the gesture-based presentation system can play effective role as presentation supporting tools or not depending on the level of difficulty of contents using ANOVA. Conclusion: We check that a non-contact gesture-based interface is a meaningful tool as a sportive device when delivering easy and simple information. However, the effect can vary with the contents and the level of difficulty of information provided. Application: The results presented in this paper might help to design a new human-machine(computer) interface for communication support tools.

A Biosignal-Based Human Interface Controlling a Power-Wheelchair for People with Motor Disabilities

  • Kim, Ki-Hong;Kim, Hong-Kee;Kim, Jong-Sung;Son, Wook-Ho;Lee, Soo-Young
    • ETRI Journal
    • /
    • 제28권1호
    • /
    • pp.111-114
    • /
    • 2006
  • An alternative human interface enabling people with severe motor disabilities to control an assistive system is presented. Since this interface relies on the biosignals originating from the contraction of muscles on the face during particular movements, even individuals with a paralyzed limb can use it with ease. For real-world application, a dedicated hardware module employing a general-purpose digital signal processor was implemented and its validity tested on an electrically powered wheelchair. Furthermore, an additional attempt to reduce error rates to a minimum for stable operation was also made based on the entropy information inherent in the signals during the classification phase. In the experiments, most of the five participating subjects could control the target system at their own will, and thus it is found that the proposed interface can be considered a potential alternative for the interaction of the severely disabled with electronic systems.

  • PDF

A Development of Gesture Interfaces using Spatial Context Information

  • Kwon, Doo-Young;Bae, Ki-Tae
    • International Journal of Contents
    • /
    • 제7권1호
    • /
    • pp.29-36
    • /
    • 2011
  • Gestures have been employed for human computer interaction to build more natural interface in new computational environments. In this paper, we describe our approach to develop a gesture interface using spatial context information. The proposed gesture interface recognizes a system action (e.g. commands) by integrating gesture information with spatial context information within a probabilistic framework. Two ontologies of spatial contexts are introduced based on the spatial information of gestures: gesture volume and gesture target. Prototype applications are developed using a smart environment scenario that a user can interact with digital information embedded to physical objects using gestures.

촉감 사용자 인터페이스를 이용한 촉감 모델러 (Haptic Modeler using Haptic User Interface)

  • 차종은;;김영미;김종필;이범찬;서용원;류제하
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.1031-1036
    • /
    • 2006
  • 햅틱 분야는 디스플레이 되는 콘텐츠를 만질 수 있게 촉감을 제공함으로써 의학, 교육, 군사, 방송 분야 등에서 널리 연구되고 있다. 이미 의학 분야에서는 Reachin 사(社)의 복강경 수술 훈련 소프트웨어와 같이 실제 수술 할 때와 같은 힘을 느끼면서 수술 과정을 훈련할 수 있는 제품이 상용화 되어 있다. 그러나 햅틱 분야가 사용자에게 시청각 정보와 더불어 추가적인 촉감을 제공함으로써 보다 실감 있고 자연스러운 상호작용을 제공하는 장점을 가진 것에 비해 아직은 일반 사용자들에게 생소한 분야다. 그 이유 중 하나로 촉감 상호작용이 가능한 콘텐츠의 부재를 들 수 있다. 일반적으로 촉감 콘텐츠는 컴퓨터 그래픽스 모델로 이루어져 있어 일반 그래픽 모델러를 사용하여 콘텐츠를 생성하나 촉감과 관련된 정보는 콘텐츠를 생성하고 나서 파일에 수작업으로 넣어주거나 각각의 어플리케이션마다 직접 프로그램을 해주어야 한다. 이는 그래픽 모델링과 촉감 모델링이 동시에 진행되지 않기 때문에 발생하는 문제로 촉감 콘텐츠를 만드는데 시간이 많이 소요되고 촉감 정보를 추가하는 작업이 직관적이지 못하다. 그래픽 모델링의 경우 눈으로 보면서 콘텐츠를 손으로 조작할 수 있으나 촉감 모델링의 경우 손으로 촉감을 느끼면서 동시에 조작도 해야 하기 때문에 이에 따른 인터페이스가 필요하다. 본 논문에서는 촉감 상호작용이 가능한 촉감 콘텐츠를 직관적으로 생성하고 조작할 수 있게 하는 촉감 모델러를 기술한다. 촉감 모델러에서 사용자는 3 자유도 촉감 장치를 사용하여 3 차원의 콘텐츠를 실시간으로 만져보면서 생성, 조작할 수 있고 촉감 사용자 인터페이스를 통해서 콘텐츠의 표면 촉감 특성을 직관적으로 편집할 수 있다. 촉감 사용자 인터페이스는 마우스로 조작하는 기존의 2차원 그래픽 사용자 인터페이스와는 다르게 3 차원으로 구성되어 있고 촉감 장치로 조작할 수 있는 버튼, 라디오 버튼, 슬라이더, 조이스틱의 구성요소로 이루어져 있다. 사용자는 각각의 구성요소를 조작하여 콘텐츠의 표면 촉감 특성 값을 바꾸고 촉감 사용자 인터페이스의 한 부분을 만져 그 촉감을 실시간으로 느껴봄으로써 직관적으로 특성 값을 정할 수 있다. 또한, XML 기반의 파일 포맷을 제공함으로써 생성된 콘텐츠를 저장할 수 있고 저장된 콘텐츠를 불러오거나 다른 콘텐츠에 추가할 수 있다.

  • PDF

휴먼-로봇 인터페이스를 위한 TTS의 개발 (Development of TTS for a Human-Robot Interface)

  • 배재현;오영환
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2006년도 춘계 학술대회 발표논문집
    • /
    • pp.135-138
    • /
    • 2006
  • The communication method between human and robot is one of the important parts for a human-robot interaction. And speech is easy and intuitive communication method for human-being. By using speech as a communication method for robot, we can use robot as familiar way. In this paper, we developed TTS for human-robot interaction. Synthesis algorithms were modified for an efficient utilization of restricted resource in robot. And synthesis database were reconstructed for an efficiency. As a result, we could reduce the computation time with slight degradation of the speech quality.

  • PDF