• 제목/요약/키워드: Human-Computer Interaction

검색결과 621건 처리시간 0.035초

고객 충성도(Customer Loyalty)에 영향을 미치는 온라인 게임의 중요 요소에 대한 LISREL 모델 분석 (A Structured Analysis Model of Customer Loyalty in Online Games)

  • 최동성;박성준;김진우
    • Asia pacific journal of information systems
    • /
    • 제11권3호
    • /
    • pp.1-21
    • /
    • 2001
  • In recent years, the market for online computer games has become an important part in the entertainment industry. New online games have been introduced every month and the numbers of game players who are playing online games have grown rapidly. However, only a few online games have been successful in making a good profit among many online games. Why are most players playing only a few online games repeatedly? To answer the question, this research focuses on the customer loyalty and their optimal experience(flow) in playing specific online games. This research hypothesizes that customer loyalty for specific online game can be increased by customers' optimal experience(flow) in playing it, and they would feel optimal experience because of mechanic and social interaction in online games. In order to validate the hypothesis, this research analyzes online survey data of players of various online games. According to this survey results, players' optimal experience is affected by their mechanic interaction between a player and an online game system, and their social interaction with other players who participated in the online game. And their optimal experience during playing the online game affects the degree of customer loyalty to the game. This paper ends with conclusions of the survey results and study limits.

  • PDF

휴먼/로봇 인터페이스 연구동향 분석 (Trends on Human/Robot Interface Research)

  • 임창주;임치환
    • 대한인간공학회지
    • /
    • 제21권2호
    • /
    • pp.101-111
    • /
    • 2002
  • An intelligent robot, which has been developed recently, is no more a conventional robot widely known as an industrial robot. It is a computer system embedded in a machine and utilizes the machine as a medium not only for the communication between the human and the computer but also for the physical interaction among the human, the computer and their environment. Recent advances in computer technology have made it possible to create several of new types of human-computer interaction which are realized by utilizing intelligent machines. There is a continuing need for better understanding of how to design human/robot interface(HRI) to make for a more natural and efficient flow of information and feedback between robot systems and their users in both directions. In this paper, we explain the concept and the scope of HRI and review the current research trends of domestic and foreign HRL. The recommended research directions in the near future are also discussed based upon a comparative study of domestic and foreign HRI technology.

그림모델과 파티클필터를 이용한 인간 정면 상반신 포즈 인식 (Pictorial Model of Upper Body based Pose Recognition and Particle Filter Tracking)

  • 오치민;;김민욱;이칠우
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.186-192
    • /
    • 2009
  • 본 논문은 비전을 이용한 인간 정면 상반신 포즈를 인식 방법에 대해서 기술한다. 일반적으로 HCI(Human Computer Interaction)와 HRI(Human Robot Interaction)에서는 인간이 정면을 바라볼 때 얼굴, 손짓으로 의사소통 하는 경우가 많기 때문에 본 논문에서는 인식의 범위를 인간의 정면 그리고 상반신에 대해서만 한정한다. 인간 포즈인식의 주요 두 가지 어려움은 첫째 인간은 다양한 관절로 이루어진 객체이기 때문에 포즈의 자유도가 높은 문제점 때문에 모델링이 어렵다는 것이다. 둘째는 모델링된 정보와 영상과의 매칭이 어려운 것이다. 이를 해결하기 위해 본 논문에서는 모델링이 쉬운 그림모델(Pictorial Model)을 이용해 인체를 다수 사각형 파트로 모델링 하였고 이를 이용해 주요한 상반신 포즈를 DB화 해 인식한다. DB 포즈로 표현되지 못하는 세부포즈는 인식된 주요 포즈 파라미터로 부터 파티클필터를 이용해 예측한 다수 파티클로부터 가장 높은 사후분포를 갖는 파티클을 찾아 주요 포즈를 업데이트하여 결정한다. 따라서 주요한 포즈 인식과 이를 기반으로 한 세부 포즈를 추적하는 두 단계를 통해 인체 정면 상반신 포즈를 정확하게 인식 할 수 있다.

  • PDF

Using Spatial Ontology in the Semantic Integration of Multimodal Object Manipulation in Virtual Reality

  • Irawati, Sylvia;Calderon, Daniela;Ko, Hee-Dong
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.884-892
    • /
    • 2006
  • This paper describes a framework for multimodal object manipulation in virtual environments. The gist of the proposed framework is the semantic integration of multimodal input using spatial ontology and user context to integrate the interpretation results from the inputs into a single one. The spatial ontology, describing the spatial relationships between objects, is used together with the current user context to solve ambiguities coming from the user's commands. These commands are used to reposition the objects in the virtual environments. We discuss how the spatial ontology is defined and used to assist the user to perform object placements in the virtual environment as it will be in the real world.

  • PDF

Brain-Computer Interface 기반 인간-로봇상호작용 플랫폼 (A Brain-Computer Interface Based Human-Robot Interaction Platform)

  • 윤중선
    • 한국산학기술학회논문지
    • /
    • 제16권11호
    • /
    • pp.7508-7512
    • /
    • 2015
  • 뇌파로 의도를 접속하여 기계를 작동하는 뇌-기기 접속(Brain-Computer Interface, BCI) 기반의 인간-로봇상호작용(Human-Robot Interaction, HRI) 플랫폼을 제안한다. 사람의 뇌파로 의도를 포착하고 포착된 뇌파 신호에서 의도를 추출하거나 연관시키고 추출된 의도로 기기를 작동하게 하는 포착, 처리, 실행을 수행하는 플랫폼의 설계, 운용 및 구현 과정을 소개한다. 제안된 플랫폼의 구현 사례로 처리기에 구현된 상호작용 게임과 처리기를 통한 외부 장치 제어가 기술되었다. BCI 기반 플랫폼의 의도와 감지 사이의 신뢰성을 확보하기 위한 다양한 시도들을 소개한다. 제안된 플랫폼과 구현 사례는 BCI 기반의 새로운 기기 제어 작동 방식의 실현으로 확장될 것으로 기대된다.

홈네트워크 시스템상에서 상황인식을 위한 HIML(Human Interaction Markup Language) 미들웨어 (HIML(Human Interaction Markup Language) Middleware for Context Awareness in Home Network)

  • 김준형;손민우;신동규;신동일
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 가을 학술발표논문집 Vol.33 No.2 (B)
    • /
    • pp.38-43
    • /
    • 2006
  • 유비쿼터스 컴퓨팅 환경이 발달하면서 홈네트워크 환경의 사용자 상황을 쉽게 인식하고 사용자의 상황 정보에 따라 좀 더 지능적인 서비스를 제공 할 수 있게 되었다. 지능적 서비스를 효과적으로 구현하기 위해서는 상황 정보를 객관적으로 표현할 수 있어야 한다. 상황 정보는 개체의 상황을 특성화 하는데 사용 될 수 있는 정보를 의미한다. 본 논문에서는 홈네트워크 서비스를 효과적으로 제공하기 위하여 상태 정보를 User context, Device context, Proximity(유저와 장치간의 거리) context로 분류하고, 그 상황 정보를 효과적으로 표현할 수 있는 XML기반의 HIML(Human Interaction Markup Language)을 설계하였다. 또한 설계된 HIML 문서를 통해 다양한 플랫폼에서 작동하고, 여러 가전기기와 센서장비들의 상호작용이 가능하게 하는 미들웨어를 설계하고 그 기능을 실험하였다.

  • PDF

Tactile Sensation Display with Electrotactile Interface

  • Yarimaga, Oktay;Lee, Jun-Hun;Lee, Beom-Chan;Ryu, Je-Ha
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.145-150
    • /
    • 2005
  • This paper presents an Electrotactile Display System (ETCS). One of the most important human sensory systems for human computer interaction is the sense of touch, which can be displayed to human through tactile output devices. To realize the sense of touch, electrotactile display produces controlled, localized touch sensation on the skin by passing small electric current. In electrotactile stimulation, the mechanoreceptors in the skin may be stimulated individually in order to display the sense of vibration, touch, itch, tingle, pressure etc. on the finger, palm, arm or any suitable location of the body by using appropriate electrodes and waveforms. We developed an ETCS and investigated effectiveness of the proposed system in terms of the perception of roughness of a surface by stimulating the palmar side of hand with different waveforms and the perception of direction and location information through forearm. Positive and negative pulse trains were tested with different current intensities and electrode switching times on the forearm or finger of the user with an electrode-embedded armband in order to investigate how subjects recognize displayed patterns and directions of stimulation.

  • PDF

지능형 로봇을 위한 인간-컴퓨터 상호작용(HCI) 연구동향 (Human-Computer Interaction Survey for Intelligent Robot)

  • 홍석주;이칠우
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 추계 종합학술대회 논문집
    • /
    • pp.507-511
    • /
    • 2006
  • 지능형 로봇이란 인간과 비슷하게 시각, 청각 등의 감각기관을 기반으로 자율적으로 판단하고 행동하는 독립적 자율구동 시스템을 말한다. 인간은 언어 이외에도 제스처와 같은 비언어적 수단을 이용하여 의사소통을 하며, 이러한 비언어적 의사소통 수단을 로봇이 이해한다면, 로봇은 인간과 보다 친숙한 대상이 될 수 있을 것이다. 이러한 요구에 의해 얼굴인식, 제스처 인식을 비롯한 HCI(Human-Computer Interaction) 기술들이 활발하게 연구되고 있지만 아직 해결해야 할 문제점이 많은 실정이다. 본 논문에서는 지능형 로봇을 위한 기반 기술 중 인간과의 가장 자연스러운 의사소통 방법의 하나인 제스처 인식 기술에 대하여, 최근 연구 성과를 중심으로 요소 기술의 중요 내용과 응용 사례를 소개한다.

  • PDF

Research on the Influence of Interaction Factors of mobile Phone Dance Live Broadcast on User's Intention of Use -Centered on Perceived Usefulness and Perceived Accessibility

  • Wu, Nuowa
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권8호
    • /
    • pp.51-58
    • /
    • 2019
  • In this paper, we propose to characteristics of mobile phone dance live broadcast platform and the second-generation technology acceptance model TAM2, this paper established the user acceptance model of mobile phone dance live broadcast platform, aiming to study the influencing factors of users' acceptance on mobile phone dance live broadcast platform. Based on the empirical analysis of user survey, the model is validated, and the relationship between variables in the model is clarified. It is also confirmed that human-computer interaction, scene interaction, relationship interaction and other factors will affect the user's acceptance on mobile phone dance live broadcast platform. At the same time, based on the relationship among variables obtained in the research, this paper tries to analyze how the variables affect each other based on the actual practice of mobile phone dance live broadcast platform. In addition, the video design strategy and marketing strategy for further development of mobile phone dance live broadcast platform are given to help the platform and dance creators to carry out better promotion on the mobile side. In the end, this paper summarizes the shortcomings of this study and points out further research directions in the future, providing a reference for researchers in the field of mobile phone dance live broadcast platform acceptance.

로봇과 인간의 상호작용을 위한 얼굴 표정 인식 및 얼굴 표정 생성 기법 (Recognition and Generation of Facial Expression for Human-Robot Interaction)

  • 정성욱;김도윤;정명진;김도형
    • 제어로봇시스템학회논문지
    • /
    • 제12권3호
    • /
    • pp.255-263
    • /
    • 2006
  • In the last decade, face analysis, e.g. face detection, face recognition, facial expression recognition, is a very lively and expanding research field. As computer animated agents and robots bring a social dimension to human computer interaction, interest in this research field is increasing rapidly. In this paper, we introduce an artificial emotion mimic system which can recognize human facial expressions and also generate the recognized facial expression. In order to recognize human facial expression in real-time, we propose a facial expression classification method that is performed by weak classifiers obtained by using new rectangular feature types. In addition, we make the artificial facial expression using the developed robotic system based on biological observation. Finally, experimental results of facial expression recognition and generation are shown for the validity of our robotic system.