• 제목/요약/키워드: Emotional Interface

검색결과 142건 처리시간 0.034초

MMORPG의 감성평가 체크리스트에 관한 연구 (A Study on the Checklist of Emotional Evaluation for MMORPG)

  • 박상진;곽훈성;서미라
    • 한국콘텐츠학회논문지
    • /
    • 제6권11호
    • /
    • pp.217-224
    • /
    • 2006
  • 대규모 다인 접속이 가능한 온라인 게임이 인기를 누리면서 다수의 온라인 게임 제작회사의 개발 건수는 기하급수적으로 증가하게 되었다. 하지만 게임의 양적 팽창속도에 비해 질적 팽창속도가 따라가지 못하는 이유는 소수 경쟁적 우위를 점하고 있는 선두업체를 제외하고는 대다수가 영세 업체이기 때문에 제대로 된 제작 절차 부재와 출시 전 정확한 테스트가 수반되지 않아 예측 가능한 결과에 유연하게 대처하지 못하기 때문이다. 현재는 게임성 점검 단계를 통해 중요한 기능이 구현되지 않거나 특정한 부분의 치명적인 에러를 찾는데 쓰이고 있는 실정이다. 이에 본 연구는 기존의 사용성 평가 시스템에 치우쳐 있는 평가체계를 사용성과 더불어 게임을 하면서 사용자가 느끼는 감성을 평가할 수 있는 평가시스템을 제안하기 위해 게임에서 느끼는 감성어휘를 수집하고 요인분석을 통해 Interactivity, Interface, Information 요인으로 분류한 후 그에 맞는 평가문항을 설계하여 감성평가시스템을 제안한다.

  • PDF

다중 추적식 태양광 발전 감성형 LED 가로등 (Solar Power Emotional LED Lightening Street Lamps with Multiple Control Sun Tracker)

  • 이재민;김용;배철수;권대식
    • 한국산학기술학회논문지
    • /
    • 제12권2호
    • /
    • pp.920-926
    • /
    • 2011
  • 본 논문에서는 신재생에너지 활용을 위한 다중 추적식 태양광 발전 감성형 LED 가로등을 제안한다. 제안하는 가로등 시스템은 다중 추적방식의 태양광 추적기능을 갖추고 있고 감성형 고품위 LED 램프와 제어회로를 사용하여 센서를 통해 입력되는 온도 및 습도를 기반으로 최대의 일조량을 받을 수 있도록 하였다. 신재생에너지 활용의 핵심 요소인 효율적인 축전지 활용을 위해 충방전 컨트롤러를 개발하였고 원격모니터링 기능 및 제어기능도 구현 하였다. 제안하는 가로등 시스템은 기존 기술에 비하여 추적 동작이 우수하고 에너지효율이 향상되었으며 기존에 개발되지 않았던 추적식 태양광 발전 시스템과 감성형 LED를 결합함으로써 차세대 가로등 시스템의 모델로서의 활용될 수 있게 하였다.

차량용 음성대화 인터페이스의 Barge-in 기능이 주행 경험에 미치는 효과 연구 - 내비게이션 및 음악서비스 중심으로 - (The Effect of Barge-in Function of In-Vehicle Voice Conversational Interface on Driving Experience - Focus on Car Navigation and Music Services -)

  • 김택수;김지현;최준호
    • 디자인융복합연구
    • /
    • 제17권1호
    • /
    • pp.17-28
    • /
    • 2018
  • 운전 중 주행목적 외에 기기를 손으로 조작하는 행동은 사고위험을 높이는 주된 요인이며, 이를 보완할 수 있는 차량용 음성대화 인터페이스의 디자인이 최근 활발히 연구되고 있다. 이 연구는 차량용 음성대화 인터페이스의 Barge-in 기능의 사용이 사용자 경험에 미치는 영향을 확인하고자 하였다. 실험참가자를 대상으로 모의 주행을 하면서 내비게이션 조작과 음악재생 맥락으로 나누어 두 가지 태스크를 수행하도록 하도록 하였다. 각 참가자의 태스크 수행 후 기능 사용자 경험 측정을 위한 설문조사를 실시하였으며, 사용자 경험 요인으로 유용성, 사용성, 만족도, 감성을 측정하였다. 그 결과 대부분의 경험 요인에서 Barge-in 기능을 사용할 경우가 더 낫다고 평가되었다. 내비게이션 조작에서는 사용성 차원, 음악재생에서는 사용성, 감성 차원에서 유의미한 차이가 나타나 Barge-in 기능이 실제 사용자의 사용성과 감성 차원의 긍정적인 효과가 있음을 알 수 있었다.

차내 경험의 디지털 트랜스포메이션과 오디오 기반 인터페이스의 동향 및 시사점 (Trends and Implications of Digital Transformation in Vehicle Experience and Audio User Interface)

  • 김기현;권성근
    • 한국멀티미디어학회논문지
    • /
    • 제25권2호
    • /
    • pp.166-175
    • /
    • 2022
  • Digital transformation is driving so many changes in daily life and industry. The automobile industry is in a similar situation. In some cases, element techniques in areas called metabuses are also being adopted, such as 3D animated digital cockpit, around view, and voice AI, etc. Through the growth of the mobile market, the norm of human-computer interaction (HCI) has been evolving from keyboard-mouse interaction to touch screen. The core area was the graphical user interface (GUI), and recently, the audio user interface (AUI) has partially replaced the GUI. Since it is easy to access and intuitive to the user, it is quickly becoming a common area of the in-vehicle experience (IVE), especially. The benefits of a AUI are freeing the driver's eyes and hands, using fewer screens, lower interaction costs, more emotional and personal, effective for people with low vision. Nevertheless, when and where to apply a GUI or AUI are actually different approaches because some information is easier to process as we see it. In other cases, there is potential that AUI is more suitable. This is a study on a proposal to actively apply a AUI in the near future based on the context of various scenes occurring to improve IVE.

A Development of Multi-Emotional Signal Receiving Modules for Cellphone Using Robotic Interaction

  • Jung, Yong-Rae;Kong, Yong-Hae;Um, Tai-Joon;Kim, Seung-Woo
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.2231-2236
    • /
    • 2005
  • CP (Cellular Phone) is currently one of the most attractive technologies and RT (Robot Technology) is also considered as one of the most promising next generation technology. We present a new technological concept named RCP (Robotic Cellular Phone), which combines RT and CP. RCP consists of 3 sub-modules, $RCP^{Mobility}$, $RCP^{Interaction}$, and $RCP^{Integration}$. $RCP^{Interaction}$ is the main focus of this paper. It is an interactive emotion system which provides CP with multi-emotional signal receiving functionalities. $RCP^{Interaction}$ is linked with communication functions of CP in order to interface between CP and user through a variety of emotional models. It is divided into a tactile, an olfactory and a visual mode. The tactile signal receiving module is designed by patterns and beat frequencies which are made by mechanical-vibration conversion of the musical melody, rhythm and harmony. The olfactory signal receiving module is designed by switching control of perfume-injection nozzles which are able to give the signal receiving to the CP-called user through a special kind of smell according to the CP-calling user. The visual signal receiving module is made by motion control of DC-motored wheel-based system which can inform the CP-called user of the signal receiving through a desired motion according to the CP-calling user. In this paper, a prototype system is developed for multi-emotional signal receiving modes of CP. We describe an overall structure of the system and provide experimental results of the functional modules.

  • PDF

유비쿼터스 RCP 상호작용을 위한 다감각 착신기능모듈의 개발 (A Development of Multi-Emotional Signal Receiving Modules for Ubiquitous RCP Interaction)

  • 장경준;정용래;김동욱;김승우
    • 제어로봇시스템학회논문지
    • /
    • 제12궈1호
    • /
    • pp.33-40
    • /
    • 2006
  • We present a new technological concept named RCP (Robotic Cellular Phone), which combines RT and CP. That is an ubiquitous robot. RCP consists of 3 sub-modules, RCP Mobility, RCP interaction, and RCP Integration. RCP Interaction is the main focus of this paper. It is an interactive emotion system which provides CP with multi-emotional signal receiving functionalities. RCP Interaction is linked with communication functions of CP in order to interface between CP and user through a variety of emotional models. It is divided into a tactile, an olfactory and a visual mode. The tactile signal receiving module is designed by patterns and beat frequencies which are made by mechanical-vibration conversion of the musical melody, rhythm and harmony. The olfactory signal receiving module is designed by switching control of perfume-injection nozzles which are able to give the signal receiving to the CP-called user through a special kind of smell according to the CP-calling user. The visual signal receiving module is made by motion control of DC-motored wheel-based system which can inform the CP-called user of the signal receiving through a desired motion according to the CP-calling user. In this paper, a prototype system is developed far multi-emotional signal receiving modes of CP. We describe an overall structure of the system and provide experimental results of the functional modules.

감성 상호작용을 갖는 교육용 휴머노이드 로봇 D2 개발 (Design and implement of the Educational Humanoid Robot D2 for Emotional Interaction System)

  • 김도우;정기철;박원성
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 제38회 하계학술대회
    • /
    • pp.1777-1778
    • /
    • 2007
  • In this paper, We design and implement a humanoid robot, With Educational purpose, which can collaborate and communicate with human. We present an affective human-robot communication system for a humanoid robot, D2, which we designed to communicate with a human through dialogue. D2 communicates with humans by understanding and expressing emotion using facial expressions, voice, gestures and posture. Interaction between a human and a robot is made possible through our affective communication framework. The framework enables a robot to catch the emotional status of the user and to respond appropriately. As a result, the robot can engage in a natural dialogue with a human. According to the aim to be interacted with a human for voice, gestures and posture, the developed Educational humanoid robot consists of upper body, two arms, wheeled mobile platform and control hardware including vision and speech capability and various control boards such as motion control boards, signal processing board proceeding several types of sensors. Using the Educational humanoid robot D2, we have presented the successful demonstrations which consist of manipulation task with two arms, tracking objects using the vision system, and communication with human by the emotional interface, the synthesized speeches, and the recognition of speech commands.

  • PDF

Development of a General Purpose PID Motion Controller Using a Field Programmable Gate Array

  • Kim, Sung-Su;Jung, Seul
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.360-365
    • /
    • 2003
  • In this paper, we have developed a general purpose motion controller using an FPGA(Field Programmable Gate Array). The multi-PID controllers on a single chip are implemented as a system-on-chip for multi-axis motion control. We also develop a PC GUI for an efficient interface control. Comparing with the commercial motion controller LM 629 it has multi-independent PID controllers so that it has several advantages such as space effectiveness, low cost and lower power consumption. In order to test the performance of the proposed controller, robot finger is controlled. The robot finger has three fingers with 2 joints each. Finger movements show that position tracking was very effective. Another experiment of balancing an inverted pendulum on a cart has been conducted to show the generality of the proposed FPGA PID controller. The controller has well maintained the balance of the pendulum.

  • PDF

감정 인식을 위한 음성 특징 도출 (Extraction of Speech Features for Emotion Recognition)

  • 권철홍;송승규;김종열;김근호;장준수
    • 말소리와 음성과학
    • /
    • 제4권2호
    • /
    • pp.73-78
    • /
    • 2012
  • Emotion recognition is an important technology in the filed of human-machine interface. To apply speech technology to emotion recognition, this study aims to establish a relationship between emotional groups and their corresponding voice characteristics by investigating various speech features. The speech features related to speech source and vocal tract filter are included. Experimental results show that statistically significant speech parameters for classifying the emotional groups are mainly related to speech sources such as jitter, shimmer, F0 (F0_min, F0_max, F0_mean, F0_std), harmonic parameters (H1, H2, HNR05, HNR15, HNR25, HNR35), and SPI.

소프트웨어 로봇의 감성 표현을 위한 기반연구 - 감성어 추론을 위한 한글 처리 기술 개발 - (A Preliminary Study for Emotional Expression of Software Robot -Development of Hangul Processing Technique for Inference of Emotional Words-)

  • 송복희;윤한경
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2012년도 춘계 종합학술대회 논문집
    • /
    • pp.3-4
    • /
    • 2012
  • 사용자 중심의 man machine interface 기술의 발전은 사용자 인터페이스 기술과 인간공학의 접목으로 인하여 많은 진전이 있으며 계속 진행되고 있다. 근래의 정보전달은 사운드와 텍스트 또는 영상을 통하여 이루어지고 있으나, 감성적인 측면에서의 정보전달에 관한 연구는 활발하지 못한 실정이다. 특히, Human Computer Interaction분야에서 음성이나 표정의 전달에 관한 감성연구는 초기단계로 이모티콘이나 플래쉬콘 등이 감정전달을 위하여 사용되고 있으나 부자연스럽고 기계적인 실정이다. 본 연구는 사용자와 상호작용에서 컴퓨터 또는 응용소프트웨어 등이 자신의 가상객체(Software Robot, Sobot)를 활용하여 인간친화적인 상호작용을 제공하기위한 기반연구로써 한글에서 감성어를 추출하여 분류하고 처리하는 기술을 개발하여 컴퓨터가 전달하고자하는 정보에 인공감정을 이입시켜 사용자들의 감성만족도를 향상시키는데 적용하고자한다.

  • PDF