• 제목/요약/키워드: User interaction

검색결과 1,758건 처리시간 0.027초

인간-컴퓨터 인터페이스에서 사용편의성에 관한 고찰 (The Usability of The Human-Computer Interface)

  • 곽효연;이상도
    • 산업경영시스템학회지
    • /
    • 제18권36호
    • /
    • pp.13-22
    • /
    • 1995
  • The phenomenal rate of growth of the design, implementation and use of interactive computer-based systems has been paralleled by an appreciation of the criticality of the human factor with regard to successful systems operation. As the pace of technological innovation quickens, and the design of user interfaces involves more complex interaction techniques, user frustration, confusion, degraded human performance, and an unwillingness on the part of users In perform interaction tasks were potential outcomes. Consequently, the important of user-centered interfaces design and use is increasing. Usability-based systems improve user acceptance and satisfaction with the systems

  • PDF

Interactive Typography System using Combined Corner and Contour Detection

  • Lim, Sooyeon;Kim, Sangwook
    • International Journal of Contents
    • /
    • 제13권1호
    • /
    • pp.68-75
    • /
    • 2017
  • Interactive Typography is a process where a user communicates by interacting with text and a moving factor. This research covers interactive typography using real-time response to a user's gesture. In order to form a language-independent system, preprocessing of entered text data presents image data. This preprocessing is followed by recognizing the image data and the setting interaction points. This is done using computer vision technology such as the Harris corner detector and contour detection. User interaction is achieved using skeleton information tracked by a depth camera. By synchronizing the user's skeleton information acquired by Kinect (a depth camera,) and the typography components (interaction points), all user gestures are linked with the typography in real time. An experiment was conducted, in both English and Korean, where users showed an 81% satisfaction level using an interactive typography system where text components showed discrete movements in accordance with the users' gestures. Through this experiment, it was possible to ascertain that sensibility varied depending on the size and the speed of the text and interactive alteration. The results show that interactive typography can potentially be an accurate communication tool, and not merely a uniform text transmission system.

차내 경험의 디지털 트랜스포메이션과 오디오 기반 인터페이스의 동향 및 시사점 (Trends and Implications of Digital Transformation in Vehicle Experience and Audio User Interface)

  • 김기현;권성근
    • 한국멀티미디어학회논문지
    • /
    • 제25권2호
    • /
    • pp.166-175
    • /
    • 2022
  • Digital transformation is driving so many changes in daily life and industry. The automobile industry is in a similar situation. In some cases, element techniques in areas called metabuses are also being adopted, such as 3D animated digital cockpit, around view, and voice AI, etc. Through the growth of the mobile market, the norm of human-computer interaction (HCI) has been evolving from keyboard-mouse interaction to touch screen. The core area was the graphical user interface (GUI), and recently, the audio user interface (AUI) has partially replaced the GUI. Since it is easy to access and intuitive to the user, it is quickly becoming a common area of the in-vehicle experience (IVE), especially. The benefits of a AUI are freeing the driver's eyes and hands, using fewer screens, lower interaction costs, more emotional and personal, effective for people with low vision. Nevertheless, when and where to apply a GUI or AUI are actually different approaches because some information is easier to process as we see it. In other cases, there is potential that AUI is more suitable. This is a study on a proposal to actively apply a AUI in the near future based on the context of various scenes occurring to improve IVE.

휴먼-메타버스 인터랙션의 기회와 발전방향 (Opportunities and Future Directions of Human-Metaverse Interaction)

  • 윤효석;박창주;박정연
    • 스마트미디어저널
    • /
    • 제11권6호
    • /
    • pp.9-17
    • /
    • 2022
  • 코로나19 팬데믹 시대를 거치면서 비대면 서비스가 요구되었고 확장현실 및 메타버스 서비스의 활용이 다양한 응용 분야에서 급증하였다. 이 논문은 국내외에서 활발하게 사용되는 메타버스 플랫폼인 게더타운, 이프랜드, 로블록스, 제페토를 사용자 인터랙션, 아바타 기반 인터랙션, 가상 세계 생성의 측면에서 분석한다. 특히 사용자의 현실 세계에서 발생하는 사용자 입력 기법, 가상 세계에서 사용자를 나타내는 아바타의 표현 기법, 그리고 사용자 참여를 통해 가상 세계를 제작하는 인터랙션 유형으로 구분하여 설명한다. 이를 통해 현재 메타버스 인터랙션의 추세와 요구를 도출하고 휴먼-메타버스 인터랙션의 기회와 발전 방향을 전망한다.

일관성 있는 사용자 인터랙션 설계를 위한 방법론 개발 (A Methodology for Consistent Design of User Interaction)

  • 김동산;윤완철
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.961-970
    • /
    • 2009
  • 지난 10여 년 동안 모바일폰과 같은 인터랙티브 기기들은 새로운 버전이 나올 때마다 새로운 기능들이 덧붙여지면서 점점 더 사용하기 복잡해졌다. 다기능 복합기기의 사용 복잡도를 줄이기 위한 한 가지 방법은 그것을 일관성 있게 설계하는 것이다. 일관성을 정의하기가 쉽지 않고 때로는 일관성 있게 디자인한 것이 오히려 사용성을 낮추는 경우도 존재하지만, 일반적으로 일관성 있게 설계된 시스템은 그 사용법을 더 배우기 쉽고, 기억하기 쉬우며, 에러가 덜 발생한다. 그러나 실제적으로 다기능 복합기기의 사용자 인터랙션 또는 인터페이스를 일관성 있게 설계하는 일은 쉽지 않다. 다기능 기기의 인터랙션 설계는 매우 많은 수의 설계 변수들과 그것들 간의 관계를 고려해야 하므로 많은 시간이 소요되고 디자인 에러가 발생하기 쉽다. 따라서, 이런 복잡한 설계 과정을 지원할 수 있는 방법론의 개발이 필요하다. 본 연구에서는 CUID (Consistent Design of User Interaction)라고 명명한 효과적이고 효율적인 인터랙션 설계 방법론을 개발하였다. CUID는 일관성 있는 인터랙션 설계를 위한 디자인 프로세스와 그것을 지원하는 소프트웨어 툴을 포함한다. 이 방법론은 물리적 또는 시각적인 일관성보다는 논리적 일관성에 초점을 맞추고 있으며, 태스크 절차의 설계, 각 시스템 상태에서 가능해야 하는 조작(기능)에 대한 결정, 그리고 가능한 조작(기능)들을 어떤 인터페이스 컨트롤(control)을 통해 수행하도록 할 것인지에 대한 결정을 주요한 설계 문제로 다룬다. 또한, 본 논문에서는 사례 연구를 통해 CUID의 효용성을 검증하였다.

  • PDF

링크드 데이터를 이용한 인터랙티브 요리 비디오 질의 서비스 시스템 (An Interactive Cooking Video Query Service System with Linked Data)

  • 박우리;오경진;홍명덕;조근식
    • 지능정보연구
    • /
    • 제20권3호
    • /
    • pp.59-76
    • /
    • 2014
  • 스마트 미디어 장치의 발달로 인하여 시공간적인 제약이 없이 비디오를 시청 가능한 환경이 제공됨에 따라 사용자의 시청행태가 수동적인 시청에서 능동적인 시청으로 계속해서 변화하고 있다. 사용자는 비디오를 시청하면서 비디오를 볼 뿐 아니라 관심 있는 내용에 대한 세부적인 정보를 검색한다. 그 결과 사용자와 미디어 장치간의 인터랙션이 주요 관심사로 등장하였다. 이러한 환경에서 사용자들은 일방적으로 정보를 제공해주는 것보다는 자신이 원하는 정보를 웹 검색을 통해 사용자 스스로 정보를 찾지 않고, 쉽고 빠르게 정보를 얻을 수 있는 방법의 필요성을 인식하게 되었으며 그에 따라 인터랙션을 직접 수행하는 것에 대한 요구가 증가하였다. 또한 많은 정보의 홍수 속에서 정확한 정보를 얻는 것이 중요한 이슈가 되었다. 이러한 사용자들의 요구사항을 만족시키기 위해 사용자 인터랙션 기능을 제공하고, 링크드 데이터를 적용한 시스템이 필요한 상황이다. 본 논문에서는 여러 분야 중에서 사람들이 가장 관심 있는 분야중 하나인 요리를 선택하여 문제점을 발견하고 개선하기 위한 방안을 살펴보았다. 요리는 사람들이 지속적인 관심을 갖는 분야이다. 레시피, 비디오, 텍스트와 같은 요리에 관련된 정보들이 끊임없이 증가하여 빅 데이터의 한 부분으로 발전하였지만 사용자와 요리 콘텐츠간의 인터랙션을 제공하는 방법과 기능이 부족하고, 정보가 부정확하다는 문제점을 가지고 있다. 사용자들은 쉽게 요리 비디오를 시청할 수 있지만 비디오는 단 방향으로만 정보를 제공하기 때문에 사용자들의 요구사항을 충족시키기 어렵고, 검색을 통해 정확한 정보를 얻는 것이 어렵다. 이러한 문제를 해결하기 위하여 본 논문에서는 요리 비디오 시청과 동시에 정보제공을 위한 UI(User Interface), UX(User Experience)를 통해 사용자의 편의성을 고려한 환경을 제시하고, 컨텍스트에 맞는 정확한 정보를 제공하기 위해 링크드 데이터를 이용하여 사용자와 비디오 간에 인터랙션을 위한 요리보조 서비스 시스템을 제안한다.

사용자-제품 간 인터랙션의 관찰 조사 체계에 관한 연구 - 운전자 환경에서의 비디오 관찰법을 중심으로 - (A Study on the Observation Method of Interaction between Users and Products - With Emphasis on the Video Ethnography of Driver Environment -)

  • 김강민;반영환;정지홍
    • 한국HCI학회논문지
    • /
    • 제4권2호
    • /
    • pp.1-8
    • /
    • 2009
  • 사용자 중심 디자인이란 사용자들이 의식/무의식적 행동들에 간섭 없이 자연스럽게 융화할 수 있는 제품을 디자인 하는 것이다. 이에 따라 디자이너들은 사용자로부터 그들의 요구사항이 무엇인지 파악이 필요로 하여 사용자의 실제 환경으로 들어가 어떠한 행동을 하는지 제품과 어떤 인터랙션을 하는지에 대한 조사가 필요하다. 하지만 기존의 관찰기법은 관찰대상의 범위가 방대하여 관찰 및 분석 방법에 대한 조사 체계가 모호하게 제시된 경우가 많다. 따라서 본 연구에서는 실제 운전자 환경을 관찰 범위로 한정짓고 이론적 배경을 기반으로 운전자 행동 레벨 및 정황(Context) 요소를 정의하였으며, 사용자 활동 데이터를 추출하기 위한 관찰 방법 및 분석을 위한 체계를 제시하였다.

  • PDF

비대칭 가상현실에서의 현존감을 위한 HMD 사용자와 Non-HMD 사용자간 몰입형 상호작용에 관한 연구 (A Study on Immersive Interaction Between HMD User and Non-HMD User for Presence of Asymmetric Virtual Reality)

  • 이지원;김민규;김진모
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권3호
    • /
    • pp.1-10
    • /
    • 2018
  • 본 연구는 비대칭 가상현실 환경에 존재하는 HMD 사용자와 Non-HMD 사용자 모두에게 향상된 현존감을 제공하기 위하여 사용자의 체험 환경에 최적화된 몰입형 상호작용을 제안한다. 제안하는 몰입형 상호작용의 핵심은 HMD 사용자와 Non-HMD 사용자 사이의 비대칭 환경의 차이를 구분하여 사용자에게 최적화된 상호작용을 제시하는 것이다. 그리고 사용자 각각에게 주어지는 비대칭 가상현실 환경에서 향상된 몰입을 제공하여 현존감을 높이기 위하여 HMD 사용자에게는 공간의 몰입을 향상시키는 걷기 상호작용을, Non-HMD 사용자에게는 직접적인 조작을 통해 상황을 전체적으로 이해하고 관리함으로써 몰입을 향상시키는 손 기반 인터페이스를 설계한다. 마지막으로 몰입형 상호작용을 통해 모든 사용자가 향상된 현존감을 제공받으면서 동시에 각각의 체험에 환경에 특화된 경험을 하였음을 설문실험을 통해 검증한다. 이러한 과정들을 통하여 제안한 상호작용이 비대칭 가상현실에서 Non-HMD 사용자도 보조자가 아닌 참가자로써 HMD 사용자와 함께 몰입할 수 있음을 확인한다.

A Study on "A Midsummer Night's Palace" Using VR Sound Engineering Technology

  • Seok, MooHyun;Kim, HyungGi
    • International Journal of Contents
    • /
    • 제16권4호
    • /
    • pp.68-77
    • /
    • 2020
  • VR (Virtual Reality) contents make the audience perceive virtual space as real through the virtual Z axis which creates a space that could not be created in 2D due to the space between the eyes of the audience. This visual change has led to the need for technological changes to sound and sound sources inserted into VR contents. However, studies to increase immersion in VR contents are still more focused on scientific and visual fields. This is because composing and producing VR sounds require professional views in two areas: sound-based engineering and computer-based interactive sound engineering. Sound-based engineering is difficult to reflect changes in user interaction or time and space by directing the sound effects, script sound, and background music according to the storyboard organized by the director. However, it has the advantage of producing the sound effects, script sound, and background music in one track and not having to go through the coding phase. Computer-based interactive sound engineering, on the other hand, is produced in different files, including the sound effects, script sound, and background music. It can increase immersion by reflecting user interaction or time and space, but it can also suffer from noise cancelling and sound collisions. Therefore in this study, the following methods were devised and utilized to produce sound for VR contents called "A Midsummer Night" so as to take advantage of each sound-making technology. First, the storyboard is analyzed according to the user's interaction. It is to analyze sound effects, script sound, and background music which is required according to user interaction. Second, the sounds are classified and analyzed as 'simultaneous sound' and 'individual sound'. Thirdly, work on interaction coding for sound effects, script sound, and background music that were produced from the simultaneous sound and individual time sound categories is done. Then, the contents are completed by applying the sound to the video. By going through the process, sound quality inhibitors such as noise cancelling can be removed while allowing sound production that fits to user interaction and time and space.

감각형 증강현실 기반 상호작용 대안들의 비교 (Comparison of User Interaction Alternatives in a Tangible Augmented Reality Environment)

  • 박상진;정호균;박형준
    • 한국CDE학회논문집
    • /
    • 제17권6호
    • /
    • pp.417-425
    • /
    • 2012
  • In recent years, great attention has been paid to using simple physical objects as tangible objects to improve user interaction in augmented reality (AR) environments. In this paper, we address AR-based user interaction using tangible objects, which has been used as a key component for virtual design evaluation of engineered products including digital handheld products. We herein consider the use of two types (product-type and pointer-type) of tangible objects. The user creates input events by touching specified parts of the product-type object with the pointer-type object, and the virtual product reacts to the events by rendering its visual and auditory contents on the output devices. The product-type object is used to reflect the geometric shape of a product of interest and to determine its position and orientation in the AR environment. The pointer-type object is used to recognize the reference position of the pointer (or finger) in the same environment. The rapid prototype of the product is employed as a good alternative to the product-type object, but various alternatives to the pointer-type object can be considered according to fabrication process and touching mechanism. In this paper, we present four alternatives to the pointer-type object and investigate their strong and weak points by performing experimental comparison of their various aspects including interaction accuracy, task performance, and qualitative user experience.