• Title/Summary/Keyword: HCI(Human-computer interaction)

Search Result 181, Processing Time 0.022 seconds

Voice Recognition Sensor Driven Elevator for High-rise Vertical Shift (동굴관광용 고층수직이동 승강기의 긴급 음성구동 제어)

  • Choi, Byong-Seob;Kang, Tae-Hyun;Yun, Yeo-Hoon;Jang, Hoon-Gyou;Soh, Dea-Wha
    • Journal of the Speleological Society of Korea
    • /
    • no.88
    • /
    • pp.1-7
    • /
    • 2008
  • Recently, it is one of very interest technology of Human Computer Interaction(HCI). Nowadays, it is easy to find out that, for example, inside SF movies people has talking to computer. However, there are difference between CPU language and ours. So, we focus on connecting to CPU. For 30 years many scientists experienced in that technology. But it is really difficult. Our project goal is making that CPU could understand human voice. First of all the signal through a voice sensor will move to BCD (binary code). That elevator helps out people who wants to move up and down. This product's point is related with people's safety. Using a PWM for motor control by ATmega16, we choose a DC motor to drive it because of making a regular speed elevator. Furthermore, using a voice identification module the elevator driven by voice sensor could operate well up and down perfectly from 1st to 10th floor by PWM control with ATmega16. And, it will be clearly useful for high-rise vertical shift with voice recognition sensor driven.

A Study on Efficient Design of Surveillance RADAR Interface Control Unit in Naval Combat System

  • Dong-Kwan Kim;Dong-Han Jung;Won-Seok Jang;Young-San Kim;Hyo-Jo Lee
    • Journal of the Korea Society of Computer and Information
    • /
    • v.28 no.11
    • /
    • pp.125-134
    • /
    • 2023
  • In this paper, we propose an efficient surveillance RADAR(RAdio Detection And Ranging) interface control unit(ICU) design in the naval combat system. The proposed design applied a standardized architecture for modules that can be shared in ship combat system software. An error detection function for each link was implemented to increase the recognition speed of disconnection. Messages that used to be sent periodically for human-computer interaction(HCI) are now only transmitted when there is a change in the datagram. This can reduce the processing load of the console. The proposed design supplements the radar with the waterfall scope and time-limited splash recognition in relation to the hit check and zeroing of the shot when the radar processing ability is low due to the adoption of a low-cost commercial radar in the ship. Therefore, it is easy for the operator to determine whether the shot is hit or not, the probability of wrong recognition can be reduced, and the radar's resources can be obtained more effectively.

Haptic Modeler using Haptic User Interface (촉감 사용자 인터페이스를 이용한 촉감 모델러)

  • Cha, Jong-Eun;Oakley, Ian;Kim, Yeong-Mi;Kim, Jong-Phil;Lee, Beom-Chan;Seo, Yong-Won;Ryu, Je-Ha
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.1031-1036
    • /
    • 2006
  • 햅틱 분야는 디스플레이 되는 콘텐츠를 만질 수 있게 촉감을 제공함으로써 의학, 교육, 군사, 방송 분야 등에서 널리 연구되고 있다. 이미 의학 분야에서는 Reachin 사(社)의 복강경 수술 훈련 소프트웨어와 같이 실제 수술 할 때와 같은 힘을 느끼면서 수술 과정을 훈련할 수 있는 제품이 상용화 되어 있다. 그러나 햅틱 분야가 사용자에게 시청각 정보와 더불어 추가적인 촉감을 제공함으로써 보다 실감 있고 자연스러운 상호작용을 제공하는 장점을 가진 것에 비해 아직은 일반 사용자들에게 생소한 분야다. 그 이유 중 하나로 촉감 상호작용이 가능한 콘텐츠의 부재를 들 수 있다. 일반적으로 촉감 콘텐츠는 컴퓨터 그래픽스 모델로 이루어져 있어 일반 그래픽 모델러를 사용하여 콘텐츠를 생성하나 촉감과 관련된 정보는 콘텐츠를 생성하고 나서 파일에 수작업으로 넣어주거나 각각의 어플리케이션마다 직접 프로그램을 해주어야 한다. 이는 그래픽 모델링과 촉감 모델링이 동시에 진행되지 않기 때문에 발생하는 문제로 촉감 콘텐츠를 만드는데 시간이 많이 소요되고 촉감 정보를 추가하는 작업이 직관적이지 못하다. 그래픽 모델링의 경우 눈으로 보면서 콘텐츠를 손으로 조작할 수 있으나 촉감 모델링의 경우 손으로 촉감을 느끼면서 동시에 조작도 해야 하기 때문에 이에 따른 인터페이스가 필요하다. 본 논문에서는 촉감 상호작용이 가능한 촉감 콘텐츠를 직관적으로 생성하고 조작할 수 있게 하는 촉감 모델러를 기술한다. 촉감 모델러에서 사용자는 3 자유도 촉감 장치를 사용하여 3 차원의 콘텐츠를 실시간으로 만져보면서 생성, 조작할 수 있고 촉감 사용자 인터페이스를 통해서 콘텐츠의 표면 촉감 특성을 직관적으로 편집할 수 있다. 촉감 사용자 인터페이스는 마우스로 조작하는 기존의 2차원 그래픽 사용자 인터페이스와는 다르게 3 차원으로 구성되어 있고 촉감 장치로 조작할 수 있는 버튼, 라디오 버튼, 슬라이더, 조이스틱의 구성요소로 이루어져 있다. 사용자는 각각의 구성요소를 조작하여 콘텐츠의 표면 촉감 특성 값을 바꾸고 촉감 사용자 인터페이스의 한 부분을 만져 그 촉감을 실시간으로 느껴봄으로써 직관적으로 특성 값을 정할 수 있다. 또한, XML 기반의 파일 포맷을 제공함으로써 생성된 콘텐츠를 저장할 수 있고 저장된 콘텐츠를 불러오거나 다른 콘텐츠에 추가할 수 있다.

  • PDF

A Field Study on Ubiquitous Robots in Elementary School (유비퀴터스 로봇의 초등학교 현장 실험 연구)

  • Kim, Su-Jung;Han, Jeong-Hye
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.339-346
    • /
    • 2006
  • 최근 들어 유치원과 초등학교에 로봇을 이용한 교육적 활용 연구가 시도되고 있다. 유비퀴터스 로봇 활용이 교사와 아동의 흥미 유발에 있어 매우 효과가 높은 것으로 나타나, 향후 유비쿼터스 로봇이 u-Learning 의 또 다른 매체로서의 가능성이 강조되고 있다. 이에 본 연구에서는 초등학교 수업에서 교사 보조 역할을 통한 유비퀴터스 로봇의 활용 가능성을 보기 위해, 초등 학생 6 학년의 기대 역할을 갖는 프로토 타입의 로봇과 컨텐츠를 개발하여 활용하는 실험을 실시하였다. 프로토 타입 로봇은 국어, 영어, 음악 교과를 대상으로 주기적으로 컨텐츠를 다운로드 할 수 있을 뿐만 아니라 아동의 얼굴과 이름을 저장하여 수업 운영 컨텐츠와 연동할 수 있다. 현장 실험을 통하여 아동이 유비쿼터스 로봇을 경험한 수업 시간의 횟수에 따라 로봇 외형과 수업 보조 서비스에 대한 선호도 차이를 알아봄으로써, 초등학교에서 유비퀴터스 로봇을 이용한 r-Learning에 있어서 일시적 신기효과가 아닌 지속적인 영향을 줄 수 있는 요인을 찾아보았다. 실험 결과, 지속적인 HRI 유지에 영향을 끼칠 수 있는 외형적 요인으로 로봇 얼굴과 로봇과 아동간 관계성을 지향하는 컨텐츠 개발이 필요함을 보였다.

  • PDF

Analytical Evaluation Model of the Gameplay in MMO Game - Focused on GOMS Model - (MMO 게임의 게임플레이 분석적 평가 모형 - GOMS 모형을 중심으로 -)

  • Song, Seung-Keun
    • Journal of Korea Multimedia Society
    • /
    • v.12 no.11
    • /
    • pp.1652-1660
    • /
    • 2009
  • The main objective of this research is to build a behavior prediction model of gameplay for MMO (Massively Multiplayer Online) game using the GOMS analysis method. GOMS analysis is an observational approach to HCI(Human Computer Interaction) to model and predict behaviors of a human operator in a highly interactive task. In this research, a pilot experiment was previously conducted with three skilled gamers. The gamers were provided with the goals and operators through the user's guide book, and they found methods and selection rules while being observed. Based on the results obtained from the pilot study, this research was expanded and the model was further tested with 30 subjects (game experts). The new outcomes revealed that the relevance of GOMS analysis for predicting selection rules is 96.25% according to the degree of abstraction and 77.35% based on the degree of complexity. This research will provide game designers with a new testing mechanism in the early development stages, in order to improve the quality of the game product.

  • PDF

MPEG-U-based Advanced User Interaction Interface Using Hand Posture Recognition

  • Han, Gukhee;Choi, Haechul
    • IEIE Transactions on Smart Processing and Computing
    • /
    • v.5 no.4
    • /
    • pp.267-273
    • /
    • 2016
  • Hand posture recognition is an important technique to enable a natural and familiar interface in the human-computer interaction (HCI) field. This paper introduces a hand posture recognition method using a depth camera. Moreover, the hand posture recognition method is incorporated with the Moving Picture Experts Group Rich Media User Interface (MPEG-U) Advanced User Interaction (AUI) Interface (MPEG-U part 2), which can provide a natural interface on a variety of devices. The proposed method initially detects positions and lengths of all fingers opened, and then recognizes the hand posture from the pose of one or two hands, as well as the number of fingers folded when a user presents a gesture representing a pattern in the AUI data format specified in MPEG-U part 2. The AUI interface represents a user's hand posture in the compliant MPEG-U schema structure. Experimental results demonstrate the performance of the hand posture recognition system and verified that the AUI interface is compatible with the MPEG-U standard.

Dynamic Gesture Recognition for the Remote Camera Robot Control (원격 카메라 로봇 제어를 위한 동적 제스처 인식)

  • Lee Ju-Won;Lee Byung-Ro
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.8 no.7
    • /
    • pp.1480-1487
    • /
    • 2004
  • This study is proposed the novel gesture recognition method for the remote camera robot control. To recognize the dynamics gesture, the preprocessing step is the image segmentation. The conventional methods for the effectively object segmentation has need a lot of the cole. information about the object(hand) image. And these methods in the recognition step have need a lot of the features with the each object. To improve the problems of the conventional methods, this study proposed the novel method to recognize the dynamic hand gesture such as the MMS(Max-Min Search) method to segment the object image, MSM(Mean Space Mapping) method and COG(Conte. Of Gravity) method to extract the features of image, and the structure of recognition MLPNN(Multi Layer Perceptron Neural Network) to recognize the dynamic gestures. In the results of experiment, the recognition rate of the proposed method appeared more than 90[%], and this result is shown that is available by HCI(Human Computer Interface) device for .emote robot control.

The Trend of Technology and Market of HCI for the Wearable Systems (웨어러블 시스템 사용자 상호작용 시장 분석 및 기술 동향)

  • Sohn, M.S.;Park, J.S.;Han, D.W.;Cho, I.Y.
    • Electronics and Telecommunications Trends
    • /
    • v.21 no.2 s.98
    • /
    • pp.184-191
    • /
    • 2006
  • 본 고에서는 웨어러블 시스템의 개념에 대해 간략히 소개하고 시스템을 구성하는 기술에 대해 살펴본다. 웨어러블 시스템 기술 중에서 최근 많은 관심을 모으고 있는 사용자상호작용 방법(Human Computer Interaction)에 대한 시장동향 분석과 더불어 현재시도되고 있는 다양한 상호작용 방법의 사례를 살펴봄으로써 웨어러블 시스템을 위한성공적인 사용자 상호작용 모델에 대해 알아본다.

Avatar Control by using hand gesture recognition (Hand Gesture 인식을 이용한 아바타 제어)

  • 최우영;김소연;송백균
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2004.05b
    • /
    • pp.616-619
    • /
    • 2004
  • As interests Un virtual reality being increased, the importance of HCI(Human computer interaction) field using gesture is also increased. However, in the preceding gesture recognition, the requirement of high-cost peripheral equipments limits users right. In this paper we suggest that through using low cost of USB PC-camera users are allowed to have more flexibly and cost down so that it can be adopted much commonly.

  • PDF

Edge based Interactive Segmentation (경계선 기반의 대화형 영상분할 시스템)

  • Yun, Hyun Joo;Lee, Sang Wook
    • Journal of the Korea Computer Graphics Society
    • /
    • v.8 no.2
    • /
    • pp.15-22
    • /
    • 2002
  • Image segmentation methods partition an image into meaningful regions. For image composition and analysis, it is desirable for the partitioned regions to represent meaningful objects in terms of human perception and manipulation. Despite the recent progress in image understanding, however, most of the segmentation methods mainly employ low-level image features and it is still highly challenging to automatically segment an image based on high-level meaning suitable for human interpretation. The concept of HCI (Human Computer Interaction) can be applied to operator-assisted image segmentation in a manner that a human operator provides guidance to automatic image processing by interactively supplying critical information about object boundaries. Intelligent Scissors and Snakes have demonstrated the effectiveness of human-assisted segmentation [2] [1]. This paper presents a method for interactive image segmentation for more efficient and effective detection and tracking of object boundaries. The presented method is partly based on the concept of Intelligent Scissors, but employs the well-established Canny edge detector for stable edge detection. It also uses "sewing method" for including weak edges in object boundaries, and 5-direction search to promote more efficient and stable linking of neighboring edges than the previous methods.

  • PDF