• 제목/요약/키워드: HCI(Human-computer interaction)

검색결과 181건 처리시간 0.034초

동굴관광용 고층수직이동 승강기의 긴급 음성구동 제어 (Voice Recognition Sensor Driven Elevator for High-rise Vertical Shift)

  • 최병섭;강태현;윤여훈;장훈규;소대화
    • 동굴
    • /
    • 제88호
    • /
    • pp.1-7
    • /
    • 2008
  • Recently, it is one of very interest technology of Human Computer Interaction(HCI). Nowadays, it is easy to find out that, for example, inside SF movies people has talking to computer. However, there are difference between CPU language and ours. So, we focus on connecting to CPU. For 30 years many scientists experienced in that technology. But it is really difficult. Our project goal is making that CPU could understand human voice. First of all the signal through a voice sensor will move to BCD (binary code). That elevator helps out people who wants to move up and down. This product's point is related with people's safety. Using a PWM for motor control by ATmega16, we choose a DC motor to drive it because of making a regular speed elevator. Furthermore, using a voice identification module the elevator driven by voice sensor could operate well up and down perfectly from 1st to 10th floor by PWM control with ATmega16. And, it will be clearly useful for high-rise vertical shift with voice recognition sensor driven.

A Study on Efficient Design of Surveillance RADAR Interface Control Unit in Naval Combat System

  • Dong-Kwan Kim;Dong-Han Jung;Won-Seok Jang;Young-San Kim;Hyo-Jo Lee
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권11호
    • /
    • pp.125-134
    • /
    • 2023
  • 본 논문은 함정 전투체계에서 효율적인 탐색레이더 연동단 설계 방법을 제안한다. 제안된 탐색 레이더 연동단은 함정 전투체계 소프트웨어에서 공용화 모듈(Module)을 표준화한 구조를 적용하였다. 링크(Link)별 오류탐지 기능을 구현하여 링크 단절시 링크 단절에 대한 인지 속도를 높였다. 또한 HCI(Human-Computer Interaction)를 위해 주기적으로 전송하던 메시지를 데이터그램(Datagram)의 변화가 있을 때만 송신하여 콘솔(Console)의 처리 부하를 줄일 수 있다. 특히 제안 방법은 함정에서 저가형 상용 탐색레이더 채택 등으로 프로세싱(Processing) 능력이 뛰어나지 못한 경우 사격에 대한 명중 확인 및 영점 조절과 관련하여 워터폴 스코프(Waterfall Scope)와 시간 제한 물기둥 인지 방법으로 탐색레이더의 기능을 보완해줄 수 있다. 이를 통해 운용자의 사격 명중 판단이 용이해지고, 오인지 확률을 줄일 수 있으며, 탐색레이더의 가용자원을 추가로 확보할 수 있다.

촉감 사용자 인터페이스를 이용한 촉감 모델러 (Haptic Modeler using Haptic User Interface)

  • 차종은;;김영미;김종필;이범찬;서용원;류제하
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.1031-1036
    • /
    • 2006
  • 햅틱 분야는 디스플레이 되는 콘텐츠를 만질 수 있게 촉감을 제공함으로써 의학, 교육, 군사, 방송 분야 등에서 널리 연구되고 있다. 이미 의학 분야에서는 Reachin 사(社)의 복강경 수술 훈련 소프트웨어와 같이 실제 수술 할 때와 같은 힘을 느끼면서 수술 과정을 훈련할 수 있는 제품이 상용화 되어 있다. 그러나 햅틱 분야가 사용자에게 시청각 정보와 더불어 추가적인 촉감을 제공함으로써 보다 실감 있고 자연스러운 상호작용을 제공하는 장점을 가진 것에 비해 아직은 일반 사용자들에게 생소한 분야다. 그 이유 중 하나로 촉감 상호작용이 가능한 콘텐츠의 부재를 들 수 있다. 일반적으로 촉감 콘텐츠는 컴퓨터 그래픽스 모델로 이루어져 있어 일반 그래픽 모델러를 사용하여 콘텐츠를 생성하나 촉감과 관련된 정보는 콘텐츠를 생성하고 나서 파일에 수작업으로 넣어주거나 각각의 어플리케이션마다 직접 프로그램을 해주어야 한다. 이는 그래픽 모델링과 촉감 모델링이 동시에 진행되지 않기 때문에 발생하는 문제로 촉감 콘텐츠를 만드는데 시간이 많이 소요되고 촉감 정보를 추가하는 작업이 직관적이지 못하다. 그래픽 모델링의 경우 눈으로 보면서 콘텐츠를 손으로 조작할 수 있으나 촉감 모델링의 경우 손으로 촉감을 느끼면서 동시에 조작도 해야 하기 때문에 이에 따른 인터페이스가 필요하다. 본 논문에서는 촉감 상호작용이 가능한 촉감 콘텐츠를 직관적으로 생성하고 조작할 수 있게 하는 촉감 모델러를 기술한다. 촉감 모델러에서 사용자는 3 자유도 촉감 장치를 사용하여 3 차원의 콘텐츠를 실시간으로 만져보면서 생성, 조작할 수 있고 촉감 사용자 인터페이스를 통해서 콘텐츠의 표면 촉감 특성을 직관적으로 편집할 수 있다. 촉감 사용자 인터페이스는 마우스로 조작하는 기존의 2차원 그래픽 사용자 인터페이스와는 다르게 3 차원으로 구성되어 있고 촉감 장치로 조작할 수 있는 버튼, 라디오 버튼, 슬라이더, 조이스틱의 구성요소로 이루어져 있다. 사용자는 각각의 구성요소를 조작하여 콘텐츠의 표면 촉감 특성 값을 바꾸고 촉감 사용자 인터페이스의 한 부분을 만져 그 촉감을 실시간으로 느껴봄으로써 직관적으로 특성 값을 정할 수 있다. 또한, XML 기반의 파일 포맷을 제공함으로써 생성된 콘텐츠를 저장할 수 있고 저장된 콘텐츠를 불러오거나 다른 콘텐츠에 추가할 수 있다.

  • PDF

유비퀴터스 로봇의 초등학교 현장 실험 연구 (A Field Study on Ubiquitous Robots in Elementary School)

  • 김수정;한정혜
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.339-346
    • /
    • 2006
  • 최근 들어 유치원과 초등학교에 로봇을 이용한 교육적 활용 연구가 시도되고 있다. 유비퀴터스 로봇 활용이 교사와 아동의 흥미 유발에 있어 매우 효과가 높은 것으로 나타나, 향후 유비쿼터스 로봇이 u-Learning 의 또 다른 매체로서의 가능성이 강조되고 있다. 이에 본 연구에서는 초등학교 수업에서 교사 보조 역할을 통한 유비퀴터스 로봇의 활용 가능성을 보기 위해, 초등 학생 6 학년의 기대 역할을 갖는 프로토 타입의 로봇과 컨텐츠를 개발하여 활용하는 실험을 실시하였다. 프로토 타입 로봇은 국어, 영어, 음악 교과를 대상으로 주기적으로 컨텐츠를 다운로드 할 수 있을 뿐만 아니라 아동의 얼굴과 이름을 저장하여 수업 운영 컨텐츠와 연동할 수 있다. 현장 실험을 통하여 아동이 유비쿼터스 로봇을 경험한 수업 시간의 횟수에 따라 로봇 외형과 수업 보조 서비스에 대한 선호도 차이를 알아봄으로써, 초등학교에서 유비퀴터스 로봇을 이용한 r-Learning에 있어서 일시적 신기효과가 아닌 지속적인 영향을 줄 수 있는 요인을 찾아보았다. 실험 결과, 지속적인 HRI 유지에 영향을 끼칠 수 있는 외형적 요인으로 로봇 얼굴과 로봇과 아동간 관계성을 지향하는 컨텐츠 개발이 필요함을 보였다.

  • PDF

MMO 게임의 게임플레이 분석적 평가 모형 - GOMS 모형을 중심으로 - (Analytical Evaluation Model of the Gameplay in MMO Game - Focused on GOMS Model -)

  • 송승근
    • 한국멀티미디어학회논문지
    • /
    • 제12권11호
    • /
    • pp.1652-1660
    • /
    • 2009
  • 본 연구는 대규모 다중 사용자 온라인 게임에 관한 게임플레이 과정을 GOMS(Goal Operator Method Selection Rule)로 모형화 하는데 목적이 있다. GOMS 분석은 HCI(Human Computer Interaction)의 연구방법으로서 전문가의 행동을 모형화 하고 그들의 행동을 예측하는 것이다. 초보자 가이드와 온라인 게임 매뉴얼을 이용하여 GOMS의 목표, 작용소를 찾고 3명의 전문가를 대상으로 예비실험을 실시하여 GOMS의 방법과 선택규칙을 도출하였다. 예비실험결과를 토대로 30명의 전문 게이머들을 대상으로 본 실험을 실시하였다. 그 결과 게임 법칙에 대한 추상도 수준에 따른 법칙선택의 예측력은 96.25%, 제한사항의 복잡도에 따른 법칙선택의 예측력은 77.35%의 GOMS 모델 적합도가 산출 되었다. 본 연구에서 제안한 GOMS 모형은 게임을 설계하는 초기 단계에 새로운 평가 모형을 제시하며 게임의 품질을 향상할 수 있을 것으로 기대된다.

  • PDF

MPEG-U-based Advanced User Interaction Interface Using Hand Posture Recognition

  • Han, Gukhee;Choi, Haechul
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제5권4호
    • /
    • pp.267-273
    • /
    • 2016
  • Hand posture recognition is an important technique to enable a natural and familiar interface in the human-computer interaction (HCI) field. This paper introduces a hand posture recognition method using a depth camera. Moreover, the hand posture recognition method is incorporated with the Moving Picture Experts Group Rich Media User Interface (MPEG-U) Advanced User Interaction (AUI) Interface (MPEG-U part 2), which can provide a natural interface on a variety of devices. The proposed method initially detects positions and lengths of all fingers opened, and then recognizes the hand posture from the pose of one or two hands, as well as the number of fingers folded when a user presents a gesture representing a pattern in the AUI data format specified in MPEG-U part 2. The AUI interface represents a user's hand posture in the compliant MPEG-U schema structure. Experimental results demonstrate the performance of the hand posture recognition system and verified that the AUI interface is compatible with the MPEG-U standard.

원격 카메라 로봇 제어를 위한 동적 제스처 인식 (Dynamic Gesture Recognition for the Remote Camera Robot Control)

  • 이주원;이병로
    • 한국정보통신학회논문지
    • /
    • 제8권7호
    • /
    • pp.1480-1487
    • /
    • 2004
  • 본 연구에서는 원격 카메라 로봇 제어를 위한 새로운 제스처 인식 방법을 제안하였다. 제스처 인식의 전처리 단계인 동적 제스처의 세그먼테이션이며, 이를 위한 기존의 방법은 인식 대상에 대한 많은 칼라정보를 필요로 하고, 인식단계에서는 각각 제스처에 대한 많은 특징벡터들을 요구하는 단점이 있다. 이러한 단점을 개선하기 위해, 본 연구에서는 동적 제스처의 세그먼테이션을 위한 새로운 Max-Min 탐색법과 제스처 특징 추출을 위한 평균 공간 사상법과 무게중심법, 그리고 인식을 위한 다층 퍼셉트론 신경망의 구조 둥을 제안하였다 실험에서 제안된 기법의 인식율이 90%이상으로 나타났으며, 이 결과는 원격 로봇 제어를 위한 휴먼컴퓨터 인터페이스(HCI : Human Compute. Interface)장치로 사용 가능함을 보였다.

웨어러블 시스템 사용자 상호작용 시장 분석 및 기술 동향 (The Trend of Technology and Market of HCI for the Wearable Systems)

  • 손미숙;박준석;한동원;조일연
    • 전자통신동향분석
    • /
    • 제21권2호통권98호
    • /
    • pp.184-191
    • /
    • 2006
  • 본 고에서는 웨어러블 시스템의 개념에 대해 간략히 소개하고 시스템을 구성하는 기술에 대해 살펴본다. 웨어러블 시스템 기술 중에서 최근 많은 관심을 모으고 있는 사용자상호작용 방법(Human Computer Interaction)에 대한 시장동향 분석과 더불어 현재시도되고 있는 다양한 상호작용 방법의 사례를 살펴봄으로써 웨어러블 시스템을 위한성공적인 사용자 상호작용 모델에 대해 알아본다.

Hand Gesture 인식을 이용한 아바타 제어 (Avatar Control by using hand gesture recognition)

  • 최우영;김소연;송백균
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2004년도 춘계종합학술대회
    • /
    • pp.616-619
    • /
    • 2004
  • As interests Un virtual reality being increased, the importance of HCI(Human computer interaction) field using gesture is also increased. However, in the preceding gesture recognition, the requirement of high-cost peripheral equipments limits users right. In this paper we suggest that through using low cost of USB PC-camera users are allowed to have more flexibly and cost down so that it can be adopted much commonly.

  • PDF

경계선 기반의 대화형 영상분할 시스템 (Edge based Interactive Segmentation)

  • 윤현주;이상욱
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제8권2호
    • /
    • pp.15-22
    • /
    • 2002
  • 영상분할이란 영상내의 이미지 상의 특정한 의미가 있는 영역으로 나누는 영상처리 방법을 일컫는다. 이미지 합성이나 분석을 위해서는 구분된 영역이 최대한 인간이 의미를 부여할 수 있는 물체를 나타내는 것이 바람직하나, 현재의 컴퓨터에의한 자동 영상이해 기법으로는 그 학문적 및 기술적인 한계로 인하여 영역의 분할이 수치적인 의미 이상을 가지게하기 어렵다. 따라서, 사용자가 결정적인 물체 경계의 정보를 제공하고 그에 기반하여 처리하는 HCI(Human Computer Interaction)개념을 도입하면 효과적인 결과를 얻을 수 있다. 기존의 "지능형 가위" (Intelligent Scissors)나 스네이크 (Snake) 방법 등에서도 사용자의 입력이 결과에 결정적인 역할을 하는 것을 보여준다 [1][2]. 본 논문은 기존의 방법에 비하여 미세한 영역의 경계를 추출 및 추적을 향상할 수 있는 효율적인 대화형 영상분할 기법을 제안한다. 제시된 방법은 지능형 가위의 개념에 일부 기반하나 안정된 경계선 추출을 위하여 이미 영상처리분야에서 확립된 캐니 경계 검출법(Canny Edge Detector)을 사용한다. 그리고 캐니 경계 검출법으로 잘 탐지되지 않는 경계선 부분에 대한 검출을 위하여 경계 "재봉법"(Sewing Method)을 제시하였으며, 작업 효과와 효율을 증진 시키기 위하여 인접 화소들을 검색하는 순서와 검색 대상 화소를 지정하는 5-방향 경계 추적 방법(5-Direction Edge-Following Method)을 제안하였다.

  • PDF