• 제목/요약/키워드: Human/System Interface

검색결과 783건 처리시간 0.036초

A Method to Select Humane-System Interfaces for Nuclear Power Plants

  • Hugo, Jacques V.;Gertman, David I.
    • Nuclear Engineering and Technology
    • /
    • 제48권1호
    • /
    • pp.87-97
    • /
    • 2016
  • The new generation of nuclear power plants (NPPs) will likely make use of state-of-the-art technologies in many areas of the plant. The analysis, design, and selection of advanced human-system interfaces (HSIs) constitute an important part of power plant engineering. Designers need to consider the new capabilities afforded by these technologies in the context of current regulations and new operational concepts, which is why they need a more rigorous method by which to plan the introduction of advanced HSIs in NPP work areas. Much of current human factors research stops at the user interface and fails to provide a definitive process for integration of end user devices with instrumentation and control and operational concepts. The current lack of a clear definition of HSI technology, including the process for integration, makes characterization and implementation of new and advanced HSIs difficult. This paper describes how new design concepts in the nuclear industry can be analyzed and how HSI technologies associated with new industrial processes might be considered. It also describes a basis for an understanding of human as well as technology characteristics that could be incorporated into a prioritization scheme for technology selection and deployment plans.

Network human-robot interface at service level

  • Nguyen, To Dong;Oh, Sang-Rok;You, Bum-Jae
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1938-1943
    • /
    • 2005
  • Network human-robot interface is an important research topic. In home application, users access the robotic system directly via voice, gestures or through the network. Users explore a system by using the services provided by this system and to some extend users are enable to participate in a service as partners. A service may be provided by a robot, a group of robots or robots and other network connected systems (distributed sensors, information systems, etc). All these services are done in the network environment, where uncertainty such as the unstable network connection, the availability of the partners in a service, exists. Moreover, these services are controlled by several users, accessing at different time by different methods. Our research aimed at solving this problem to provide a high available level, flexible coordination system. In this paper, a multi-agent framework is proposed. This framework is validated by using our new concept of slave agents, a responsive multi-agent environment, a virtual directory facilitator (VDF), and a task allocation system using contract net protocol. Our system uses a mixed model between distributed and centralized model. It uses a centralized agent management system (AMS) to control the overall system. However, the partners and users may be distributed agents connected to the center through agent communication or centralized at the AMS container using the slave agents to represent the physical agents. The system is able to determine the task allocation for a group of robot working as a team to provide a service. A number of experiments have been conducted successfully in our lab environment using Issac robot, a PDA for user agent and a wireless network system, operated under our multi agent framework control. The experiments show that this framework works well and provides some advantages to existing systems.

  • PDF

근전도와 안전도 기반의 인간-기계 인터페이스기술 (Development of Human-machine Interface based on EMG and EOG)

  • 강경우;김태선
    • 전자공학회논문지
    • /
    • 제50권12호
    • /
    • pp.129-137
    • /
    • 2013
  • 최근 다양한 컴퓨터기반 장치들의 사용 확대에 따라 장애인에게도 정보접근의 용이성 확보가 요구되고 있다. 특히 사지를 움직일 수 없는 중증 장애인들을 위한 새로운 입력 인터페이스 기술의 개발이 절실히 요구된다. 이를 위해 본 논문에서는 중증 장애인이 활용 가능한 눈동자 움직임 및 깨물기를 통한 안전도(EOG)와 근전도(EMG)신호를 이용하여 아홉 가지의 명령이 가능한 인터페이스 시스템을 개발하였다. 구현된 시스템은 하드웨어로 구성된 센서모듈과 특징추출 및 패턴분류를 포함하는 소프트웨어부로 구성된다. 개발된 기술은 사용자의 편의성을 극대화하기 위해 두 개의 전극만을 이마부위에 부착하여 안전도와 근전도를 동시에 측정하고, 이를 통해 아홉 가지의 명령전달이 가능하도록 하였다. 성능평가를 위한 java 기반 실시간 모니터링 프로그램의 실험결과 92.52%의 인식률을 보였다. 또한, 구현된 시스템의 실용성을 입증하기 위해 다섯 종류의 명령을 이용하여 ER1 로봇의 조종에 성공적으로 적용 가능함을 보임으로써 장애인을 위한 새로운 인터페이스로서의 가능성을 보였다.

휴먼 증강 소방헬멧 정보처리 시스템 인터페이스 연구 (A Study on the interface of information processing system on Human enhancement fire fighting helmet)

  • 박현주;이감연
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 추계학술대회
    • /
    • pp.497-498
    • /
    • 2018
  • 화재 현장은 정전과 연기와 유독가스로 인해 열영상카메라 및 제논탐조등으로도 전방 가시거리 1m를 확보하기 힘든 것이 현실이다. 화재현장의 연기입자를 분석해보면, 파장 $5{\mu}m$ 이하의 흰색 연기일지라도, 가시거리가 1미터 이상이 되면 기존의 열영상 카메라 등을 이용할 경우 전방시야 확보가 어렵다. 입자 파장 $5{\mu}m$ 이상의 검은 연기에는 화학소재와 가스, 물분자가 섞여 있어 단일 센서가 아닌 다양한 센서를 이용한 공간투과 센서 기술이 필요하다. 전방 안전시야 확보를 위해 연기투과 및 공간정보 가시화를 위한 라이다 센싱 기술이 필요하다. 본 논문에서는 32bit CPU코어 및 주변회로를 갖춘 정보처리 시스템의 인터페이스를 설계하였다. 또한 라이다 센서와의 인터페이스를 구현하고 이를 시뮬레이션 하였으며 이를 통해 향후 휴먼 증강 소방헬멧의 정보처리 시스템을 구현 가능한 인터페이스를 제공하였다.

  • PDF

Development of advanced walking assist system employing stiffness sensor

  • Kim, Seok-Hwan;Shunji, Moromugi;Ishimatsu, Takakazu
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1638-1641
    • /
    • 2004
  • Many walking stands, and assisting tools have been developed for the people with low-limb disability to prevent diseases from bedridden state and to help them walk again. But many of those equipments require user to have some physical strength or balancing ability. In our last research, we developed walking assist system for the people with lower-limb disability. With the system, user can be assisted by actuators, and do not have to worry about falling down. The system adapted the unique closed links structure with four servomotors, three PICs as controller, and four limit switches as HMI (human man interface). We confirmed the adaptability of the system by the experiment. In this research, Muscle Stiffness Sensor was tested as the advanced HMI for walking assist system, and confirmed the adaptability by the experiment. As Muscle Stiffness Sensor can attain the muscle activity, user can interface with any device he want to control. Experimental result with Muscle Stiffness sonsor showed that user could easily control the walking assist system as his will, just by changing his muscle strength.

  • PDF

PCB 생산 자동화를 위한 데이터 변환 시스템 구현 (Data Transformation System Implementation for the Automation of PCB Product)

  • 이승혁;김귀정;한정수
    • 한국콘텐츠학회논문지
    • /
    • 제5권5호
    • /
    • pp.17-25
    • /
    • 2005
  • 본 논문은 PCB 생산 자동화를 위한 데이터 변환 시스템을 구현한다. CAD로 설계한 데이터는 PCB 생산라인과의 데이터 호환을 이루지 못하기 때문에 데이터 호환을 갖는 자동화 시스템이 필요하다. 본 논문에서는 PCB 생산 자동화를 위한 PCB 부품 정보를 분석하고 IC 부품 정보를 DB로 구축한다. CAD 설계자의 Human error 검출 알고리즘을 개발하고, PCB 생산 라인에 적합한 데이터로 변환하는 알고리즘을 개발한다. PCB 생산라인의 부품의 정보 추가, 수정하기 위한 데이터 변환 인터페이스를 설계 및 구현한다. 기존의 수작업 공정을 자동화함으로서 처리속도를 대폭 개선하였으며, 신뢰성 있는 칙적화된 데이터로 PCB 생산 자동화에 일조를 할 수 있다.

  • PDF

멀티모달 사용자 중심 인터페이스를 적용한 인체 학습 시스템 (Human body learning system using multimodal and user-centric interfaces)

  • 김기민;김재일;박진아
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.85-90
    • /
    • 2008
  • 본 논문은 유연하고 다각적인 인터페이스를 이용한 사용자 중심의 능동적인 인체 학습 시스템을 제안한다. 기존의 인체 학습 방법은 이미지, 텍스트, 영상자료부터 학습자로의 주입식 학습이었다. 본 논문에서 제안한 인체 학습 시스템은 실제 인체 장기 데이터로 제작된 3D 인체 장기 모델을 제공함으로써 학습자는 사실적인 장기의 형태를 3차원 공간에서 보고, 장기에 대한 촉감을 제공하는 햅틱 인터페이스와 학습자의 의도에 기반한 카메라 시스템으로 써 능동적이고 다각적인 학습을 진행할 수 있다. 그리고 계층 기반 장기 분류를 통하여 구축된 학습 정보를 통하여, 전체적인 시각에 기초한 인체 학습 과정을 진행할 수 있다. 본 인체 학습 시스템으로써 기존의 평면적인 인체 학습교재, 자료 등에서 얻을 수 없는 입체적인 인터페이스를 통한 학습 효율 향상의 가능성을 보고자 한다.

  • PDF

Stereo-Vision-Based Human-Computer Interaction with Tactile Stimulation

  • Yong, Ho-Joong;Back, Jong-Won;Jang, Tae-Jeong
    • ETRI Journal
    • /
    • 제29권3호
    • /
    • pp.305-310
    • /
    • 2007
  • If a virtual object in a virtual environment represented by a stereo vision system could be touched by a user with some tactile feeling on his/her fingertip, the sense of reality would be heightened. To create a visual impression as if the user were directly pointing to a desired point on a virtual object with his/her own finger, we need to align virtual space coordinates and physical space coordinates. Also, if there is no tactile feeling when the user touches a virtual object, the virtual object would seem to be a ghost. Therefore, a haptic interface device is required to give some tactile sensation to the user. We have constructed such a human-computer interaction system in the form of a simple virtual reality game using a stereo vision system, a vibro-tactile device module, and two position/orientation sensors.

  • PDF

Exoskeleton 형태의 모션 캡쳐 장치를 이용한 이동로봇의 원격 제어 (Teleoperated Control of a Mobile Robot Using an Exoskeleton-Type Motion Capturing Device Through Wireless Communication)

  • 전풍우;정슬
    • 제어로봇시스템학회논문지
    • /
    • 제10권5호
    • /
    • pp.434-441
    • /
    • 2004
  • In this paper, an exoskeleton-type motion capturing system is designed and implemented. The device is designed to have 12 degree-of-freedom entirely to represent human arm motions. Forward and inverse kinematics of the device are analyzed to make sure of its singular positions. With the designed model parameters, simulation studies are conducted to verify that the designed motion capturing system is effective to represent human motions within the workspace. As a counterpart of the exoskeleton system, a mobile robot is built to follow human motion restrictively. Experimental studies of teleoperation from the exoskeleton device to control the mobile robot are carried out to show feasible application of wireless man-machine interface.

손 자세 인식을 이용한 MPEG-U 기반 향상된 사용자 상호작용 인터페이스 시스템 (MPEG-U based Advanced User Interaction Interface System Using Hand Posture Recognition)

  • 한국희;이인재;최해철
    • 방송공학회논문지
    • /
    • 제19권1호
    • /
    • pp.83-95
    • /
    • 2014
  • 최근 손과 손가락을 인식하는 기술은 HCI(human computer interaction)에서 자연스럽고 친숙한 환경을 제공하기 위한 기술로 주목 받고 있다. 본 논문에서는 깊이 카메라를 이용하여 손과 손가락의 모양을 검출 및 인식하는 방법을 제안하고, 그 인식 결과를 활용하여 다양한 기기와 상호연동 할 수 있는 MPEG-U 기반 향상된 사용자 상호작용 인터페이스 시스템을 제안한다. 제안하는 시스템은 깊이 카메라를 이용하여 손을 검출한 후, 손목의 위치를 찾아 최소 손 영역을 검출한다. 이어서 검출된 최소 손 영역으로부터 손가락 끝점을 검출 한 후, 최소 손 영역의 중심점과 손가락 끝점간의 뼈대를 만든다. 이렇게 만든 뼈대의 길이와 인접 뼈대간의 각도차를 분석하여 손가락을 판별한다. 또한, 제안하는 시스템은 사용자가 MPEG-U에서 정의하는 다양한 심벌들을 손 자세로 취하였을 때 제안 방법을 이용하여 손 자세를 인식하고, 인식 결과를 상호연동 가능한 MPEG-U 스키마 구조로 표현한다. 실험에서는 다양한 환경에서 제안하는 손 자세 인식 방법의 성능을 보인다. 또한, 제안 시스템의 상호연동성을 보이기 위해 인식 결과를 MPEG-U part2 표준에 맞는 XML 문서로 표현하고, MPEG-U 참조 소프트웨어를 이용하여 그 표현 결과에 대한 표준 부합성을 검증한다.