• Title/Summary/Keyword: 인간공학기반

Search Result 459, Processing Time 0.035 seconds

Human System Interface Design for the Governor Test Equipment (조속기 시험기의 인간-기계 연계 설계)

  • 허태영
    • Proceedings of the Korea Society for Simulation Conference
    • /
    • 1999.10a
    • /
    • pp.289-293
    • /
    • 1999
  • 디지털 기술을 기반으로 한 조속기 제어시스템의 제어 알고리즘에 대한 적합성과 하드웨어의 신뢰성 시험을 위한 다이나믹 테스트 베드를 구축하기 위해 증기 터빈 및 발전기의 특성을 그대로 모사하는 시뮬레이터 및 하드웨어를 개발하였으며, 개발된 시뮬레이터를 사용자(시험자)가 그 기능들을 적절하고 편리하게 사용할 수 있도록 인간공학의 원칙을 반영하여 설계하였다. 이를 위해 시뮬레이터가 가져야 하는 기능들을 시험 절차의 분석을 통해 도출하고 그 기능들을 사용 목적에 따라 적절하게 그룹핑하였으며, 가장 빈번하게 사용하는 Mimic Display의 경우 사용자가 항상 확인 가능하도록 주 화면에 구성한 인간-기계 연계 설계에 대해 소개하고자 한다.

  • PDF

Image Data Configuration and Recognition based on Visual Cortex (시각피질의 특성에 의한 영상 데이터 구성과 인식)

  • Cho, Jae-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.01a
    • /
    • pp.229-230
    • /
    • 2020
  • 컴퓨터 하드웨어, 소프트웨어의 급속한 발전에도 불구하고 인간의 정보처리능력에 뒤지는 경우도 있다. 이와 같이 인간의 정보처리체계가 어떻게 이런 문제를 해결할 수 있는지에 대한 연구가 활발히 진행 중이다. 본 논문에서는 인간의 시각 정보 처리의 특성에 의한 인지 정보 처리 모델링을 기반으로 학습 가능성을 보이고 일반적인 영상 인식 모델과의 차이를 비교 분석하고자 한다.

  • PDF

Emotion-based Real-time Facial Expression Matching Dialogue System for Virtual Human (감정에 기반한 가상인간의 대화 및 표정 실시간 생성 시스템 구현)

  • Kim, Kirak;Yeon, Heeyeon;Eun, Taeyoung;Jung, Moonryul
    • Journal of the Korea Computer Graphics Society
    • /
    • v.28 no.3
    • /
    • pp.23-29
    • /
    • 2022
  • Virtual humans are implemented with dedicated modeling tools like Unity 3D Engine in virtual space (virtual reality, mixed reality, metaverse, etc.). Various human modeling tools have been introduced to implement virtual human-like appearance, voice, expression, and behavior similar to real people, and virtual humans implemented via these tools can communicate with users to some extent. However, most of the virtual humans so far have stayed unimodal using only text or speech. As AI technologies advance, the outdated machine-centered dialogue system is now changing to a human-centered, natural multi-modal system. By using several pre-trained networks, we implemented an emotion-based multi-modal dialogue system, which generates human-like utterances and displays appropriate facial expressions in real-time.

Quantitative evaluation of climate change and human activities on watershed runoff: focused on the Nakdong River basin (기후변화와 인간 활동이 하천 유출량에 미치는 영향에 대한 정량적 평가: 낙동강 유역을 중심으로)

  • Mi Ju Oh;Dongwook Kim;Hyun-Han Kwon;Tae-Woong Kim
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.241-241
    • /
    • 2023
  • 최근 수십 년 동안 전 세계의 거의 모든 하천 유역은 기후변화와 인간 활동에 의해 직간접적으로 영향을 받았다. 특히, 유역 유출량은 기후변화와 인간 활동의 상호작용으로 수자원 분야에서 문제가 되고 있다. 기후와 인간 활동에 의해 변화하는 환경에서 수자원을 효율적으로 관리하기 위해서 유출량의 변화를 이해하는 것은 매우 중요하다. 따라서, 본 연구에서는 낙동강 유역의 22개 중권역을 대상으로 과거 관측자료 및 미래 기후변화 시나리오의 유출량, 강수량, 기온, 잠재 증발산량 및 실제 증발산량 자료를 이용하여 기후변화와 인간 활동이 유출량에 미치는 영향을 정량적으로 분석하였다. 과거 관측자료를 분석할 경우, 기초자료인 유출량의 경향성 및 유의성을 검증하기 위해 비모수적 방법인 Mann-Kendall 검증을 수행하였으며, Pettitt method를 이용하여 변화 지점을 결정하여 기준기간과 사후기간으로 구분하였다. 또한 Budyko 가설 기반 기후 탄력성 접근법을 이용하여 기후변화와 인간 활동이 하천 유출량에 미치는 영향을 정량적으로 분리하였다. 미래 RCP 시나리오 자료를 분석할 경우에도 기간을 나누고 기후 탄력성 접근법을 이용하여 유출량의 영향을 평가하였다. 분석 결과, 기후변화와 인간 활동의 상대적 기여도는 중권역 간에도 다양하다는 것을 확인할 수 있었다. 미래의 유출량을 분석한 결과, 대부분의 유역에서 기후변화의 기여도는 RCP 4.5일 때에 비해 RCP 8.5에서 더 크게 상승한 것으로 나타났다. 과거 기간(1966~2020)에 대하여 미래 기간 (2062~2099)에 대한 분석에서 중권역 중 금호강(#2012)은 RCP 4.5에서는 22.4%, RCP 8.5에서는 39.8%로 RCP 8.5가 큰 것으로 나타났다.

  • PDF

Audio-Visual Scene Aware Dialogue System Utilizing Action From Vision and Language Features (이미지-텍스트 자질을 이용한 행동 포착 비디오 기반 대화시스템)

  • Jungwoo Lim;Yoonna Jang;Junyoung Son;Seungyoon Lee;Kinam Park;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.253-257
    • /
    • 2023
  • 최근 다양한 대화 시스템이 스마트폰 어시스턴트, 자동 차 내비게이션, 음성 제어 스피커, 인간 중심 로봇 등의 실세계 인간-기계 인터페이스에 적용되고 있다. 하지만 대부분의 대화 시스템은 텍스트 기반으로 작동해 다중 모달리티 입력을 처리할 수 없다. 이 문제를 해결하기 위해서는 비디오와 같은 다중 모달리티 장면 인식을 통합한 대화 시스템이 필요하다. 기존의 비디오 기반 대화 시스템은 주로 시각, 이미지, 오디오 등의 다양한 자질을 합성하거나 사전 학습을 통해 이미지와 텍스트를 잘 정렬하는 데에만 집중하여 중요한 행동 단서와 소리 단서를 놓치고 있다는 한계가 존재한다. 본 논문은 이미지-텍스트 정렬의 사전학습 임베딩과 행동 단서, 소리 단서를 활용해 비디오 기반 대화 시스템을 개선한다. 제안한 모델은 텍스트와 이미지, 그리고 오디오 임베딩을 인코딩하고, 이를 바탕으로 관련 프레임과 행동 단서를 추출하여 발화를 생성하는 과정을 거친다. AVSD 데이터셋에서의 실험 결과, 제안한 모델이 기존의 모델보다 높은 성능을 보였으며, 대표적인 이미지-텍스트 자질들을 비디오 기반 대화시스템에서 비교 분석하였다.

  • PDF

Development of Gamsung Index Database for Web (웹 기반 감성지표 DB 구축에 관한 연구)

  • 서해성;최정아;최경주;이혜은;박수찬;채균식;이상태
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2001.05a
    • /
    • pp.204-209
    • /
    • 2001
  • 감성 연구의 생리, 심리, 동작 분석 등의 과정에서 발생하는 문서, 데이터, 화상, 그림, 그래픽 등의 자료 공유에 인터넷을 적용하는 것은 매우 유망하다, 본 연구에서는 현재의 인터넷 (또는 인트라넷) 환경을 고려하여 Ultra 2 DB 서버, Sun Solaris (UNIX) OS, UniSql DBMS, Apache Web 서버로 시스템을 구축하였다. 이 시스템을 이용하여 웹기반 감성데이터 베이스 시제품을 구축하여 각종 감성자료를 보급하는 체계를 1차 완료하였으며, 도메인(www.gamsung.or.kr)을 등록하여 서비스를 실시하고 있다. 이 시스템에는 1단계 감성공학기술개발 사업의 35개 연구보고서, 1단계 연구결과로서 생산한 262개 감성지표, 2단계(전반기) 연구사업의 78개 감성지표, 일본의 인간감각계측 및 응용기술개발 중심으로 생산하나 100개 감성지표, 음성데이터, 인체측정데이터, 얼굴표정데이터와 설문데이터 등의 감성데이터와 감성공학 연구자 인력, 국내제조업체 정보, 참고문헌, 감성 정보물 등을 DB화하여 인터넷을 통하여 조회, 검색할 수 있도록 하였다. 뿐만 아니라 현재 진행되고 있는 감성공학기술개발에 대한 각종 정보를 제공하고 있으며 감성공학의 기술 동향에 대해서도 소개하고 있다. 이는 한국인의 감성 연구에 적합한 감성공학 데이터 베이스 시스템 구축의 발판을 마련하였으며, 향후 소비자의 감성을 예측하고, 이를 시스템 설계에 반영할 수 있으므로 인간중심의 제품개발에 큰 기여를 할 것으로 기대된다.

Development of Gamsung Index Database for Web (웹 기반 감성지표 DB 구축에 관한 연구)

  • 곽현민;조해성;이상태
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2002.05a
    • /
    • pp.79-85
    • /
    • 2002
  • 감성 연구의 생리, 심리, 동작 분석 등의 과정에서 발생하는 문서, 데이터, 화상, 그림, 그래픽 등의 자료 공유에 인터넷을 적용하는 것은 매우 유망하다. 본 연구에서는 현재의 인터넷 (또는 인트라넷) 환경을 고려하여 Ultra 2 DB 서버, Sun Solaris (UNIX) OS, UniSql DBMS, Apache Web 서버로 시스템을 구축하였다. 이 시스템을 이용하여 웹기반 감성데이터 베이스 시제품을 구축하여 각종 감성자료를 보급하는 체계를 1차 완료하였으며, 도메인(www.gamsung.or.kr)을 등록하여 서비스를 실시하고 있다. 이 시스템에는 1단계 감성공학기술개발 사업의 35개 연구보고서, 1단계 연구결과로서 생산한 262개 감성지표, 2단계 연구사업의 130개 감성지표, 일본의 인간감각계측 및 응용기술개발 중심으로 생산한 125개 감성지표, 음성데이터, 음향데이터, 인체측정데이터, 얼굴표정데이터와 설문데이터 등의 감성데이터와 감성공학 연구자 인력, 국내제조업체 정보, 참고문헌, 감성 정보물 등을 DB화하여 인터넷을 통하여 조회, 검색할 수 있도록 하였다. 뿐만 아니라 현재 진행되고 있는 감성 공학기술개발에 대한 각종 정보를 제공하고 있으며 감성공학의 기술 동향에 대해서도 소개하고 있다. 이는 한국인의 감성 연구에 적합한 감성공학 데이터 베이스 시스템 구축의 발판을 마련하였으며, 향후 소비자의 감성을 예측하고, 이를 시스템 설계에 반영할 수 있으므로 인간중심의 제품개발에 큰 기여를 할 것으로 기대된다.

  • PDF

Design and Implementation of LED Lighting Control System based on Context Awareness in Home (주거공간의 상황인지 기반 LED 조명제어시스템 설계 및 구현)

  • Kim, Yun-Joo;Im, Kyoung-Mi;Lim, Jae-Hyun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.1288-1291
    • /
    • 2012
  • 주거공간 내 조명환경은 인간의 심리적, 생리적 기능에 많은 영향을 주는 요소임에도 불구하고 현재의 조명환경은 사용자의 상황과 공간 특성을 고려하지 않은 단일화된 형태로 제공하고 있다. 또한 인간의 심리에 영향을 미치는 조명의 요소로는 빛의 색온도, 조도, 색상, 눈부심, 균제도 등이 있으나 대다수의 조명은 밝은 조도에만 초점을 맞추어 사람의 눈부심을 자극하는 조명이 대부분을 차지하고 있다. 따라서 사용자에게 좀 더 편안하고 쾌적한 조명환경을 제공하기 위해서는 사용자의 행동, 심리적 상황 등에 따라 조명의 색온도, 조도 그리고 색상이 고려된 상황조명 서비스가 필요하다. 본 논문에서는 사용자의 재실여부와 행위 등의 상황을 인지하고 이에 따라 조명의 On/Off, 색온도, 조도, 색상의 조명환경을 제공하는 상황인지 기반의 LED 조명 제어시스템을 제안한다.

A Study on Deep Learning Based RobotArm System (딥러닝 기반의 로봇팔 시스템 연구)

  • Shin, Jun-Ho;Shim, Gyu-Seok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.901-904
    • /
    • 2020
  • 본 시스템은 세 단계의 모델을 복합적으로 구성하여 이루어진다. 첫 단계로 사람의 음성언어를 텍스트로 전환한 후 사용자의 발화 의도를 분류해내는 BoW방식을 이용해 인간의 명령을 이해할 수 있는 자연어 처리 알고리즘을 구성한다. 이후 YOLOv3-tiny를 이용한 실시간 영상처리모델과 OctoMapping모델을 활용하여 주변환경에 대한 3차원 지도생성 후 지도데이터를 기반으로하여 동작하는 기구제어 알고리즘 등을 ROS actionlib을 이용한 관리자시스템을 구성하여 ROS와 딥러닝을 활용한 편리한 인간-로봇 상호작용 시스템을 제안한다.

Training Participant Character Detection Method for YOLOv8-based Military Virtual Training System (YOLOv8 기반 군사용 가상훈련체계의 훈련자 캐릭터 검출 방법)

  • Yong-Jae Park;Jae-Hyeok Han;Mi-Hye Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2024.05a
    • /
    • pp.760-763
    • /
    • 2024
  • 실제 전투와 유사한 군사 훈련을 수행하기 위해서는 훈련 공간 확보, 악천후 극복, 실 사격 훈련, 민간인 통제 등 다양한 제약이 있다. 이러한 제약을 극복하기 위해 과학화 훈련이 도입되었으며, 현대전의 양상이 대규모 전투에서 소규모 교전으로 전환되면서 가상 훈련 시스템이 주목을 받고 있다. 가상 현실에서 적을 감지하기 위해 광선투사방식이 사용되지만, 이 방법은 인간의 시각 지각능력을 넘어서기 때문에 현실적인 훈련을 시뮬레이션 하는 데 한계가 있다. 본 논문은 가상 환경 내 가상자율군(Computer Generated Forces)이 현실적인 적 시뮬레이션을 달성하기 위하여 이미지 기반의 적 검출을 적용하여, 광선투사방식에 비해 인간 시각 지각에 더 가까운 결과를 얻었다.