• Title/Summary/Keyword: 의사소통시스템

Search Result 571, Processing Time 0.039 seconds

Communication-system using the BCI (뇌-컴퓨터 인터페이스를 이용한 의사전달기)

  • 조한범;양은주;음태완;김응수
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2003.05a
    • /
    • pp.113-116
    • /
    • 2003
  • A person does communication between each other using language. But, In the case of disabled person, call not communicate own idea to use writing and gesture. We embodied communication system using the ERG so that disabled Person can do communication. After feature extraction of the EEG included facial muscle, it is converted the facial muscle into control signal. and then did so that can select character and communicate idea.

  • PDF

A Study on Sign Language Recognition System Using LeapMotion (LeapMotion을 이용한 수화인식 시스템의 관한 연구)

  • Moon, Hyeok Jin;Kim, Sun Jae;Jung, June Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.1041-1044
    • /
    • 2017
  • 말하기와 듣기가 불가능한 언어장애인들은 수화를 통하여 그들끼리 혹은 일반인과 의사소통을 해야 한다. 수화 또한 공용어이기에 전문통역사 없이도 서로간의 의사소통이 원활해야 하지만, 현실은 그렇지 않다. 이 시스템은 LeapMotion장비를 연결 및 각종 손동작을 인식 받아 데이터 세트 내에서 처리하여 이를 자연어로 변환함으로써 의사소통의 불편함을 해소할 수 있다. 또한 머신러닝을 이용하여 반복 학습할 수 있게 설계함으로써 처리율 향상을 기대할 수 있다.

Chatting System that Pseudomorpheme-based Korean (의사 형태소 단위 채팅 시스템)

  • Kim, Sihyung;Kim, HarkSoo
    • 한국어정보학회:학술대회논문집
    • /
    • 2016.10a
    • /
    • pp.263-267
    • /
    • 2016
  • 채팅 시스템은 사람이 사용하는 언어로 컴퓨터와 의사소통을 하는 시스템이다. 최근 딥 러닝이 큰 화두가 되면서 다양한 채팅 시스템에 관한 연구가 빠르게 진행 되고 있다. 본 논문에서는 문장을 Recurrent Neural Network기반 의사형태소 분석기로 분리하고 Attention mechanism Encoder-Decoder Model의 입력으로 사용하는 채팅 시스템을 제안한다. 채팅 데이터를 통한 실험에서 사용자 문장이 짧은 경우는 답변이 잘 나오는 것을 확인하였으나 긴 문장에 대해서는 문법에 맞지 않는 문장이 생성되는 것을 알 수 있었다.

  • PDF

Design and Implementation of Web-based Information Reporting System for Group Project Management (그룹프로젝트관리 지원을 위한 웹기반 정보보고시스템의 설계 및 구현)

  • Kim, Myong-Ok;Park, Eun-Byul
    • The Journal of Society for e-Business Studies
    • /
    • v.15 no.4
    • /
    • pp.245-263
    • /
    • 2010
  • Today, large enterprises are changing their team organization to group organization. These trends have brought work flexibility of project and manpower usage. However, communication among group members has become more complicated, and it has been found that ERP was not efficient enough to solve this communication problem. The main purpose of this study was to design a quick and systematic communication system for group project management, and Web-based Information Reporting System (hence forth WIRS) has been proposed. The main topics covered in this paper are design of functions and system architecture, process model design, database design, and implementation of the prototype. Focus group interview was conducted and user feedback was positive about main functions for WIRS and its overall impact on the enhancement of productivity.

A System Prototype for Remote Haptic Communication (원격 촉감 커뮤니케이션을 위한 시스템 프로토타입)

  • Cha, Jong-Eun;Lee, Jun-Hun;Ryu, Je-Ha
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.238-243
    • /
    • 2006
  • 최근에는 통신기술과 인터넷의 발달로 원격의 사람과 전화, 이메일, 메신저 또는 화상회의 시스템 등을 통해서 쉽게 의사소통 할 수 있다. 이 시스템들은 주로 음성, 그림, 동영상 또는 문자 기반의 시청각 정보를 서로 주고 받으며 자신의 의사 및 감정을 전달하는 통로를 제공한다. 그러나 일상 생활에서 시청각 정보 외에 촉감 정보도 서로 의사소통 하는데 중요한 역할을 한다. 악수, 포옹 등의 촉감 상호작용은 사람 사이에서 친근감을 표시하는데 가장 직접적인 방법으로 자신의 감정을 전달하거나 느낌을 표현하는데 사용된다. 그럼에도 불구하고 촉감 상호작용을 가능케 하는 의사소통 시스템의 연구는 아직 폭넓게 진행되고 있지 않다. 본 논문에서는 일상에서와 같이 원격에서도 상대를 바라 볼 수 있고 자연스럽게 접촉할 수 있는 원격 촉감 커뮤니케이션 시스템을 제안한다. 이 시스템에서는 로컬 사용자가 손가락으로 상대의 몸 특정 부위를 만질 수 있고 서로 그 촉감을 실시간으로 느낄 수 있다. 이 시스템은 크게 AR 시스템, 그래픽 시스템, 햅틱 시스템, 택타일 시스템의 부시스템들로 나눌 수 있다. AR 시스템에서는 몸의 한 부위에 사각형의 AR 마커를 부착한 원격 사용자를 웹카메라로 촬영하고 ARToolKit 을 사용하여 마커의 위치를 측정한다. AR 마커의 바로 밑에는 택타일 장치가 장착되어 있으며 이 부위를 통하여 원격의 사용자는 로컬사용자가 자신의 팔을 만지는 느낌을 받게된다. 그래픽 시스템은 로컬사용자에게 촬영된 원격 사용자와 측정된 마커의 위치가 대표하는 원격 사용자의 가상 피부, 그리고 자신의 가상 손가락을 보여준다. 햅틱 시스템에서는 촉감 장치를 사용하여 로컬 사용자의 손가락 위치를 구하여 원격 사용자의 가상 피부와 접촉했을 때 그 충돌을 감지하고 접촉력을 계산하여 촉감 장치에 반영함으로써 그 접촉력을 느낄 수 있도록 한다. 택타일 시스템에서는 원격 사용자의 AR 마커 밑에 장착된 배열 타입의 진동 촉감 장치에 접촉 정보를 주어 로컬 사용자와 접촉 했을 때 접촉 부위에 진동을 줌으로써 촉감을 느끼도록 한다.

  • PDF

A Jabber-based Messenger System for Effective Collaboration (효과적인 협업지원을 위한 Jabber 기반의 메신저 시스템)

  • 황의윤;이근웅;안건태;김진홍;이명준
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04d
    • /
    • pp.154-156
    • /
    • 2003
  • BioPlace 시스템은 유전체 관련 연구자들의 효과적인 정보교환과 연구 활동을 지원하기 위한 웹기반 협업지원 시스템이다. 현재 BioPlace 시스템은 정보를 교환하는 방법이 대부분 비동기적 이어서 실제 공동작업의 과정에서 발생할 수 있는 여러 가지 전달사항이나 수시로 변하는 정보를 실시간으로 전달할 수 있는 방법을 제공하고 있지 않다. Jabber 메시징 시스템은 XML 기반의 개방형 메시징 시스템으로서 실시간 의사소통을 지원하기 위한 다양한 기능과 타 메시징 시스템과의 연동을 제공하고 있어서 능률적인 메시징 서비스의 개발을 지원한다. 따라서, BioPlace 협업지원 시스템에서 Jabber 메시징 서비스를 제공함으로써 이러한 문제를 해결할 수 있다. 본 논문에서는 BioPlace 협업지원 시스템에서 실시간 의사소통 수단으로 사용될 수 있도록 Jabber 실시간 메시징 시스템을 확장하여 BioPlace 메신저 시스템을 설계하고, 실제 구동 가능한 서버와 클라이언트 시스템을 개발하였다.

  • PDF

Design and Implementation of Dynamic Emotion System for Affective Robots with personality (감성로봇의 성격을 고려한 동적인 감성시스템의 설계와 구현)

  • Lee, Yong-Woo;Kim, Jong-Bok;Suh, Il-Hong;Lee, Sang-Hoon
    • Proceedings of the KIEE Conference
    • /
    • 2006.10c
    • /
    • pp.276-278
    • /
    • 2006
  • 인간의 감성은 의사결정과 의사소통에 있어서 중요한 역할을 한다. 감성의 생성과 표현은 성격에 의해 영향을 받는다. 이와 같은 감성과 성격을 반영한 로봇은 보다 자연스러운 표현과 효율적인 의사소통을 할 수 있다. 본 논문은 상태방정식과 출력 방정식으로 구성된 성격을 고려한 감성 시스템을 제안한다. 상태방정식은 외부자극으로부터 감정을 생성하고, 출력방정식은 성격과 환경을 반영하여 감정의 표현 강도를 결정한다. 감성시스템에서 성격은 입력된 자극을 통한 성격 5요인이론에 언급된 5요인의 값을 변화시킴으로써 학습된다. 또한 고전적 학습방법으로 자극을 학습하여 감정의 형성에 영향을 주는 자극의 수를 증가시킨다.

  • PDF

A Study on Touch Interaction Styles of Mobile phone (휴대폰의 터치 인터랙션 유형에 관한 연구 (시스템 모델 중심으로))

  • Jo, Han-Kyung;Pan, Young-Hwan;Jeung, Ji-Hong
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.971-975
    • /
    • 2009
  • 최근 다양하게 출시되는 터치스크린 휴대폰 시장의 흐름에 맞춰 터치 인터랙션 유형에 관한 연구 또한 활발히 진행되고 있다. 그러나 기존의 연구들은 터치 입력 인터랙션 유형의 사용자 모델에만 초점이 맞추어져 있는 상태이다. 시스템 모델의 이해부족 현상과, 터치 인터랙션의 사용자 모델과 시스템 모델사이의 차이점에서 나타나는 충돌은 잘못된 인터랙션 문제를 발생시키며, 사용자들에게 혼란 줄 수 있다. 때문에 본 연구는 터치 입력 인터랙션 유형의 시스템 모델에 초점을 맞춰서 진행하였다. 터치 인터랙션 유형 시스템 모델의 정의에 있어서 시간 축을 기준으로 터치 인터랙션 유형을 정의하였다. 정의된 시스템 모델을 기반으로 6개의 기본 입력 인터랙션을 각각 비교하여 상관관계를 도출하였고, 이 결과의 유효성 검증을 위해 전문가 인터뷰를 실시했다. 정리된 터치 인터랙션 유형의 시스템 모델 정의 및 상관관계는 앞으로 다양한 터치 기반 인터랙션 개발 시 최적화된 터치 유형 개발에 활용 될 수 있으며, 개발에 참여하는 디자이너, 개발자, 기획자들이 시스템 기능을 이해하는데 도움을 주며 그들의 원활한 의사소통 수단으로 쓰임과 동시에 고객들과의 의사소통에 효과적으로 쓰일 것으로 기대된다.

  • PDF

Design and Implementation of Finger Language Translation System using Raspberry Pi and Leap Motion (라즈베리 파이와 립 모션을 이용한 지화 번역 시스템 설계 및 구현)

  • Jeong, Pil-Seong;Cho, Yang-Hyun
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.19 no.9
    • /
    • pp.2006-2013
    • /
    • 2015
  • Deaf are it is difficult to communicate to represent the voice heard, so theay use mostly using the speech, sign language, writing, etc. to communicate. It is the best way to use sign language, in order to communicate deaf and normal people each other. But they must understand to use sign language. In this paper, we designed and implementated finger language translation system to support communicate between deaf and normal people. We used leap motion as input device that can track finger and hand gesture. We used raspberry pi that is low power sing board computer to process input data and translate finger language. We implemented application used Node.js and MongoDB. The client application complied with HTML5 so that can be support any smart device with web browser.

Emotion-based Real-time Facial Expression Matching Dialogue System for Virtual Human (감정에 기반한 가상인간의 대화 및 표정 실시간 생성 시스템 구현)

  • Kim, Kirak;Yeon, Heeyeon;Eun, Taeyoung;Jung, Moonryul
    • Journal of the Korea Computer Graphics Society
    • /
    • v.28 no.3
    • /
    • pp.23-29
    • /
    • 2022
  • Virtual humans are implemented with dedicated modeling tools like Unity 3D Engine in virtual space (virtual reality, mixed reality, metaverse, etc.). Various human modeling tools have been introduced to implement virtual human-like appearance, voice, expression, and behavior similar to real people, and virtual humans implemented via these tools can communicate with users to some extent. However, most of the virtual humans so far have stayed unimodal using only text or speech. As AI technologies advance, the outdated machine-centered dialogue system is now changing to a human-centered, natural multi-modal system. By using several pre-trained networks, we implemented an emotion-based multi-modal dialogue system, which generates human-like utterances and displays appropriate facial expressions in real-time.