• 제목/요약/키워드: Multimodal Interface

검색결과 54건 처리시간 0.023초

가변어휘 음성인식기의 성능개선 (Performance Improvement of Variable Vocabulary Speech Recognizer)

  • 김승희;김회린
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1999년도 학술발표대회 논문집 제18권 2호
    • /
    • pp.21-24
    • /
    • 1999
  • 본 논문에서는 가변어휘 음성인식기의 성능개선 작업에 관한 내용을 기술하고 있다. 묵음을 포함한 총 40개의 문맥독립 음소모델을 사용한다. LDA 기법을 이용하여 동일차수의 특징벡터내에 보다 유용한 정보를 포함시키고, likelihood 계산시 가우시안 분포와 mixture weight에 대한 가중치를 달리 함으로써 성능향상을 볼 수 있었다. ETRI POW 3848 DB만을 사용하여 실험한 경우, $21.7\%$의 오류율 감소를 확인할 수 있었다. 잡음환경 및 어휘독립환경을 고려하여 POW 3848 DB와 PC 168 DB 및 PBW445 DB를 사용한 실험도 행하였으며, PBW 445 DB를 사용한 어휘독립 인식실험의 경우 $56.8\%$의 오류율 감소를 얻을 수 있었다.

  • PDF

몰입형 가상교육을 위한 멀티모달 인터페이스 제어모듈 (Multimodal Interface Control Module for Immersive Virtual Education)

  • 이재협;임성민
    • 한국실천공학교육학회논문지
    • /
    • 제5권1호
    • /
    • pp.40-44
    • /
    • 2013
  • 본 연구에서는 학습자가 가상공간 내에서 교육 컨텐츠를 자연스럽게 조작할 수 있는 멀티모달 인터페이스 제어모듈을 제시한다. 제안하는 모듈은 사용자가 가상공간과 인터랙션을 할 때 사용자의 모션을 인식하고 인식된 정보를 무선통신을 통하여 가상공간으로 전달한다. 제안하는 입력장치는 햅틱 액츄에이터를 탑재하고 있어 교육 컨텐츠와 사용자의 인터랙션에 따른 햅틱 감각을 생성하여 사용자가 교육용 컨텐츠들을 쉽게 조작할 수 있게 해 준다.

  • PDF

인간의 언어와 얼굴 표정에 통하여 자동적으로 감정 인식 시스템 새로운 접근법 (Automatic Human Emotion Recognition from Speech and Face Display - A New Approach)

  • 딩�E령;이영구;이승룡
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(B)
    • /
    • pp.231-234
    • /
    • 2011
  • Audiovisual-based human emotion recognition can be considered a good approach for multimodal humancomputer interaction. However, the optimal multimodal information fusion remains challenges. In order to overcome the limitations and bring robustness to the interface, we propose a framework of automatic human emotion recognition system from speech and face display. In this paper, we develop a new approach for fusing information in model-level based on the relationship between speech and face expression to detect automatic temporal segments and perform multimodal information fusion.

피부 모사형 다기능 유연 센서의 연구 동향 (Recent Research Trend in Skin-Inspired Soft Sensors with Multimodality)

  • 이승구;최경호;신교직;이효선;배근열
    • 접착 및 계면
    • /
    • 제21권4호
    • /
    • pp.162-167
    • /
    • 2020
  • 피부 모사형 다기능 유연 센서는 인체 피부의 높은 자극 감지 성능과 기계적 안정성을 모사하고자 다학계적 접근을 통해 발전되어 왔다. 하지만, 실제 적용을 위해서는 일상생활 속에서 접하는 다양한 종류의 자극을 명확히 구분하고 각 자극의 세기를 정확히 감지하는 높은 수준의 자극 구별 능력이 필수적임에도 불구하고, 아직까지 낮은 수준의 자극 구별 능력을 보이는 실정이다. 본고에서는 기존 피부 모사형 유연 센서의 기본적인 작동 메커니즘과 대표적인 연구들을 간략히 소개하고, 최근 보고된 피부 모사형 다기능 유연 센서 관련 연구들의 연구 결과 및 자극 구별 능력에 대해 깊이 있게 다루고자 한다.

멀티모달 사용자 중심 인터페이스를 적용한 인체 학습 시스템 (Human body learning system using multimodal and user-centric interfaces)

  • 김기민;김재일;박진아
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.85-90
    • /
    • 2008
  • 본 논문은 유연하고 다각적인 인터페이스를 이용한 사용자 중심의 능동적인 인체 학습 시스템을 제안한다. 기존의 인체 학습 방법은 이미지, 텍스트, 영상자료부터 학습자로의 주입식 학습이었다. 본 논문에서 제안한 인체 학습 시스템은 실제 인체 장기 데이터로 제작된 3D 인체 장기 모델을 제공함으로써 학습자는 사실적인 장기의 형태를 3차원 공간에서 보고, 장기에 대한 촉감을 제공하는 햅틱 인터페이스와 학습자의 의도에 기반한 카메라 시스템으로 써 능동적이고 다각적인 학습을 진행할 수 있다. 그리고 계층 기반 장기 분류를 통하여 구축된 학습 정보를 통하여, 전체적인 시각에 기초한 인체 학습 과정을 진행할 수 있다. 본 인체 학습 시스템으로써 기존의 평면적인 인체 학습교재, 자료 등에서 얻을 수 없는 입체적인 인터페이스를 통한 학습 효율 향상의 가능성을 보고자 한다.

  • PDF

비접촉식 제스처 기반 3D 조형 태스크를 위한 다중 모달리티 인터페이스 디자인 연구 (Multi - Modal Interface Design for Non - Touch Gesture Based 3D Sculpting Task)

  • 손민지;유승헌
    • 디자인융복합연구
    • /
    • 제16권5호
    • /
    • pp.177-190
    • /
    • 2017
  • 본 연구는 비접촉식 제스처 기반 조형 태스크의 직관성 향상을 위한 다중 모달리티 인터페이스 디자인 GSS를 제안하였다. 디자인 조형 과정 및 조형 형태에 대한 사용자 경험을 조사한 후, 기술 발전에 따른 세대별 조형 시스템을 분석하였다. 또, 비접촉 3D 조형 시스템상에서의 조형 제작 프로세스, 조형 제작 환경, 제스처와 조형 태스크 간의 관계성, 자연스러운 손 조합 패턴과 사용자 손동작 요소들을 정의하였다. 이후, 기존 비접촉 3D 조형 시스템상에서 비접촉식 제스처 인터랙션을 관찰하고 자연스러운 조형 제작을 위해 조형 작성자의 행동체계가 반영된 인터페이스의 시각적 메타포와 자연스러운 제스처 인터랙션을 유도할 수 있는 행동적 메타포를 도출하였다. 프로토타입을 개발한 후, 제안된 주요 조형 태스크별 제스처 세트의 직관성을 알아보기 위해 기존 조형 시스템들과 비교하여 사용성 평가를 진행하였다. 제안된 GSS 시스템의 제스처는 이해도, 기억성, 오류율에서 우수성을 보였다. 제스처 인터페이스는 사용자의 경험에 기반한 시각적/행동적 메타포를 바탕으로 시각적 모달리티가 함께 사용된 제스처 인터페이스를 사용자들에게 제공되어야 한다는 것을 확인하였다.

Prediction of Concrete Pumping Using Various Rheological Models

  • Choi, Myoung Sung;Kim, Young Jin;Kim, Jin Keun
    • International Journal of Concrete Structures and Materials
    • /
    • 제8권4호
    • /
    • pp.269-278
    • /
    • 2014
  • When concrete is being transported through a pipe, the lubrication layer is formed at the interface between concrete and the pipe wall and is the major factor facilitating concrete pumping. A possible mechanism that illustrates to the formation of the layer is the shear-induced particle migration and determining the rheological parameters is a paramount factor to simulate the concrete flow in pipe. In this study, numerical simulations considering various rheological models in the shear-induced particle migration were conducted and compared with 170 m full-scale pumping tests. It was found that the multimodal viscosity model representing concrete as a three-phase suspension consisting of cement paste, sand and gravel can accurately simulate the lubrication layer. Moreover, considering the particle shape effects of concrete constituents with increased intrinsic viscosity can more exactly predict the pipe flow of pumped concrete.

유비쿼터스 환경에서 PDA를 이용한 다중생체인식 시스템 구현 (Multimodal biometrics system using PDA under ubiquitous environments)

  • 권만준;양동화;김용삼;이대종;전명근
    • 한국지능시스템학회논문지
    • /
    • 제16권4호
    • /
    • pp.430-435
    • /
    • 2006
  • 본 논문은 유비쿼터스 컴퓨팅 환경 기반에서의 얼굴과 서명을 이용한 다중생체인식 시스템을 제안한다. 이를 위해서 얼굴과 서명 영상은 PDA로 획득하고, 취득한 영상은 무선랜을 통해 인증 서버로 전송하여 서버로부터 인증된 결과를 받도록 하였다. 구현한 다중 생체 인식 시스템의 구성은 두 부분으로 나눌 수 있는데, 먼저 클라이언트 부문인 PDA 에서는 임베디드 비주얼 C++로 작성된 사용자 인터페이스 프로그램을 통하여 사용자 등록과 인증 과정을 수행한다. 그리고, 서버 부문에서는 얼굴인식에서 우수한 성능을 보이는 PCA와 LDA 알고리즘을 사용하였고, 서명인식에서는 구간 분할 매칭으로 구간을 분할 한 후 X축과 Y 축의 투영값을 Kernel PCA와 LDA 알고리즘에 적용하였다. 얼굴과 서명영상을 이용하여 제안된 알고리즘을 평가한 결과 기존의 단일 생체인식 기법에 비해 우수한 결과를 보임을 확인할 수 있었다.

착용형 단말에서의 음성 인식과 제스처 인식을 융합한 멀티 모달 사용자 인터페이스 설계 (Design of Multimodal User Interface using Speech and Gesture Recognition for Wearable Watch Platform)

  • 성기은;박유진;강순주
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권6호
    • /
    • pp.418-423
    • /
    • 2015
  • 기술 발전에 따른 착용형 단말의 기능들은 더 다양하고 복잡해지고 있다. 복잡한 기능 때문에 일반 사용자들도 기능을 사용하기 힘든 경우가 있다. 본 논문에서는 사용자에게 편리하고 간단한 인터페이스 방식을 제공하자는데 목적을 두고 있다. 음성 인식의 경우 사용자 입장에서 직관적이고 사용하기 편리할 뿐만 아니라 다양한 명령어를 입력할 수 있다. 하지만 음성 인식을 착용형 단말에서 사용할 경우 컴퓨팅 파워라든지 소모전력 등 하드웨어적인 제약이 있다. 또한 착용형 단말은 언제 사용자가 음성으로 명령을 내릴지 그 시점을 알 수가 없다. 따라서 명령을 입력 받기 위해서는 음성 인식이 항상 동작하여야 한다. 하지만 소모전력 문제 때문에 이와 같은 방법을 사용하기에는 무리가 있다. 음성 인식이 가지고 있는 문제점을 보완하기 위해 제스처 인식을 사용한다. 본 논문에서는 음성과 제스처를 혼합한 멀티 모달 인터페이스로 사용자에게 어떻게 편리한 인터페이스를 제공할 것인지에 대해 설명하고 있다.

비접촉식 터치센서와 가속도센서를 이용한 사용자의 감정적 터치 인식 인터페이스 시스템 (User's Emotional Touch Recognition Interface Using non-contact Touch Sensor and Accelerometer)

  • 구성용;임종관;권동수
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.348-353
    • /
    • 2008
  • 인간의 자연스러운 터치 행동에서 사실적 정보를 인식하고 감정적 정보를 이해하는 터치 인터페이스 장치를 제안하고 사용자의 자연스러운 터치인식 성능을 검증하였다. 우선적으로 물리적인 터치의 종류를 구분하기 위하여 현 시스템에서 분류 가능한 터치를 분석하였고 실시간 터치 인식이 가능하도록 알고리즘을 설계하였다. 또한 앞으로 사람의 자연스러운 터치를 통해 사용자의 의도뿐 아니라 감정 상대도 이해할 수 있는 아이디어를 제안한다.

  • PDF