• 제목/요약/키워드: 멀티모달 인터페이스

검색결과 51건 처리시간 0.024초

X3D 가상 환경에서의 확장 가능한 상호작용 (Extensible Interactions in X3D)

  • 이동훈;권기준;정순기
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.349-351
    • /
    • 2003
  • X3D는 XML 기반의 VRML(Virtual Reality Modeling Language) 차세대 언어로서 인터넷을 통해 동적이고 상호작용 가능한 실시간 가상 환경을 제공해 준다. 본 논문에서는 X3D기반 가상 환경이 제공하는 상호작용을 변경 또는 확장 가능한 새로운 인터페이스 모델을 제시한다. 본 논문에서 제시하는 모델은 X3D 가상 환경에서 사용자 재정의를 통한 상호작용, 새로운 멀티 모달 인터페이스로의 확장, 그리고 상황 인지 가상환경을 위한 상호작용 모델로서 사용될 수 있다.

  • PDF

착용형 단말에서의 음성 인식과 제스처 인식을 융합한 멀티 모달 사용자 인터페이스 설계 (Design of Multimodal User Interface using Speech and Gesture Recognition for Wearable Watch Platform)

  • 성기은;박유진;강순주
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권6호
    • /
    • pp.418-423
    • /
    • 2015
  • 기술 발전에 따른 착용형 단말의 기능들은 더 다양하고 복잡해지고 있다. 복잡한 기능 때문에 일반 사용자들도 기능을 사용하기 힘든 경우가 있다. 본 논문에서는 사용자에게 편리하고 간단한 인터페이스 방식을 제공하자는데 목적을 두고 있다. 음성 인식의 경우 사용자 입장에서 직관적이고 사용하기 편리할 뿐만 아니라 다양한 명령어를 입력할 수 있다. 하지만 음성 인식을 착용형 단말에서 사용할 경우 컴퓨팅 파워라든지 소모전력 등 하드웨어적인 제약이 있다. 또한 착용형 단말은 언제 사용자가 음성으로 명령을 내릴지 그 시점을 알 수가 없다. 따라서 명령을 입력 받기 위해서는 음성 인식이 항상 동작하여야 한다. 하지만 소모전력 문제 때문에 이와 같은 방법을 사용하기에는 무리가 있다. 음성 인식이 가지고 있는 문제점을 보완하기 위해 제스처 인식을 사용한다. 본 논문에서는 음성과 제스처를 혼합한 멀티 모달 인터페이스로 사용자에게 어떻게 편리한 인터페이스를 제공할 것인지에 대해 설명하고 있다.

이미지-텍스트 자질을 이용한 행동 포착 비디오 기반 대화시스템 (Audio-Visual Scene Aware Dialogue System Utilizing Action From Vision and Language Features)

  • 임정우;장윤나;손준영;이승윤;박기남;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.253-257
    • /
    • 2023
  • 최근 다양한 대화 시스템이 스마트폰 어시스턴트, 자동 차 내비게이션, 음성 제어 스피커, 인간 중심 로봇 등의 실세계 인간-기계 인터페이스에 적용되고 있다. 하지만 대부분의 대화 시스템은 텍스트 기반으로 작동해 다중 모달리티 입력을 처리할 수 없다. 이 문제를 해결하기 위해서는 비디오와 같은 다중 모달리티 장면 인식을 통합한 대화 시스템이 필요하다. 기존의 비디오 기반 대화 시스템은 주로 시각, 이미지, 오디오 등의 다양한 자질을 합성하거나 사전 학습을 통해 이미지와 텍스트를 잘 정렬하는 데에만 집중하여 중요한 행동 단서와 소리 단서를 놓치고 있다는 한계가 존재한다. 본 논문은 이미지-텍스트 정렬의 사전학습 임베딩과 행동 단서, 소리 단서를 활용해 비디오 기반 대화 시스템을 개선한다. 제안한 모델은 텍스트와 이미지, 그리고 오디오 임베딩을 인코딩하고, 이를 바탕으로 관련 프레임과 행동 단서를 추출하여 발화를 생성하는 과정을 거친다. AVSD 데이터셋에서의 실험 결과, 제안한 모델이 기존의 모델보다 높은 성능을 보였으며, 대표적인 이미지-텍스트 자질들을 비디오 기반 대화시스템에서 비교 분석하였다.

  • PDF

A Bio-Edutainment System to Virus-Vaccine Discovery based on Collaborative Molecular in Real-Time with VR

  • Park, Sung-Jun
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권6호
    • /
    • pp.109-117
    • /
    • 2020
  • 에듀테인먼트 시스템은 학습자가 문제를 효과적으로 인식하고, 문제를 해결하는 데 필요한 중요한 정보를 파악 분류하고, 배운 내용을 전달할 수 있도록 돕는 것을 목표로 한다. 에듀테인먼트를 활용한 콘텐츠는 과학 및 산업 분야의 교육 및 훈련에 유용하게 적용될 수 있다. 본 논문에서는 직관적인 멀티 모달 인터페이스를 활용하여 신약개발에서 활용되고 있는 가상스크리닝에 적용될 수 있는 에듀테인먼트 시스템을 제안한다. 본 연구에서는 분자 구조의 3D 모델을 효과적으로 조작하기 위해 입체 모니터를 활용하여 3차원(3D)거대 분자 모델링을 시각화 하였으며, 멀티 모달 인터페이스를 활용하여 분자 모델을 조작하고 있다. 본 시스템은 신약 개발 혹은 백신 개발에 있어 매우 중요한 방법 중의 하나인 가상 약물 선별 방법 중 하나 인 도킹 시뮬레이션 실험을 게임적 요소를 활용하여 쉽게 해결하는 방법을 제안하고 있다. 레벨 업 개념은 게임 요소가 객체와 사용자의 수에 의해 의존되는 바이오 게임 접근법을 활용하여 구현하였다. 실험 방법으로는 제안된 시스템의 신약 개발 과정에서 인간 면역 결핍 바이러스 (HIV)의 새로운 후보물질을 활용하여 바이러스의 활동 억제를 스크리닝하는 도킹 과정에서의 시간 측정으로 성능 비교 평가하였다.

음성 및 제스처를 이용한 멀티 모달 명령어 인식 시스템 (Multi-Modal Instruction Recognition System using Speech and Gesture)

  • 김정현;노용완;권형준;홍광석
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2006년도 하계 학술대회 논문집
    • /
    • pp.57-62
    • /
    • 2006
  • 휴대용 단말기의 소형화 및 지능화와 더불어 차세대 PC 기반의 유비쿼터스 컴퓨팅에 대한 관심이 높아짐에 따라 최근에는 펜이나 음성 입력 멀티미디어 등 여러 가지 대화 모드를 구비한 멀티 모달 상호작용 (Multi-Modal Interaction MMI)에 대한 연구가 활발히 진행되고 있다. 따라서, 본 논문에서는 잡음 환경에서의 명확한 의사 전달 및 휴대용 단말기에서의 음성-제스처 통합 인식을 위한 인터페이스의 연구를 목적으로 Voice-XML과 Wearable Personal Station(WPS) 기반의 음성 및 내장형 수화 인식기를 통합한 멀티 모달 명령어 인식 시스템 (Multi-Modal Instruction Recognition System : MMIRS)을 제안하고 구현한다. 제안되어진 MMIRS는 한국 표준 수화 (The Korean Standard Sign Language : KSSL)에 상응하는 문장 및 단어 단위의 명령어 인식 모델에 대하여 음성뿐만 아니라 화자의 수화제스처 명령어를 함께 인식하고 사용함에 따라 잡음 환경에서도 규정된 명령어 모델에 대한 인식 성능의 향상을 기대할 수 있다. MMIRS의 인식 성능을 평가하기 위하여, 15인의 피험자가 62개의 문장형 인식 모델과 104개의 단어인식 모델에 대하여 음성과 수화 제스처를 연속적으로 표현하고, 이를 인식함에 있어 개별 명령어 인식기 및 MMIRS의 평균 인식율을 비교하고 분석하였으며 MMIRS는 문장형 명령어 인식모델에 대하여 잡음환경에서는 93.45%, 비잡음환경에서는 95.26%의 평균 인식율을 나타내었다.

  • PDF

멀티모달 사용자 중심 인터페이스를 적용한 인체 학습 시스템 (Human body learning system using multimodal and user-centric interfaces)

  • 김기민;김재일;박진아
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.85-90
    • /
    • 2008
  • 본 논문은 유연하고 다각적인 인터페이스를 이용한 사용자 중심의 능동적인 인체 학습 시스템을 제안한다. 기존의 인체 학습 방법은 이미지, 텍스트, 영상자료부터 학습자로의 주입식 학습이었다. 본 논문에서 제안한 인체 학습 시스템은 실제 인체 장기 데이터로 제작된 3D 인체 장기 모델을 제공함으로써 학습자는 사실적인 장기의 형태를 3차원 공간에서 보고, 장기에 대한 촉감을 제공하는 햅틱 인터페이스와 학습자의 의도에 기반한 카메라 시스템으로 써 능동적이고 다각적인 학습을 진행할 수 있다. 그리고 계층 기반 장기 분류를 통하여 구축된 학습 정보를 통하여, 전체적인 시각에 기초한 인체 학습 과정을 진행할 수 있다. 본 인체 학습 시스템으로써 기존의 평면적인 인체 학습교재, 자료 등에서 얻을 수 없는 입체적인 인터페이스를 통한 학습 효율 향상의 가능성을 보고자 한다.

  • PDF

가상 근신(近身) 공간에서의 작업 성능과 사용자 존재감 향상을 위한 상호작용 신체 모델과 인터페이스 (Interaction Human Model and Interface for Increasing User's Presence and Task Performance in Near-body Virtual Space)

  • 양웅연;김용완;손욱호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2004년도 추계학술발표논문집(상)
    • /
    • pp.975-978
    • /
    • 2004
  • 본 논문에서 우리는 가상현실 시스템의 구축에 있어서, 사용자의 직접 상호작용 (direct interaction)을 기본으로 하는 근신 공간(near-body space) 작업에서 사용자의 존재감 (Presence) 향상과 작업 성능 향상을 위하여, 사용자와 공간적 및 감각적으로 일치된 가상 인체 모델의 구현을 중심으로 현재의 기술 현황 및 연구 개발 방향에 대하여 기술한다. 이상적인 가상현실 시스템을 구현하기 위해서 고려되어야 할 요소를 멀티모달 상호작용과 실감 일치형 인터페이스 개발 방법론의 관점에서 보면, 사용자가 접하는 가상 공간의 시각적 모델(visual perception)과 자기 동작 감각적(proprioceptive) 모델의 일치가 중요하다. 그러므로, 시각적으로 사용자의 움직임과 일치된 자신의 신체가 가시화 되어야 하고, 자연스러운 근신 공간 직접 상호작용을 지원하기 위해서는 사실적인 햅틱 피드백 요소가 중요하며, 공간적 정보를 표현 함에 있어서 동기화 된 사실적 청각 피드백 요소의 지원이 중요하다. 앞의 주요 3 가지 감각 인터페이스 방법(sensory channel, modality)는 현재의 불완전한 인터페이스 기술의 한계를 고려하여 상호 보완적인 관계로 응용 환경에 최적화된 적용 방법이 연구되어야 한다.

  • PDF

PC카메라를 이용한 실시간 립리딩 시스템 설계 및 구현 (Design & Implementation of Real-Time Lipreading System using PC Camera)

  • 이은숙;이지근;이상설;정성태
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(상)
    • /
    • pp.310-313
    • /
    • 2003
  • 최근 들어 립리딩은 멀티모달 인터페이스 기술의 응용분야에서 많은 관심을 모으고 있다. 동적영상을 이용한 립리딩 시스템에서 해결해야 할 주된 문제점은 상황 변화에 독립적으로 얼굴 영역과 입술 영역을 추출하고 오프라인이 아닌 실시간으로 입력된 입술 영상의 인식을 처리하여 립리딩의 사용도를 높이는 것이다. 본 논문에서는 사용자가 쉽게 사용할 수 있는 PC카메라를 사용하여 영상을 입력받아 학습과 인식을 실시간으로 처리하는 립리딩 시스템을 구현하였다. 본 논문에서는 움직임이 있는 화자의 얼굴영역과 입술영역을 컬러, 조명등의 변화에 독립적으로 추출하기 위해 HSI모델을 이용하였다. 입력 영상에서 일정한 크기의 영역에 대한 색도 히스토그램 모델을 만들어 색도 영상에 적용함으로써 얼굴영역의 확률 분포를 구하였고, Mean-Shift Algorithm을 이용하여 얼굴영역의 검출과 추적을 하였다. 특징 점 추출에는 이미지 기반 방법인 PCA 기법을 이용하였고, HMM 기반 패턴 인식을 사용하여 실시간으로 실험영상데이터에 대한 학습과 인식을 수행할 수 있었다.

  • PDF

견고한 입술 영역 추출을 이용한 립리딩 시스템 설계 및 구현 (Design & Implementation of Lipreading System using Robust Lip Area Extraction)

  • 이은숙;이호근;이지근;김봉완;이상설;이용주;정성태
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 춘계학술발표대회논문집
    • /
    • pp.524-527
    • /
    • 2003
  • 최근 들어 립리딩은 멀티모달 인터페이스 기술의 응용분야에서 많은 관심을 모으고 있다. 동적 영상을 이용한 립리딩 시스템에서 해결해야 할 주된 문제점은 상황 변화에 독립적인 얼굴 영역과 입술 영역을 추출하는 것이다. 본 논문에서는 움직임이 있는 영상에서 화자의 얼굴영역과 입술영역을 컬러, 조명등의 변화에 독립적으로 추출하기 위해 HSI 모델과 블록 매칭을 이용하였고 특징 점 추출에는 이미지 기반 방법인 PCA 기법을 이용하였다. 추출된 입술 파라미터와 음성 데이터에 각각 HMM 기반 패턴 인식 방법을 개별적으로 적용하여 단어를 인식하였고 각각의 인식 결과를 가중치를 주어 합병하였다. 실험 결과에 의하면 잡음으로 음성 인식률이 낮아지는 경우에 음성인식과 립리딩을 함께 사용함으로써 전체적인 인식 결과를 향상시킬 수 있었다.

  • PDF

인텔리젼트 멀티미디어 단말기를 위한 온라인 한글 인식 (Online Korean Character Recognition for Intelligent Multimedia Terminal)

  • 오준택;이우범;김욱현
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2000년도 하계종합학술대회논문집
    • /
    • pp.229-232
    • /
    • 2000
  • 문자인식은 멀티 모달 인터페이스의 핵심요소로서 이동 환경에서 사용자의 다양한 요구사항을 처리하는 지능형 단말기의 구현을 위해 필수적으로 개발되어야 할 과제이다. 그러나 대부분의 기존 연구는 인식률의 향상만을 위해서 복잡한 획 해석과 백트래킹을 사용하기 때문에 멀티미디어 단말기에 적합하지 못하다. 따라서 본 논문은 멀티미디어 단말기로의 적용을 목적으로 한 새로운 온라인 한글 문자 인식 방법을 제안한다. 제안된 방법은 한글 문자의 특성정보와 획 정보를 기반으로 구축된 한글 데이터 베이스를 사용한다. 또한 획간의 위치관계를 이용한 순차적 자소 분리와 향상된 백트래킹 기법에 의해서 보다 빠른 처리 시간을 보장한다. 제안된 시스템의 성능 평가는 상용 1,200 단어를 이용하여 다수의 필기자가 필기한 한글 600문자를 대상으로 실험한 결과 95% 이상의 인식률을 얻었다.

  • PDF