• 제목/요약/키워드: 멀티 모달

검색결과 271건 처리시간 0.26초

어포던스 이론 기반 터치 스크린을 이용한 멀티 모달 미디어 아트 콘텐츠의 설계 (Design of the Multi-Modal Media Art Contents using Touch Screen based on Affordance Theory)

  • 이강소;최유주
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2015년도 하계학술대회
    • /
    • pp.36-37
    • /
    • 2015
  • 본 논문에서는 전시 공간에서 전시 콘텐츠를 그냥 지나치거나 적극적으로 상호작용하려 하지 않는 관람객의 관심과 흥미를 이끌어 내기 위하여 어포던스(affordance, 행위 유발성) 특성을 반영한 인터랙티브 아트 콘텐츠 설계에 관한 내용을 다룬다. 이를 위하여, 우선, HCI 나 인지심리 영역에서 다루고 있는 어포던스 이론을 고찰하고, 특히 전시 공간에 나타나는 어포던스의 요소를 연구한 기존 연구들 분석하였다. 이를 기반으로 사람들의 행동과 흥미를 유발 시킬 수 있는 전시공간에 적합한 어포던스 기반 멀티 모달 인터페이스 설계 방향을 제시하였다. 또한, 제시된 멀티 모달 인터페이스 설계 특성을 반영하여 터치 스크린을 이용한 멀티 모달 미디어 아트 콘텐츠를 설계 제작하였다.

  • PDF

장애인을 위한 멀티모달 인터페이스 기반의 홈 네트워크 제어 (Home Automation Control with Multi-modal Interfaces for Disabled Persons)

  • 박희동
    • 디지털융복합연구
    • /
    • 제12권2호
    • /
    • pp.321-326
    • /
    • 2014
  • 최근 장애인을 위한 IT 접근성 향상 기술에 대한 요구가 증대되고 있다. 따라서 장애인 IT 사용자를 위하여 음성 인식, 영상 인식, TTS 등과 같은 멀티모달 인터페이스를 지원하는 것이 매우 중요하다. 본 논문에서는 홈 네트워크 제어에 있어서 장애인 IT 접근성 향상 기술의 적용 방안에 대하여 서술한 후, 장애인이 쉽게 홈 네트워크를 제어할 수 있도록 음성 인식 및 애니메이션 UI (User interfaces)등과 같은 멀티모달 인터페이스 기반의 홈 네트워크 제어 시스템 모델을 구현하였다.

이미지 캡션 생성을 위한 심층 신경망 모델 학습과 전이 (Learning and Transferring Deep Neural Network Models for Image Caption Generation)

  • 김동하;김인철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2016년도 추계학술발표대회
    • /
    • pp.617-620
    • /
    • 2016
  • 본 논문에서는 이미지 캡션 생성과 모델 전이에 효과적인 심층 신경망 모델을 제시한다. 본 모델은 멀티 모달 순환 신경망 모델의 하나로서, 이미지로부터 시각 정보를 추출하는 컨볼루션 신경망 층, 각 단어를 저차원의 특징으로 변환하는 임베딩 층, 캡션 문장 구조를 학습하는 순환 신경망 층, 시각 정보와 언어 정보를 결합하는 멀티 모달 층 등 총 5 개의 계층들로 구성된다. 특히 본 모델에서는 시퀀스 패턴 학습과 모델 전이에 우수한 LSTM 유닛을 이용하여 순환 신경망 층을 구성하고, 컨볼루션 신경망 층의 출력을 임베딩 층뿐만 아니라 멀티 모달 층에도 연결함으로써, 캡션 문장 생성을 위한 매 단계마다 이미지의 시각 정보를 이용할 수 있는 연결 구조를 가진다. Flickr8k, Flickr30k, MSCOCO 등의 공개 데이터 집합들을 이용한 다양한 비교 실험을 통해, 캡션의 정확도와 모델 전이의 효과 면에서 본 논문에서 제시한 멀티 모달 순환 신경망 모델의 우수성을 입증하였다.

멀티모달 상황인지 서비스 (Multimodal Context-aware Service)

  • 정영준;박성수;안세열
    • 한국IT서비스학회:학술대회논문집
    • /
    • 한국IT서비스학회 2006년도 추계학술대회
    • /
    • pp.400-406
    • /
    • 2006
  • 다양한 서비스와의 서비스간 융합이 활발히 이루어지는 유비쿼터스 서비스 환경에서 사용자에게 보다 편리하게 맞춤 서비스를 제공하기 위해서는 다양한 입출력 수단을 통해 상황에 따라 적절한 서비스를 제공할 수 있는 기술이 필요하다. 멀티모달 상황인지 기술은 언제, 어디서나 사용자에게 최적의 서비스를 제공할 수 있도록 다양한 상황정보를 인지하여 적절한 입출력 수단을 사용할 수 있는 UI를 제공함으로써 사용자별 맞춤형 서비스가 가능하게 하는 기술이다. 본 고에서는 멀티모달 및 상황인지 기술에 대한 개요와 KT에서 개발하고 있는 멀티모달 상황인지 플랫폼 및 이를 기반으로 한 홈네트워크 서비스를 소개하고자 한다.

  • PDF

멀티모달 인터페이스(3차원 시각과 음성 )를 이용한 지능적 가상검객과의 전신 검도게임 (A Full Body Gumdo Game with an Intelligent Cyber Fencer using Multi-modal(3D Vision and Speech) Interface)

  • 윤정원;김세환;류제하;우운택
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제9권4호
    • /
    • pp.420-430
    • /
    • 2003
  • 본 논문에서는 멀티모달(multi-modal) 인터페이스를 통해 지능적 가상검객과 체감형 검도게임을 할 수 있는 시스템을 제안한다. 제안된 검도게임 시스템은 멀티모달 인터페이스(시각과 청각), 인공지능(AI), 피드백(스크린과 사운드) 등 크게 세 가지 모듈로 구성된다. 첫 번째로, 멀티모달 인터페이스는 시각기반, 3차원 인터페이스를 이용하여 사용자가 자유롭게 3차원 공간에서 움직일 수 있도록 하고, 음성기반 인터페이스를 이용하여 사용자가 현실감 있는 검도게임을 즐길 수 있도록 한다. 두 번째, 인공지능은 가상검객에게 멀티모달 인터페이스에서 입력되는 시각과 음성을 인식하여 가상검객의 반응을 유도한다. 마지막으로, 대형 스크린과 스피커를 통한 시청각 피드백은 체감형 상호작용을 통하여 사용자가 몰입감을 느끼며 검도게임을 경험할 수 있도록 한다. 따라서 제안된 시스템은 전신의 움직임으로 사용자에게 몰입감의 검도게임을 제공한다. 제안된 시스템은 오락 외에 교육, 운동, 예술행위 등 다양한 분야에 적용될 수 있다.

음성과 영상정보를 결합한 멀티모달 제어기의 구현 (Implementation of a Multimodal Controller Combining Speech and Lip Information)

  • 김철;최승호
    • 한국음향학회지
    • /
    • 제20권6호
    • /
    • pp.40-45
    • /
    • 2001
  • 본 논문에서는 음성과 영상정보를 결합한 멀티모달시스템을 구현하고 그 성능을 평가하였다. 음성정보를 이용해서 음성인식기를, 영상정보를 이용해서 입술인식기를 설계하였으며, 두 인식기는 HMM (Hidden Markov Model) 기반의 인식엔진을 사용하였다. 음성과 영상인식의 결과는 각각 8:2의 가중치를 부여하여 통합하였다. 한편, 구축된 멀티모달 인식시스템은 DARC (data radio channel)시스템과 통합되어 응용프로그램인 Comdio(computer radio)를 제어하도록 구현하였다. 멀티모달과 DARC시스템, 멀티모달시스템 내에서 두 인식기간의 정보교환은TCP/IP소켓 방식을 사용하였다. 통합시스템의 Comdio 제어실험의 결과는 입술인식이 음성인식기의 보조수단으로 사용될 수 있음을 보였으며, 향후교통정보 및 자동차항법장치에 적용되어짐으로써 그 적용분야를 넓힐 수 있을 것으로 기대된다.

  • PDF

멀티모달 정보를 이용한 응급상황 인식 시스템의 설계 및 구현 (Design and Implementation of Emergency Recognition System based on Multimodal Information)

  • 김영운;강선경;소인미;권대규;이상설;이용주;정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권2호
    • /
    • pp.181-190
    • /
    • 2009
  • 본 논문은 비주얼 정보, 오디오 정보, 중력 센서 정보에 기반한 멀티 모달 응급상황 인식 시스템을 제안한다. 제안된 시스템은 비디오 처리 모듈, 오디오 처리 모듈, 중력 센서 처리 모듈, 멀티모달 통합 모듈로 구성된다. 비디오 처리 모듈과 오디오 처리 모듈 각각은 이동, 정지 기절 등의 동작을 인식하여 멀티모달 통합 모듈에 전달한다. 멀티 모달 통합 모듈은 전달된 정보로부터 응급 상황을 인식하고 오디오 채널을 통하여 사용자에게 질문을 하고 대답을 인식함으로써 응급 상황을 재확인한다. 실험결과 영상에서는 91.5%, 착용형 중력센서는 94% 인식률을 보였으나 이들을 통합하면 응급상황을 100% 인식하는 결과를 보였다.

음성-영상 특징 추출 멀티모달 모델을 이용한 감정 인식 모델 개발 (Development of Emotion Recognition Model Using Audio-video Feature Extraction Multimodal Model)

  • 김종구;권장우
    • 융합신호처리학회논문지
    • /
    • 제24권4호
    • /
    • pp.221-228
    • /
    • 2023
  • 감정으로 인해 생기는 신체적 정신적인 변화는 운전이나 학습 행동 등 다양한 행동에 영향을 미칠 수 있다. 따라서 이러한 감정을 인식하는 것은 운전 중 위험한 감정 인식 및 제어 등 다양한 산업에서 이용될 수 있기 때문에 매우 중요한 과업이다. 본 논문에는 서로 도메인이 다른 음성과 영상 데이터를 모두 이용하여 감정을 인식하는 멀티모달 모델을 구현하여 감정 인식 연구를 진행했다. 본 연구에서는 RAVDESS 데이터를 이용하여 영상 데이터에 음성을 추출한 뒤 2D-CNN을 이용한 모델을 통해 음성 데이터 특징을 추출하였으며 영상 데이터는 Slowfast feature extractor를 통해 영상 데이터 특징을 추출하였다. 감정 인식을 위한 제안된 멀티모달 모델에서 음성 데이터와 영상 데이터의 특징 벡터를 통합하여 감정 인식을 시도하였다. 또한 멀티모달 모델을 구현할 때 많이 쓰인 방법론인 각 모델의 결과 스코어를 합치는 방법, 투표하는 방법을 이용하여 멀티모달 모델을 구현하고 본 논문에서 제안하는 방법과 비교하여 각 모델의 성능을 확인하였다.

멀티모달 개념계층모델을 이용한 만화비디오 컨텐츠 학습을 통한 등장인물 기반 비디오 자막 생성 (Character-based Subtitle Generation by Learning of Multimodal Concept Hierarchy from Cartoon Videos)

  • 김경민;하정우;이범진;장병탁
    • 정보과학회 논문지
    • /
    • 제42권4호
    • /
    • pp.451-458
    • /
    • 2015
  • 기존 멀티모달 학습 기법의 대부분은 데이터에 포함된 컨텐츠 모델링을 통한 지식획득보다는 이미지나 비디오 검색 및 태깅 등 구체적 문제 해결에 집중되어 있었다. 본 논문에서는 멀티모달 개념계층모델을 이용하여 만화 비디오로부터 컨텐츠를 학습하는 기법을 제안하고 학습된 모델로부터 등장인물의 특성을 고려한 자막을 생성하는 방법을 제시한다. 멀티모달 개념계층 모델은 개념변수층과 단어와 이미지 패치의 고차 패턴을 표현하는 멀티모달 하이퍼네트워크층으로 구성되며 이러한 모델구조를 통해 각각의 개념변수는 단어와 이미지패치 변수들의 확률분포로 표현된다. 제안하는 모델은 비디오의 자막과 화면 이미지로부터 등장 인물의 특성을 개념으로서 학습하며 이는 순차적 베이지안 학습으로 설명된다. 그리고 학습된 개념을 기반으로 텍스트 질의가 주어질 때 등장인물의 특성을 고려한 비디오 자막을 생성한다. 실험을 위해 총 268분 상영시간의 유아용 비디오 '뽀로로'로부터 등장인물들의 개념이 학습되고 학습된 모델로부터 각각의 등장인물의 특성을 고려한 자막 문장을 생성했으며 이를 기존의 멀티모달 학습모델과 비교했다. 실험결과는 멀티모달 개념계층모델은 다른 모델들에 비해 더 정확한 자막 문장이 생성됨을 보여준다. 또한 동일한 질의어에 대해서도 등장인물의 특성을 반영하는 다양한 문장이 생성됨을 확인하였다.

딥러닝 감정 인식 기반 배경음악 매칭 설계 (Design for Mood-Matched Music Based on Deep Learning Emotion Recognition)

  • 정문식;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.834-836
    • /
    • 2021
  • 멀티모달 감정인식을 통해 사람의 감정을 정확하게 분류하고, 사람의 감정에 어울리는 음악을 매칭하는 시스템을 설계한다. 멀티모달 감정 인식 방법으로는 IEMOCAP(Interactive Emotional Dyadic Motion Capture) 데이터셋을 활용해 감정을 분류하고, 분류된 감정의 분위기에 맞는 음악을 매칭시키는 시스템을 구축하고자 한다. 유니모달 대비 멀티모달 감정인식의 정확도를 개선한 시스템을 통해 텍스트, 음성, 표정을 포함하고 있는 동영상의 감성 분위기에 적합한 음악 매칭 시스템을 연구한다.