• 제목/요약/키워드: 멀티모달 인터페이스

검색결과 51건 처리시간 0.029초

멀티모달 센서를 이용한 스마트기기 사용자 인증 기술 동향

  • 최종원;이정현
    • 정보보호학회지
    • /
    • 제24권3호
    • /
    • pp.7-14
    • /
    • 2014
  • 스마트 환경은, 사용자가 스마트기기를 통해 시간적, 공간적 제약을 받지 않고 스마트기기 서비스를 이용하는 것을 말하며 스마트기기의 보급으로 인하여 보편화되고 있다. 그런데 스마트 환경에서 서비스를 제공받기 위한 사용자와 스마트기기 간 인터페이스에서 각종 보안에 대한 위협이 발생한다. 또 스마트기기의 특성상 사용자 입력이 간편하지 않을 뿐만 아니라 일반 사용자가 계정 종류, 보안 유형 등 전문적인 용어에 대한 지식을 알아야하는 어려움이 존재한다. 최근 이러한 문제를 해결하고자 스마트기기의 터치스크린, 카메라, 가속도 센서, 지문인식 센서 등 다양한 센서를 혼합 사용하여 사용자 인증을 거치는 멀티모달 인터페이스 연구가 각광받고 있다. 따라서 본고에서는 인간과 스마트기기 사이 상호작용 시 안전하고 편리한 스마트 환경 조성을 위하여 멀티모달 센서를 활용한 다양한 스마트기기 사용자 인증 기술 동향에 대해 소개한다.

XML과 키넥트를 이용한 멀티모달 NUI/NUX 설계 (Design of Multi-modal NUI/NUX using XML and KINECT)

  • 이광형;신동규;신동일
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.1693-1696
    • /
    • 2013
  • 현재까지, 사람과 컴퓨터간의 인터페이스로 키보드와 마우스를 사용하여 왔다. 최근, 유비쿼터스 시대가 도래하면서 스마트 폰의 활용이 대두 되었고, 각 디바이스들은 하나로 통합되고 있다. 이에 따라 인터페이스도 NUI로 발전하였고 터치, 모션 트래킹, 음성, 표정 인식과 같은 멀티 모달 형식으로 더욱 높은 인지 능력과 직관적인 인터페이스가 되도록 각 디바이스 단계에서 개발되고 있다. 본 논문에서는 키넥트를 이용한 마커 없는 직관적인 손동작 인식과 XML 클라우드 기반의 각종 디바이스 통합 인터페이스 구현 설계를 제안한다.

HANbit ACE 교환기 운용관리 시스템의 사용자인터페이스 설계 및 구현

  • 이재흠;김해숙
    • 정보처리학회지
    • /
    • 제5권1호
    • /
    • pp.75-85
    • /
    • 1998
  • 교환시스템을 운용하기 위한 사용자 인터페이스는 일반 사용자 그룹이 아닌 교환시스템이 설치되어 있는 교환국의 운용자들을 대상으로 설계된다. ATM교환시스템은 초고속 정보통신망에서의 교환노드로서의 높은 신뢰도를 요구하기 때문에 효율적인 운용관리 및 유지보수가 필요하다 이를 만족시키기 위해서는 그래픽, 소프트웨어공학, 심리학 및 인간공학적인 측면을 반영시킴으로써 매우 어렵고 복잡한 교환시스템을 쉽게 제어하고 모니터링할 수 있는 사용자 인터페이스를필요로 한다 본 운용시스템은 클라이언트-서버모델 구조로 설계하였고 웹브라우져를 통한 다양한 사용자 인터페이스(멀티모달)를 제공하며 멀티플랫폼을 가능하게 구현하였다 본 논문에서는 ATM교환기의 운용시스템이 갖는 특징 구조 그리고 구현된 사용자 인터페이스 모델을 제시한다.

  • PDF

몰입형 가상교육을 위한 멀티모달 인터페이스 제어모듈 (Multimodal Interface Control Module for Immersive Virtual Education)

  • 이재협;임성민
    • 한국실천공학교육학회논문지
    • /
    • 제5권1호
    • /
    • pp.40-44
    • /
    • 2013
  • 본 연구에서는 학습자가 가상공간 내에서 교육 컨텐츠를 자연스럽게 조작할 수 있는 멀티모달 인터페이스 제어모듈을 제시한다. 제안하는 모듈은 사용자가 가상공간과 인터랙션을 할 때 사용자의 모션을 인식하고 인식된 정보를 무선통신을 통하여 가상공간으로 전달한다. 제안하는 입력장치는 햅틱 액츄에이터를 탑재하고 있어 교육 컨텐츠와 사용자의 인터랙션에 따른 햅틱 감각을 생성하여 사용자가 교육용 컨텐츠들을 쉽게 조작할 수 있게 해 준다.

  • PDF

DARC 시스템 제어기 구현을 위한 멀티모달 시스템 설계 (The design of Multi-modal system for the realization of DARC system controller)

  • 최광국;곽상훈;하얀돌이;김유진;김철;최승호
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.179-182
    • /
    • 2000
  • 본 논문은 DARC 시스템 제어기를 구현하기 위해 음성인식기와 입술인식기를 결합하여 멀티모달 시스템을 설계하였다. DARC 시스템에서 사용하고 있는 22개 단어를 DB로 구축하고, HMM을 적용하여 인식기를 설계하였다. 두 모달간 인식 확률 결합방법은 음성인식기가 입술인식기에 비해 높은 인식률을 가지고 있다는 가정 하에 8:2 비율의 가중치로 결합하였고, 결합시점은 인식 후 확률을 결합하는 방법을 적용하였다. 시스템간 인터페이스에서는 인터넷 프로토콜인 TCP/IP의 소켓을 통신모듈로 설계/구현하고, 인식실험은 테스트 DB를 이용한 방법과 5명의 화자가 실시간 실험을 통해 그 성능 평가를 하였다.

  • PDF

음성기반 멀티모달 인터페이스 및 표준 (Speech Based Multimodal Interface Technologies and Standards)

  • 홍기형
    • 대한음성학회지:말소리
    • /
    • 제51호
    • /
    • pp.117-135
    • /
    • 2004
  • In this paper, we introduce the multimodal user interface technology, especially based on speech. We classify multimodal interface technologies into four classes: sequential, alternate, supplementary, and semantic multimodal interfaces. After introducing four types of multimodal interfaces, we explain standard activities currently being activated.

  • PDF

SALT 기반 음성 브라우저의 설계 및 구현 (Design and Implementation of SALT-based Voice Browser)

  • 이용희;이동우;신희숙;최은정;박준석
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 가을 학술발표논문집 Vol.32 No.2 (1)
    • /
    • pp.574-576
    • /
    • 2005
  • 정보통신 기기의 발전하면서 소형화, 경량화와 함께 이동성을 갖춘 다양한 차세대 PC 기기들이 나타나고 있다. 기존의 마우스나 키보드를 통한 인터페이스뿐만 아니라 음성, 펜, 제스처 등을 이용한 멀티모달 인터페이스에 대한 요구가 증대되면서 이에 대한 연구가 활발히 이루어지고 있다. 또한 최근의 음성 처리 기술이 발전하고 단말기의 성능이 개선되면서 음성을 이용한 인터페이스에 대한 연구가 활발히 이루어지고 있다. 본 논문에서는 브라우저에서 음성 지원을 위해 제안된 SALT를 기반으로 하여 사용자와 음성 인터페이스가 가능한 음성 브라우저를 설계하고 구현한다.

  • PDF

음성 인식 사용자 인터페이스를 통한 가전기기 제어 기법 (Home Appliance Control through Speech Recognition User Interface)

  • 송욱;장현수;엄영익
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2006년도 추계학술발표대회
    • /
    • pp.265-268
    • /
    • 2006
  • 유비쿼터스 컴퓨팅 환경이 확대됨에 따라, 기존의 키보드와 마우스만을 사용자 인터페이스로 주로 사용했던 방법에서 벗어나 좀 더 사용자 중심의 멀티모달 유저 인터페이스 적응이 요구되고 있다. 이에 XHTML+Voice는 음성 및 시각을 모두 제공할 수 있는 새로운 서비스 패러다임으로서 기존의 음성정보만을 제공하거나 시각적인 정보만을 제공하는 시스템과는 달리 XHTML내에 VoiceXML을 삽입함으로써 두 언어의 장점을 모두 활용할 수 있다. 본 논문에서는 VoiceXML의 이러한 장점을 살려 스마트 홈을 구성하는 여러 가전기기들의 인터페이스를 미리 템플릿으로 만들어 두어 모바일 디바이스를 통해 이것들을 제어하는 시나리오를 제안하고 구현하는 방법에 대해 실험하였다.

  • PDF

멀티 모달 인터페이스 기반 플레이어 얼굴 표정 분석 시스템 개발 (Expression Analysis System of Game Player based on Multi-modal Interface)

  • 정장영;김영빈;이상혁;강신진
    • 한국게임학회 논문지
    • /
    • 제16권2호
    • /
    • pp.7-16
    • /
    • 2016
  • 본 논문은 게임을 수행하는 개별 사용자의 특별한 행동 탐지를 효율적으로 수행하는 시스템을 제안한다. 제안하는 시스템은 일반적인 게임 플레이 환경에서 비 침투적 방법을 통해 포착 가능한 사용자 특징과 반복적인 패턴에 기반을 두어 특이 행동 탐지를 한다. 본 논문에서는 표정과 사용자 움직임과 같이 관찰되는 자료를 분석하기 위해 카메라를 사용했다. 게다가 반복 행동 탐지를 위해 게임 사용자로부터 멀티 모달 데이터를 사용하여 고차원의 행동 분석하기 위해 사용했다. 특이 행동 탐지에 효과적인 Support Vector Machine 을 사용했으며, 특이 행동 탐지 수행의 유용성을 평가하여 약 70% 확률로 탐지하는 이상 행동 탐지 재현율을 보였다. 또한 반복 행동 분석이 가능함을 보였다. 제안된 기법을 사용하였을 때 PC 환경에서 제공하는 모든 콘텐츠의 분석에 대한 피드백과 정량화하는데 도움이 될 수 있다.