• 제목/요약/키워드: Gesture recognition

검색결과 554건 처리시간 0.022초

원형 근전도 센서 어레이 시스템의 센서 틀어짐에 강인한 손 제스쳐 인식 (Hand Gesture Recognition Regardless of Sensor Misplacement for Circular EMG Sensor Array System)

  • 주성수;박훈기;김인영;이종실
    • 재활복지공학회논문지
    • /
    • 제11권4호
    • /
    • pp.371-376
    • /
    • 2017
  • 본 논문에서는 원형 근전도 시스템 장비를 사용하여 근전도 패턴인식을 할 때, 장비의 센서 위치와 무관하게 패턴 인식이 가능한 알고리즘을 제안한다. 6가지 동작의 8채널 근전도 신호를 1초간 측정한 데이터를 이용하여 14개의 특징점을 추출하였다. 또한 8개의 채널에서 추출된 112개의 특징점을 나열하여 주성분분석을 하고 영향력이 높은 데이터만을 추려내어 8개의 입력 신호로 줄였다. 모든 실험은 k-NN 분류기를 이용하여 데이터를 학습시키고 5-fold 교차 검증을 사용하여 데이터를 검증하였다. 기계학습에서 데이터를 학습시킬 때, 어떤 데이터를 학습하느냐에 따라 그 결과가 크게 달라진다. 기존의 연구들에서 사용하는 학습 데이터를 사용 할 경우 99.3%의 정확도를 확인하였다. 그러나 센서의 위치가 22.5도 정도만 틀어지더라도 67.28%의 정확도로 명확하게 떨어짐을 보았다. 본 논문에서 제안하는 학습 방법을 사용 할 경우 98%의 정확도를 보이고 장비의 센서의 위치가 바뀌더라도 98% 근처의 정확도를 유지함을 보였다. 이러한 결과를 사용하여 원형 근전도 시스템을 사용하는 사용자들의 편의성을 크게 증대시켜 줄 수 있을 것으로 보인다.

W3C 기반 상호연동 가능한 멀티모달 커뮤니케이터 (W3C based Interoperable Multimodal Communicator)

  • 박대민;권대혁;최진혁;이인재;최해철
    • 방송공학회논문지
    • /
    • 제20권1호
    • /
    • pp.140-152
    • /
    • 2015
  • 최근 사용자와 컴퓨터간의 양방향 상호작용을 가능하게 하는 HCI(Human Computer Interaction) 연구를 위해 인간의 의사소통 체계와 유사한 인터페이스 기술들이 개발되고 있다. 이러한 인간과의 의사소통 과정에서 사용되는 커뮤니케이션 채널을 모달리티라고 부르며, 다양한 단말기 및 서비스 환경에 따라 최적의 사용자 인터페이스를 제공하기 위해서 두 개 이상의 모달리티를 활용하는 멀티모달 인터페이스가 활발히 연구되고 있다. 하지만, 멀티모달 인터페이스를 사용하기에는 각각의 모달리티가 갖는 정보 형식이 서로 상이하기 때문에 상호 연동이 어려우며 상호 보완적인 성능을 발휘하는데 한계가 있다. 이에 따라 본 논문은 W3C(World Wide Web Consortium)의 EMMA(Extensible Multimodal Annotation Markup language)와 MMI(Multimodal Interaction Framework)표준에 기반하여 복수의 모달리티를 상호연동할 수 있는 멀티모달 커뮤니케이터를 제안한다. 멀티모달 커뮤니케이터는 W3C 표준에 포함된 MC(Modality Component), IM(Interaction Manager), PC(Presentation Component)로 구성되며 국제 표준에 기반하여 설계하였기 때문에 다양한 모달리티의 수용 및 확장이 용이하다. 실험에서는 시선 추적과 동작 인식 모달리티를 이용하여 지도 탐색 시나리오에 멀티모달 커뮤니케이터를 적용한 사례를 제시한다.

시각장애인의 길 탐색을 위한 대화형 인터랙티브 촉각 지도 개발 (A Conversational Interactive Tactile Map for the Visually Impaired)

  • 이예린;이동명;루이스 카바조스 케로;호르헤 이란조 바르톨로메;조준동;이상원
    • 감성과학
    • /
    • 제23권1호
    • /
    • pp.29-40
    • /
    • 2020
  • 시각장애인들에게는 길 찾기 및 탐색이 어려운 과제이기 때문에, 이들의 독립적이고 자율적인 이동성 향상에 대한 연구가 필요하다. 그러나 기존의 점자 촉각 지도는 여러 문제점을 가지고 있다. 이를 해결하기 위해 기술의 발달과 함께 촉각 지도에 다른 인터랙션 방식을 더하려는 시도들이 존재해왔다. 본 연구는 이러한 흐름 속에서 새로운 대화형 인터랙티브 촉각 지도 인터페이스를 개발하였다. 촉각 탐색을 하는 동안 사용자의 터치를 인식하여 음성 피드백을 제공하며, 사용자가 음성 에이전트와 대화를 나눌 수 있고 이를 통해 관심 지점에 대한 정보나 경로 안내를 받을 수 있다. 사용성 테스트를 진행하기 위해 프로토타입을 제작하였으며, 실제 시각장애인들을 대상으로 프로토타입 사용 후 설문 및 인터뷰를 통한 실험을 진행하였다. 점자를 사용한 기존 촉각 지도보다 본 연구에서 제작된 인터랙티브 촉각 지도 프로토타입이 시각장애인들에게 더욱 높은 사용성을 제공하였다. 시각장애인들은 본 연구의 프로토타입을 사용했을 때 더 빨리 시작 지점 및 관심 지점을 찾을 수 있었고 더 높은 독립성 및 확신을 가질 수 있었다고 보고하였다. 본 연구는 시각장애인의 지도 이용 및 경험을 향상시킬 수 있는 새로운 촉각 지도 인터페이스를 제시하였다. 실험에서 프로토타입의 개선 방향에 대한 다양한 피드백을 받을 수 있었다. 아직 개발 단계에 있기 때문에, 이를 반영한 후속 연구를 통해 이를 더욱 발전시킬 수 있을 것이다.

스마트카의 인터페이스를 위한 경험 디자인 가이드라인 (Experience Design Guideline for Smart Car Interface)

  • 유훈식;주다영
    • 디자인융복합연구
    • /
    • 제15권1호
    • /
    • pp.135-150
    • /
    • 2016
  • 통신 기술의 발달, 지능형교통체계(ITS: Intelligent Transport Systems)의 확산으로 자동차는 단순한 기계장치에서 종합편의 기능을 가진 제2의 생활 공간으로 변모하고 있으며, 이를 위한 인터페이스로써의 역할을 하는 플랫폼으로 진화하고 있다. 탑승자들에게 다양한 정보를 제공하는 인터페이스 영역이 확장됨에 따라 스마트카 기반의 사용자 경험(UX: User Experience) 연구에 대한 중요성이 높아지고 있다. 이 연구는 스마트카의 사용자 경험 요소에 대한 가이드라인을 제안하는데 목적을 두고 있다. 연구의 수행을 위해 기존 연구를 기반으로 스마트카의 사용자 경험 요소를 기능(function), 상호작용(interaction), 표면(surface)으로 정의하였으며, UX/UI 전문가들의 논의를 통해 각 요소 별로 8개의 대표 기술, 14개의 대표 기능, 8개의 유리창의 위치를 정의하였다. 이 후 100명의 운전자를 대상으로 정의된 스마트카 사용자 경험 요소들에 대한 우선순위를 설문조사 방식으로 분석하였다. 분석을 통해 사용자들은 차량에 주요 기술을 적용함에 있어서 안전, 주행, 감성의 순으로, 조작 방식에 있어서는 음성인식, 터치, 제스처, 물리적 버튼, 아이트레킹의 순으로, 디스플레이 위치에 대해서는 운전석을 중심으로 전방에서 후방으로 높은 우선순위를 가지고 있는 것을 알 수 있었다. 성별에 따른 분석에 있어서는 2개의 기능 외에는 큰 차이를 보이지 않아 남성과 여성에 대한 가이드가 공통되게 적용될 수 있음을 알 수 있었다.