• 제목/요약/키워드: 제스처 제안

검색결과 265건 처리시간 0.022초

멀티모달 실감 경험 I/O 인터랙션 시스템 개발 (Development for Multi-modal Realistic Experience I/O Interaction System)

  • 박재언;황민철;이정년;허환;정용무
    • 감성과학
    • /
    • 제14권4호
    • /
    • pp.627-636
    • /
    • 2011
  • 본 연구는 단순 입력 기반 유니모달 인터랙션의 한계를 극복하고 단순 입력 방식이 아닌 멀티모달 기반 사용자의 행위, 의도, 및 집중도를 활용하여 실감적이고 몰입도를 향상시키는 인터랙션 시스템을 제안하는데 그 목적이 있다. 본 연구의 선행연구에서 기존 문헌연구를 토대로 메타분석방법을 활용하여 인터랙션을 위한 3차원 동작 인식 기술의 정확도를 분석하여 최종적인 센서 기반 인터랙션 방법이 선정되었고, 직관적 제스쳐 인터랙션 요소를 추출하여 본 시스템에 반영하였다. 또한 생리반응을 이용한 집중력 판단 기술을 개발하여 사용자 의도를 판단하는 연구를 진행하였다. 본 연구에서 제안하는 시스템은 3부분으로 나눌 수 있다. 선행연구에서 선정된 인터랙션 요소들을 적용하여 가속도(Accelator) 센서와 연성(Flexible) 센서를 활용하여 손 동작을 인식하는 시스템을 구현하였고, 동공 인터랙션을 통한 안경형 시선 추적기를 구현하여 인터랙션이 가능하게 하였으며, 심혈관 반응과 피부 온열 반응을 측정하여 사용자의 의도를 반영한 시스템을 최종 구현하였다. 실감형 디지털 엔터테인먼트 플랫폼 기술 개발을 위한 기초 연구로서 활용이 가능할 것으로 판단된다.

  • PDF

지리적으로 분산된 디자이너들을 위한 3D 디자인 협업 환경 - 공유 조작과 원격 실재감을 지원하는 증강현실 기반 인터랙션 기법을 중심으로 - (Collaborative 3D Design Workspace for Geographically Distributed Designers - With the Emphasis on Augmented Reality Based Interaction Techniques Supporting Shared Manipulation and Telepresence -)

  • 사공경;남태진
    • 디자인학연구
    • /
    • 제19권4호
    • /
    • pp.71-80
    • /
    • 2006
  • 국제화, 전문화, 분업화 되고 있는 비즈니스 환경으로 인해 제품 디자인 프로세스에서 협업의 중요성은 날로 높아지고 있다. 본 연구에서는 서로 다른 공간에 존재하는 디자인 전문가들이 3D 모델을 함께 검토하고 논의할 수 있는 실시간 원격디자인 협업 환경을 제안한다. 특히 원격 협업 환경에서 원격 실재감, 공유조작, 상대 인식 등의 비언어적인 의사소통 방법을 제공하는 새로운 인터랙션 기법을 개발하고, 디자인 리뷰와 관련된 작업에 어떠한 영향을 끼치는지 평가하였다. 관련연구 조사와 디자인 협업 행태의 관찰 실험을 기반으로 작업대상 관련, 작업공간 관련, 상대인식 관련 요구사항을 도출하였다. 이를 충족시키기 위해 증강현실(Augmented Reality) 기반의 3차원 원격 협업 환경을 구축하였고 원격 사용자에 대한 존재감을 제공하는 회전원반(Turn-table)과 가상그림자(Virtual Shadow)라는 인터랙션 도구를 개발하였다. 회전원반은 가상모델의 조작에 직관성을 부여하고 상대의 조작에 물리적인 단서를 제공한다. 가상그림자는 상대의 위치, 제스처, 지시 등의 인식 정보를 지속적이고 자연스럽게 제공한다. 평가 실험을 통하여 새로운 인터랙션 도구들이 3D 모델의 검토에 있어서 대략적인 지시를 효과적으로 지원하며 수정사항에 대한 논의를 촉진시킴을 알 수 있었다. 연구 결과는 가상의 3차원 모델을 다루는 원격에 위치한 사용자들(디자이너-디자이너, 디자이너-엔지니어, 혹은 디자이너-모델러 등) 간의 자연스러운 의사소통을 촉진하고 협업의 효율을 증대시키는데 기여할 수 있다.

  • PDF

미국 방위산업체 상황실의 인물검색 활동을 돕는 가상현실 공간 인터페이스 환경에 관한 연구 (A Study of a Virtual Reality Interface of Person Search in Multimedia Database for the US Defense Industry)

  • 김나영;이종호
    • 한국게임학회 논문지
    • /
    • 제11권5호
    • /
    • pp.67-78
    • /
    • 2011
  • 본 연구는 빠른 속도로 발전하는 멀티미디어 정보 환경 중에서도 미국 방위산업체 정보기관의 감시 카메라 속 특정 인물을 색출하는 작업 상황을 가정으로, 사용자가 방대한 영상 데이터 기록물들 가운데 원하는 정보를 한 눈에 분석하고 검색해 낼 수 있는 효율적이고 만족스러운 멀티미디어 검색 환경에 대해 연구하였다. 이를 위해 첫 번째 실행된 실험에서 CAVE형 가상현실 공간 인터페이스를 검색환경으로 제안하고 데스크톱과 CAVE형 공간 인터페이스를 비교 평가하였다. 이 실험에 사용한 콘텐츠는 각 과제에 최적화되어 개발된 소프트웨어들과 데이터베이스를 사용하였다. 두 번째 실험은 CAVE형 가상현실 공간 인터페이스에서 검색의 효율을 높여주는 입력시스템에 대한 연구를 실행하였다. 특히, 인간의 움직임에 보다 가깝게 디자인되어 자연스럽게 조작할 수 있도록 설계된 제스처 입력시스템을 중심으로 CAVE형 가상현실 인터페이스에 적합한 3가지 입력시스템을 사용하여 검색 후 각 과제들에 대한 선호도와 만족도를 측정하였다. 또한 각 과제별 검색 수행 시간을 측정하여 효율성 높은 입력시스템을 분석하였다.

스마트카의 인터페이스를 위한 경험 디자인 가이드라인 (Experience Design Guideline for Smart Car Interface)

  • 유훈식;주다영
    • 디자인융복합연구
    • /
    • 제15권1호
    • /
    • pp.135-150
    • /
    • 2016
  • 통신 기술의 발달, 지능형교통체계(ITS: Intelligent Transport Systems)의 확산으로 자동차는 단순한 기계장치에서 종합편의 기능을 가진 제2의 생활 공간으로 변모하고 있으며, 이를 위한 인터페이스로써의 역할을 하는 플랫폼으로 진화하고 있다. 탑승자들에게 다양한 정보를 제공하는 인터페이스 영역이 확장됨에 따라 스마트카 기반의 사용자 경험(UX: User Experience) 연구에 대한 중요성이 높아지고 있다. 이 연구는 스마트카의 사용자 경험 요소에 대한 가이드라인을 제안하는데 목적을 두고 있다. 연구의 수행을 위해 기존 연구를 기반으로 스마트카의 사용자 경험 요소를 기능(function), 상호작용(interaction), 표면(surface)으로 정의하였으며, UX/UI 전문가들의 논의를 통해 각 요소 별로 8개의 대표 기술, 14개의 대표 기능, 8개의 유리창의 위치를 정의하였다. 이 후 100명의 운전자를 대상으로 정의된 스마트카 사용자 경험 요소들에 대한 우선순위를 설문조사 방식으로 분석하였다. 분석을 통해 사용자들은 차량에 주요 기술을 적용함에 있어서 안전, 주행, 감성의 순으로, 조작 방식에 있어서는 음성인식, 터치, 제스처, 물리적 버튼, 아이트레킹의 순으로, 디스플레이 위치에 대해서는 운전석을 중심으로 전방에서 후방으로 높은 우선순위를 가지고 있는 것을 알 수 있었다. 성별에 따른 분석에 있어서는 2개의 기능 외에는 큰 차이를 보이지 않아 남성과 여성에 대한 가이드가 공통되게 적용될 수 있음을 알 수 있었다.

사용자의 신체적 특징과 뇌파 집중 지수를 이용한 가상 모니터 개념의 NUI/NUX (NUI/NUX of the Virtual Monitor Concept using the Concentration Indicator and the User's Physical Features)

  • 전창현;안소영;신동일;신동규
    • 인터넷정보학회논문지
    • /
    • 제16권6호
    • /
    • pp.11-21
    • /
    • 2015
  • Human-Computer Interaction(HCI)에 대한 관심도가 높이지면서, HCI에 대한 연구도 활발히 진행되고 있다. 이와 더불어 사용자의 몸짓이나 음성을 이용하는 Natural User Interface/Natural User eXperience(NUI/NUX)에 대한 연구도 활발히 진행되고 있다. NUI/NUX의 경우, 제스처 인식이나 음성 인식 등의 인식 알고리즘이 필요하다. 하지만 이러한 인식 알고리즘은 전처리, 정규화, 특징 추출과 같은 단계를 거쳐야하기 때문에 구현이 복잡하고, 트레이닝에 많은 시간을 투자해야 한다는 단점이 있다. 최근에는 NUI/NUX 개발 도구로 Microsoft 사의 Kinect가 개발되어 개발자와 일반인들에게 많은 관심을 받고 있고, 이를 이용한 다양한 연구가 진행 중에 있다. 본 저자들의 이전 연구에서도 사용자의 신체적 특징을 이용하여 뛰어난 직관성을 가진 핸드 마우스를 구현하였다. 하지만 마우스의 움직임이 부자연스럽고 정확도가 낮아 사용자가 사용하기 다소 어려웠다는 단점이 있다. 본 연구에서는 Kinect를 통해 사용자의 신체적 특징을 실시간으로 추출하고, 이를 이용해 가상 모니터라는 새로운 개념을 추가한 핸드 마우스 인터페이스를 설계하고 구현하였다. 가상 모니터는 사용자의 손으로 마우스를 제어할 수 있는 가상의 공간을 의미한다. 이를 통해 가상 모니터 상의 손의 좌표를 실제 모니터 상의 좌표로 정확하게 매핑(mapping)이 가능하다. 가상 모니터를 사용함으로써 이전 연구의 장점인 직관성을 유지하고, 단점인 정확도를 높일 수 있다. 추가적으로 뇌파 집중 지표를 이용해 사용자의 불필요한 행동을 인식하여 핸드 마우스 인터페이스의 정확도를 높였다. 제안하는 핸드 마우스의 직관성과 정확성을 평가하기 위하여 10대부터 50대까지 50명에게 실험을 하였다. 직관성 실험 결과로 84%가 1분 이내에 사용방법을 터득하였다. 또한 동일한 피실험자에게 일반적인 마우스 기능(드래그, 클릭, 더블클릭)에 대해 정확성 실험을 한 결과로 드래그 80.9%, 클릭 80%, 더블 클릭 76.7%의 정확성을 보였다. 실험 결과를 통해 제안하는 핸드 마우스 인터페이스의 직관성과 정확성을 확인하였으며, 미래에 손으로 시스템이나 소프트웨어를 제어하는 인터페이스의 좋은 예시가 될 것으로 기대된다.