• 제목/요약/키워드: virtual touch screen

검색결과 21건 처리시간 0.025초

게임 응용을 위한 가상 터치스크린 시스템 (Virtual Touch Screen System for Game Applications)

  • 김형준
    • 한국게임학회 논문지
    • /
    • 제6권3호
    • /
    • pp.77-86
    • /
    • 2006
  • 본 논문에서는 일반적인 터치스크린의 단점을 보완하고, 새로운 형태의 입력장치로서 뿐만 아니라 게임 등에 이용할 수 있는 가상막을 이용한 가상 터치스크린을 구현했다. 기존의 터치스크린에서 요구되는 물리적인 막이 없이, 두 대의 웹캠만으로 가상막을 설치함으로써 크기의 제한이 없는 영상처리 기반의 가상 터치스크린이다. 본 논문에서 개발한 가상터치스크린은 가격이 저렴하고 쉽게 설치가 가능하여 새로운 형태의 게임을 구현하는데 사용할 수 있는 시스템이다.

  • PDF

핀테크 환경에서 그룹핑을 이용한 이중 터치 기반의 위치 차단이 가능한 보안 키패드 설계 (Design for Position Protection Secure Keypads based on Double-Touch using Grouping in the Fintech)

  • 문형진
    • 융합정보논문지
    • /
    • 제12권3호
    • /
    • pp.38-45
    • /
    • 2022
  • 핀테크 기술의 발전으로 인해 스마트폰을 이용한 금융거래가 활성화되고 있다. 금융거래시 사용자 인증을 위한 비밀번호는 스마트 폰의 터치 스크린 상에 보여지는 가상 키패드를 통해 입력된다. 비밀번호를 터치할 때 공격자가 높은 해상도를 가진 카메라로 촬영하거나 어깨 너머로 훔쳐보는 방식으로 사용자가 입력한 비밀번호를 알아낼 수 있다. 이런 공격을 막기 위해 보안이 적용된 가상 키패드는 크기가 작은 터치 스크린에 입력하기 어렵고, 훔쳐보기 공격에 취약점이 여전히 존재한다. 본 논문에서는 전체 키패드를 몇 개의 그룹으로 나누고 작은 화면에 표시하여 입력할 문자가 속해 있는 그룹을 터치하고, 그룹 내에서 해당 문자를 터치하는 방식으로 입력할 문자를 쉽게 찾을 수 있다. 제안기법은 입력할 문자가 속한 그룹을 선택하며 해당 그룹에 키패드를 10개 이내로 작은 스크린에 보여주기 때문에 키패드의 크기를 기존 방법보다 2배 이상 확대가 가능하고, 위치를 랜덤하게 배치하여 터치한 위치를 통한 공격을 차단할 수 있다.

시각 장애인의 입력 편의성 향상을 위한 손가락 터치 기반의 한글 입력 인터페이스 (Finger-Touch based Hangul Input Interface for Usability Enhancement among Visually Impaired Individuals)

  • 강승식;최윤승
    • 정보과학회 논문지
    • /
    • 제43권11호
    • /
    • pp.1307-1314
    • /
    • 2016
  • 스마트폰 환경에서 천지인, 나랏글, qwerty 등과 같은 가상 키보드들은 문자 입력 버튼의 위치가 고정되어 있으며 기본적으로 문자 버튼의 위치를 인식하는 시각 정보를 기반으로 문자를 입력하는 방식을 취하고 있다. 이처럼 입력할 문자의 위치가 고정되어 있는 버튼 입력 방식은 시각 장애인들이 사용하기에 매우 불편하다. 본 연구는 고정된 위치의 버튼을 기반으로 하는 한글 입력 방식의 불편한 점을 개선하기 위해, 버튼 위치의 시각 인지가 필요하지 않은 손가락 터치 기반의 한글 입력 방식을 제안한다. 자음과 모음의 손가락 터치 동작은 학습 편의성을 위해 한글 자모의 형태와 사용 빈도수, 손가락의 우선 순위 등을 고려하여 설계하였다. 최초 입력시에는 사용자가 직접 기준 위치를 정함으로써 다른 기기의 터치 화면에서도 동일한 인터페이스를 사용할 수 있는 장점이 있다. 이 방법은 고유의 손가락 터치 동작들을 각각의 한글 자음과 모음에 할당함으로써 기존의 버튼 터치 방식에서 이웃 버튼을 잘못 입력하는 오류가 발생하지 않기 때문에 의도치 않았던 문자가 잘못 입력되는 오류가 감소되는 장점이 있다.

공간 배치를 위한 혼합현실 기반의 인터페이스 (A Mixed Reality Based Interface for Planing Layouts)

  • 강현;이건;손욱호
    • 한국HCI학회논문지
    • /
    • 제2권2호
    • /
    • pp.45-51
    • /
    • 2007
  • 공장 내 생산설비 배치나 건물 내 인테리어 디자인에서, 생산성 및 전체 디자인을 손상하지 않고 장비들을 신규 도입 혹은 재배치하는 것은 고비용의 작업이다. 이러한 실제 물체들을 가상공간에서 배치 시뮬레이션 하기 위한 방법으로 본 논문에서는 혼합현실 기반의 인터페이스를 제안한다. 제안된 인터페이스는 공장 내 생산설비 배치를 위한 시뮬레이션 알고리즘이 적용되었다. 제안된 인터페이스의 하드웨어는 이동식의 PC 플랫폼위에 사용자 입력을 위한 터치스크린과 비디오카메라가 장착되어 영상을 실시간적으로 보여주는 디스플레이(video see-through display) 를 사용한다. 가상물체와 실제물체가 정교히 합성된 혼합 현실 영상에서 터치 입력을 통해 가상 물체들을 회전 및 이동을 통해 재배치한다. 구현된 인터페이스를 통해, 우리는 제안된 인터페이스가 공간 배치 응용 분야에서 유용성이 있음을 확인하였다.

  • PDF

가상 터치스크린 시스템을 위한 TOF 카메라 기반 3차원 손 끝 추정 (3D Fingertip Estimation based on the TOF Camera for Virtual Touch Screen System)

  • 김민욱;안양근;정광모;이칠우
    • 정보처리학회논문지B
    • /
    • 제17B권4호
    • /
    • pp.287-294
    • /
    • 2010
  • TOF(Time of Flight) 기술은 물체의 3차원 깊이 정보 추출을 가능케 하는 기술 중의 하나이다. 하지만, TOF의 카메라의 출력인 깊이 영상을 이용한 물체의 3차원 위치 추출은 몸이나 손 등 크기가 큰 물체의 경우에는 비교적 신뢰성 있는 결과를 얻을 수 있는데 비하여 크기가 작은 손 끝의 경우에는 신뢰할 수 있는 값을 얻기 힘들다. 본 논문에서는 TOF 카메라에서 육면체 손 모델을 이용하여 수정된 손의 영상에서의 위치 정보와 팔 모델을 이용하여 손 끝의 3차원 좌표를 추정한다. 제안된 방법으로 실험을 한 결과 TOF 카메라의 깊이 영상만을 사용하여 인식한 손 끝의 3차원 위치정보와 비교하여 훨씬 더 향상된 결과를 얻을 수 있었다.

핀테크에서 터치 위치 차단을 위한 테트리스 모양의 보안 키패드의 구현 (Implementation of Secure Keypads based on Tetris-Form Protection for Touch Position in the Fintech)

  • 문형진;강신영;신좌철
    • 융합정보논문지
    • /
    • 제10권8호
    • /
    • pp.144-151
    • /
    • 2020
  • 핀테크 서비스에서 금융거래시 사용자 인증하는 절차는 필수적이다. 특히, 스마트 폰에서의 인증은 터치 스크린상의 가상 키패드를 통해 PIN을 입력받아 수행한다. 공격자가 PIN 입력 과정을 어깨너머로 훔쳐보기로 터치한 문자와 터치위치를 활용하여 패스워드를 유추하거나 높은 해상도 카메라 등으로 녹화하여 터치한 문자를 알아내어 패스워드를 유출할 수 있다. 패스워드 유출을 차단하기 위해 다양한 기법의 가상 키패드에 대한 연구가 진행되고 있다. 한편 편리성을 높이는 동시에 변동적인 키패드로 안전성이 보장되는 보안 키패드를 설계하는 것은 쉽지 않다. 또한 사용자가 터치한 패스워드가 잘못되었는지 확인을 위해 사용자에게 입력된 정보를 보여주기 때문에 고해상도 카메라 및 구글 글래스 등으로 녹화시 패스워드가 쉽게 노출된다. 본 논문에서는 QWERTY기반 보안 키패드에 대한 장단점을 분석하였다. 이를 통해 테트리스 모양의 키패드를 생성하고, 이어 붙이는 보안 키패드를 안드로이드 환경에서 구현하고, 입력된 문자를 스마트 화면에 테트리스 모양으로 사용자에게 보여줌으로서 녹화로 인한 패스워드 노출을 차단할 수 있다.

Controlling Position of Virtual Reality Contents with Mouth-Wind and Acceleration Sensor

  • Kim, Jong-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권4호
    • /
    • pp.57-63
    • /
    • 2019
  • In this paper, we propose a new framework to control VR(Virtual reality) contents in real time using user's mouth-wind and acceleration sensor of mobile device. In VR, user interaction technology is important, but various user interface methods is still lacking. Most of the interaction technologies are hand touch screen touch or motion recognition. We propose a new interface technology that can interact with VR contents in real time using user's mouth-wind method with acceleration sensor. The direction of the mouth-wind is determined using the angle and position between the user and the mobile device, and the control position is adjusted using the acceleration sensor of the mobile device. Noise included in the size of the mouth wind is refined using a simple average filter. In order to demonstrate the superiority of the proposed technology, we show the result of interacting with contents in game and simulation in real time by applying control position and mouth-wind external force to the game.

멀티 터치스크린과 실감형 인터페이스를 적용한 과학 실험 학습 시스템 (Learning System for Scientific Experiments with Multi-touch Screen and Tangible User Interface)

  • 김준우;맹준희;주지영;임광혁
    • 한국콘텐츠학회논문지
    • /
    • 제10권8호
    • /
    • pp.461-471
    • /
    • 2010
  • 최근, 현실세계와 가상세계를 결합하여 디지털 컨텐츠 형태로 보여주는 증강 현실 기술이 등장하고 있다. 증강현실 기술의 효과를 극대화하기 위해서, 사용자가 현실세계의 사물을 조작하는 것과 유사한 방법으로 디지털 콘텐츠와 상호작용하는 것을 가능하게 해 주는 실감형 인터페이스가 적용된다. 특히, 교육 분야에서는 이러한 기술들이 학습자의 흥미와 몰입도를 높이고, 학습 효과를 극대화할 수 있는 새로운 학습 콘텐츠의 제작을 가능하게 할 것으로 기대되고 있다. 본 논문에서는 멀티 터치스크린과 실감형 인터페이스를 적용한 과학 실험 학습 시스템을 제안한다. 이 시스템은 종래의 실험대 위에서 이루어지는 실험도구의 조작을 대체하기 위하여 대형 멀티 터치스크린을 장착한 실험 테이블과 간단한 사용자의 제스쳐를 인식할 수 있는 실감형 학습 디바이스를 사용한다. 실제 과학 실험에서는 높은 비용이나 긴 시간, 또는 위험 물질들이 요구되기도 하는데, 본 시스템은 이러한 요인들을 극복하면서 학습자들에게 다양한 실험을 현실감 있게 제공할 수 있다.

Head Mounted Camera 환경에서 응시위치 추적 (Gaze Detection in Head Mounted Camera environment)

  • 이철한;이정준;김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 추계종합학술대회 논문집(4)
    • /
    • pp.25-28
    • /
    • 2000
  • Gaze detection is to find out the position on a monitor screen where a user is looking at, using the computer vision processing. This System can help the handicapped to use a computer, substitute a touch screen which is expensive, and navigate the virtual reality. There are basically two main types of the study of gaze detection. The first is to find out the location by face movement, and the second is by eye movement. In the gaze detection by eye movement, we find out the position with special devices, or the methode of image processing. In this paper, we detect not the iris but the pupil from the image captured by Head-Mounted Camera with infra-red light, and accurately locate the position where a user looking at by A(fine Transform.

  • PDF