• 제목/요약/키워드: Direction recognition

검색결과 851건 처리시간 0.027초

동작 인식 게임의 융합 발전 방향 (A Study on Convergence Development Direction of Gesture Recognition Game)

  • 이면재
    • 한국융합학회논문지
    • /
    • 제5권4호
    • /
    • pp.1-7
    • /
    • 2014
  • 동작 인식은 동작을 인식하여 처리하는 기술로 사용자에게 편이성과 직관성을 제공한다. 이러한 장점 때문에 동작 인식 기술은 군사, 의료, 교육 등 여러 분야에 융합되어 응용되고 있다. 특히, 게임 분야에서 동작 인식은 실제 동작과 유사하게 플레이할 수 있다는 장점 때문에, 의료, 군사, 교육 등의 분야와 융합되어지고 있다. 본 논문은 이러한 배경을 바탕으로 동작 인식 게임의 융합 발전 방향을 논하기 위한 것이다. 이를 위하여 본 논문에서는 동작 인식 기술 현황과 게임을 살펴보고 동작 인식 게임의 문제점과 개선 방안을 기술한다. 본 논문은 국내 동작 인식게임의 융합 경쟁력을 향상시키는데 도움을 줄 수 있다.

획의 방향 코드 조합에 의한 오프라인 필기체 숫자 인식 (Off-line Handwritten Digit Recognition by Combining Direction Codes of Strokes)

  • 이찬희;정순호
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권12호
    • /
    • pp.1581-1590
    • /
    • 2004
  • 본 논문은 한 가지 특징 요소로서 획 방향 코드들만을 사용하는 강건한 오프라인 필기체 숫자 인식 방법을 제안한다. 이 방법은 입력된 숫자 이미지에 대하여 일반적인 8방향 코드를 생성하고 이 코드들의 조합을 다층 신경망에 학습하고 각 숫자를 인식하게 한다. 8방향 코드들은 다양하게 표현된 숫자들의 자기구성 그래프(SOG*:Improved Self-Organizing Graph) 세선화 결과에 의해 만들어지고 이 코드의 사용은 2개 이상의 특징점들을 처리하는 기존의 복합적인 단계들을 단순화시킨다. 실험결과는 모든 숫자 데이타베이스의 어떤 이미지들에 대해서도 인식률이 일관성 있게 98.85% 이상임을 보여준다.

시선 인식을 이용한 로봇 인터페이스 개발 (Robot Control Interface Using Gaze Recognition)

  • 박세현
    • 대한임베디드공학회논문지
    • /
    • 제7권1호
    • /
    • pp.33-39
    • /
    • 2012
  • In this paper, we propose robot control interface using gaze recognition which is not limited by head motion. Most of the existing gaze recognition methods are working well only if the head is fixed. Furthermore the methods require a correction process per each person. The interface in this paper uses a camera with built-in infrared filter and 2 LED light sources to see what direction the pupils turn to and can send command codes to control the system, thus it doesn't need any correction process per each person. The experimental results showed that the proposed interface can control the system exactly by recognizing user's gaze direction.

지휘행동 이해를 위한 손동작 인식 (Hand Gesture Recognition for Understanding Conducting Action)

  • 제홍모;김지만;김대진
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2007년도 가을 학술발표논문집 Vol.34 No.2 (C)
    • /
    • pp.263-266
    • /
    • 2007
  • We introduce a vision-based hand gesture recognition fer understanding musical time and patterns without extra special devices. We suggest a simple and reliable vision-based hand gesture recognition having two features First, the motion-direction code is proposed, which is a quantized code for motion directions. Second, the conducting feature point (CFP) where the point of sudden motion changes is also proposed. The proposed hand gesture recognition system extracts the human hand region by segmenting the depth information generated by stereo matching of image sequences. And then, it follows the motion of the center of the gravity(COG) of the extracted hand region and generates the gesture features such as CFP and the direction-code finally, we obtain the current timing pattern of beat and tempo of the playing music. The experimental results on the test data set show that the musical time pattern and tempo recognition rate is over 86.42% for the motion histogram matching, and 79.75% fer the CFP tracking only.

  • PDF

Selection of features and hidden Markov model parameters for English word recognition from Leap Motion air-writing trajectories

  • Deval Verma;Himanshu Agarwal;Amrish Kumar Aggarwal
    • ETRI Journal
    • /
    • 제46권2호
    • /
    • pp.250-262
    • /
    • 2024
  • Air-writing recognition is relevant in areas such as natural human-computer interaction, augmented reality, and virtual reality. A trajectory is the most natural way to represent air writing. We analyze the recognition accuracy of words written in air considering five features, namely, writing direction, curvature, trajectory, orthocenter, and ellipsoid, as well as different parameters of a hidden Markov model classifier. Experiments were performed on two representative datasets, whose sample trajectories were collected using a Leap Motion Controller from a fingertip performing air writing. Dataset D1 contains 840 English words from 21 classes, and dataset D2 contains 1600 English words from 40 classes. A genetic algorithm was combined with a hidden Markov model classifier to obtain the best subset of features. Combination ftrajectory, orthocenter, writing direction, curvatureg provided the best feature set, achieving recognition accuracies on datasets D1 and D2 of 98.81% and 83.58%, respectively.

네 방향 스캔 방법을 이용한 QR코드 파인더 인식 (QR-code finder recognition using four directional scanning method)

  • 이연경;유훈
    • 한국정보통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.1187-1192
    • /
    • 2012
  • 본 논문에서는 네 방향으로 스캔 방향을 늘려 QR코드 파인더를 인식하는 방법을 제안한다. QR코드 인식의 첫 과정은 파인더 인식이다. 만약 파인더를 인식하지 못한다면 QR코드를 인식 할 수 없다. 기존의 QR코드 인식방법은 정면에서 촬영하지 않으면 QR코드를 인식하지 못한다는 문제점을 가지고 있다. 이러한 문제점을 극복하기 위해서 네 방향으로의 스캔과 후보군 영상을 사용하여 정확하게 파인더의 위치를 찾는다. 또한 모폴로지 연산을 이용하여 파인더의 위치를 다시 추려낸다. 제안된 방법을 입증하기 위해 기존의 인식 방법과 비교 실험을 수행하였고 그 결과 제안한 방법이 기존 방법보다 QR코드 파인더 인식률에서 우수함을 입증하였다.

Sound's Direction Detection and Speech Recognition System for Humanoid Active Audition

  • Kim, Hyun-Don;Choi, Jong-Suk;Lee, Chang-Hoon;Park, Gwi-Tea;Kim, Mun-Sang
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.633-638
    • /
    • 2003
  • In this paper, we propose a humanoid active audition system which detects the direction of sound and performs speech recognition using just three microphones. Compared with previous researches, this system which has simpler algorithm, fewer microphones and better amplifier shows better performance. In order to verify our system's performance, we install the proposed active audition system to the home service robot, called Hombot II, which has been developed at the KIST (Korea Institute of Science and Technology), thus we confirm excellent performance by experimental results

  • PDF

자기센서 기반 자율주행차량의 도로방향 인식 (Recognition of Road Direction for Magnetic Sensor Based Autonomous Vehicle)

  • 유영재;김의선;김명준;임영철
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제52권9호
    • /
    • pp.526-532
    • /
    • 2003
  • This paper describes a recognition method of a road direction for an autonomous vehicle based on magnetic sensors. Using the sensors mounted on a vehicle and the magnetic markers embedded along the center of road, the autonomous vehicle can recognize a road direction and control a steering angle. Using the front lateral deviation of a vehicle and the rear one, the road direction is calculated. The analysis of magnetic field, the acquisition technique of training data, the training method of neural network and the computer simulation are presented. According to the computer simulation, the proposed method is simulated, and its performance is verified. Also, the experimental test is confirmed its reliability.

Feature Extraction Method for the Character Recognition of the Low Resolution Document

  • Kim, Dae-Hak;Cheong, Hyoung-Chul
    • Journal of the Korean Data and Information Science Society
    • /
    • 제14권3호
    • /
    • pp.525-533
    • /
    • 2003
  • In this paper we introduce some existing preprocessing algorithm for character recognition and consider feature extraction method for the recognition of low resolution document. Image recognition of low resolution document including fax images can be frequently misclassified due to the blurring effect, slope effect, noise and so on. In order to overcome these difficulties in the character recognition we considered a mesh feature extraction and contour direction code feature. System for automatic character recognition were suggested.

  • PDF

좌표 정보를 이용한 손동작 직선 8 방향 인식 알고리즘 (8-Straight Line Directions Recognition Algorithm for Hand Gestures Using Coordinate Information)

  • 섯드게럴;김용기;김미혜
    • 디지털융복합연구
    • /
    • 제13권9호
    • /
    • pp.259-267
    • /
    • 2015
  • 본 논문에서는 직선을 판별하는 판별방법과 또한 직선으로 판정되는 경우 직선의 8가지 방향에 대한 판정을 위하여 좌표정보와 삼각함수 성질을 이용하여 직선 8반향 알고리즘을 제안하였다. 본 실험은 각 동작 별로 100회씩 총 800회를 실험 하였으며, 본 논문에서 제안한 알고리즘을 통한 정확도는 왼쪽 위로의 대각선 방향이 92%로 가장 높았으며 왼쪽 방향, 오른쪽 위로의 대각선 방향과 오른쪽 아래로의 대각선 방향이 모두 82%로 가장 낮은 인식률을 나타내었다. 이 방법은 기존 방법과는 다르게 학습과정 없이 이미지 처리를 통해 얻은 좌표 정보만으로 손 제스처 인식이 가능하다는 것을 보여준다.