• Title/Summary/Keyword: 모션인식

Search Result 307, Processing Time 0.034 seconds

Fast Shape Matching Algorithm Based on the Improved Douglas-Peucker Algorithm (개량 Douglas-Peucker 알고리즘 기반 고속 Shape Matching 알고리즘)

  • Sim, Myoung-Sup;Kwak, Ju-Hyun;Lee, Chang-Hoon
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.5 no.10
    • /
    • pp.497-502
    • /
    • 2016
  • Shape Contexts Recognition(SCR) is a technology recognizing shapes such as figures and objects, greatly supporting technologies such as character recognition, motion recognition, facial recognition, and situational recognition. However, generally SCR makes histograms for all contours and maps the extracted contours one to one to compare Shape A and B, which leads to slow progress speed. Thus, this paper has made simple yet more effective algorithm with optimized contour, finding the outlines according to shape figures and using the improved Douglas-Peucker algorithm and Harris corner detector. With this improved method, progress speed is recognized as faster.

Natural Hand Detection and Tracking (자연스러운 손 추출 및 추적)

  • Kim, Hye-Jin;Kwak, Keun-Chang;Kim, Do-Hyung;Bae, Kyung-Sook;Yoon, Ho-Sub;Chi, Su-Young
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.148-153
    • /
    • 2006
  • 인간-컴퓨터 상호작용(HCI) 기술은 과거 컴퓨터란 어렵고 소수의 숙련자만이 다루는 것이라는 인식을 바꾸어 놓았다. HCI 는 컴퓨터 사용자인 인간에게 거부감 없이 수용되기 위해 인간과 컴퓨터가 조화를 이루는데 많은 성과를 거두어왔다. 컴퓨터 비전에 기반을 두고 인간과 컴퓨터의 상호작용을 위하여 사용자 의도 및 행위 인식 연구들이 많이 행해져 왔다. 특히 손을 이용한 제스처는 인간과 인간, 인간과 컴퓨터 그리고 최근에 각광받고 있는 인간과 로봇의 상호작용에 중요한 역할을 해오고 있다. 본 논문에서 제안하는 손 추출 및 추적 알고리즘은 비전에 기반한 호출자 인식과 손 추적 알고리즘을 병행한 자연스러운 손 추출 및 추적 알고리즘이다. 인간과 인간 사이의 상호간의 주의집중 방식인 호출 제스처를 인식하여 기반하여 사용자가 인간과 의사소통 하는 것과 마찬가지로 컴퓨터/로봇의 주의집중을 끌도록 하였다. 또한 호출 제스처에 의해서 추출된 손동작을 추적하는 알고리즘을 개발하였다. 호출 제스처는 카메라 앞에 존재할 때 컴퓨터/로봇의 사용자가 자신에게 주의를 끌 수 있는 자연스러운 행동이다. 호출 제스처 인식을 통해 복수의 사람이 존재하는 상황 하에서 또한 원거리에서도 사용자는 자신의 의사를 전달하고자 함을 컴퓨터/로봇에게 알릴 수 있다. 호출 제스처를 이용한 손 추출 방식은 자연스러운 손 추출을 할 수 있도록 한다. 현재까지 알려진 손 추출 방식은 피부색을 이용하고 일정 범위 안에 손이 존재한다는 가정하에 이루어져왔다. 이는 사용자가 제스처를 하기 위해서는 특정 자세로 고정되어 있어야 함을 의미한다. 그러나 호출 제스처를 통해 손을 추출하게 될 경우 서거나 앉거나 심지어 누워있는 상태 등 자연스러운 자세에서 손을 추출할 수 있게 되어 사용자의 불편함을 해소 할 수 있다. 손 추적 알고리즘은 자연스러운 상황에서 획득된 손의 위치 정보를 추적하도록 고안되었다. 제안한 알고리즘은 색깔정보와 모션 정보를 융합하여 손의 위치를 검출한다. 손의 피부색 정보는 신경망으로 다양한 피부색 그룹과 피부색이 아닌 그룹을 학습시켜 얻었다. 손의 모션 정보는 연속 영상에서 프레임간에 일정 수준 이상의 차이를 보이는 영역을 추출하였다. 피부색정보와 모션정보로 융합된 영상에서 블랍 분석을 하고 이를 민쉬프트로 추적하여 손을 추적하였다. 제안된 손 추출 및 추적 방법은 컴퓨터/로봇의 사용자가 인간과 마주하듯 컴퓨터/로봇의 서비스를 받을 수 있도록 하는데 주목적을 두고 있다.

  • PDF

A Study on the Motion and Voice Recognition Smart Mirror Using Grove Gesture Sensor (그로브 제스처 센서를 활용한 모션 및 음성 인식 스마트 미러에 관한 연구)

  • Hui-Tae Choi;Chang-Hoon Go;Ji-Min Jeong;Ye-Seul Shin;Hyoung-Keun Park
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.18 no.6
    • /
    • pp.1313-1320
    • /
    • 2023
  • This paper presents the development of a smart mirror that allows control of its display through glove gestures and integrates voice recognition functionality. The hardware configuration of the smart mirror consists of an LCD monitor combined with an acrylic panel, onto which a semi-mirror film with a reflectance of 37% and transmittance of 36% is attached, enabling it to function as both a mirror and a display. The proposed smart mirror eliminates the need for users to physically touch the mirror or operate a keyboard, as it implements gesture control through glove gesture sensors. Additionally, it incorporates voice recognition capabilities and integrates Google Assistant to display results on the screen corresponding to voice commands issued by the user.

Comparative Analysis of Markerless Facial Recognition Technology for 3D Character's Facial Expression Animation -Focusing on the method of Faceware and Faceshift- (3D 캐릭터의 얼굴 표정 애니메이션 마커리스 표정 인식 기술 비교 분석 -페이스웨어와 페이스쉬프트 방식 중심으로-)

  • Kim, Hae-Yoon;Park, Dong-Joo;Lee, Tae-Gu
    • Cartoon and Animation Studies
    • /
    • s.37
    • /
    • pp.221-245
    • /
    • 2014
  • With the success of the world's first 3D computer animated film, "Toy Story" in 1995, industrial development of 3D computer animation gained considerable momentum. Consequently, various 3D animations for TV were produced; in addition, high quality 3D computer animation games became common. To save a large amount of 3D animation production time and cost, technological development has been conducted actively, in accordance with the expansion of industrial demand in this field. Further, compared with the traditional approach of producing animations through hand-drawings, the efficiency of producing 3D computer animations is infinitely greater. In this study, an experiment and a comparative analysis of markerless motion capture systems for facial expression animation has been conducted that aims to improve the efficiency of 3D computer animation production. Faceware system, which is a product of Image Metrics, provides sophisticated production tools despite the complexity of motion capture recognition and application process. Faceshift system, which is a product of same-named Faceshift, though relatively less sophisticated, provides applications for rapid real-time motion recognition. It is hoped that the results of the comparative analysis presented in this paper become baseline data for selecting the appropriate motion capture and key frame animation method for the most efficient production of facial expression animation in accordance with production time and cost, and the degree of sophistication and media in use, when creating animation.

A Implementation of User Exercise Motion Recognition System Using Smart-Phone (스마트폰을 이용한 사용자 운동 모션 인식 시스템 구현)

  • Kwon, Seung-Hyun;Choi, Yue-Soon;Lim, Soon-Ja;Joung, Suck-Tae
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.17 no.10
    • /
    • pp.396-402
    • /
    • 2016
  • Recently, as the performance of smart phones has advanced and their distribution has increased, various functions in existing devices are accumulated. In particular, functions in smart devices have matured through improvement of diverse sensors. Various applications with the development of smart phones get fleshed out. As a result, services from applications promoting physical activity in users have gotten attention from the public. However, these services are about diet alone, and because these have no exercise motion recognition capability to detect movement in the correct position, the user has difficulty obtaining the benefits of exercise. In this paper, we develop exercise motion-recognition software that can sense the user's motion using a sensor built into a smart phone. In addition, we implement a system to offer exercise with friends who are connected via web server. The exercise motion recognition utilizes a Kalman filter algorithm to correct the user's motion data, and compared to data that exist in sampling, determines whether the user moves in the correct position by using a DTW algorithm.

Development of a Real-time Action Recognition-Based Child Behavior Analysis Service System (실시간 행동인식 기반 아동 행동분석 서비스 시스템 개발)

  • Chimin Oh;Seonwoo Kim;Jeongmin Park;Injang Jo;Jaein Kim;Chilwoo Lee
    • Smart Media Journal
    • /
    • v.13 no.2
    • /
    • pp.68-84
    • /
    • 2024
  • This paper describes the development of a system and algorithms for high-quality welfare services by recognizing behavior development indicators (activity, sociability, danger) in children aged 0 to 2 years old using action recognition technology. Action recognition targeted 11 behaviors from lying down in 0-year-olds to jumping in 2-year-olds, using data directly obtained from actual videos provided for research purposes by three nurseries in the Gwangju and Jeonnam regions. A dataset of 1,867 actions from 425 clip videos was built for these 11 behaviors, achieving an average recognition accuracy of 97.4%. Additionally, for real-world application, the Edge Video Analyzer (EVA), a behavior analysis device, was developed and implemented with a region-specific random frame selection-based PoseC3D algorithm, capable of recognizing actions in real-time for up to 30 people in four-channel videos. The developed system was installed in three nurseries, tested by ten childcare teachers over a month, and evaluated through surveys, resulting in a perceived accuracy of 91 points and a service satisfaction score of 94 points.

Moving Object Classification through Fusion of Shape and Motion Information (형상 정보와 모션 정보 융합을 통한 움직이는 물체 인식)

  • Kim Jung-Ho;Ko Han-Seok
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.43 no.5 s.311
    • /
    • pp.38-47
    • /
    • 2006
  • Conventional classification method uses a single classifier based on shape or motion feature. However this method exhibits a weakness if naively used since the classification performance is highly sensitive to the accuracy of moving region to be detected. The detection accuracy, in turn, depends on the condition of the image background. In this paper, we propose to resolve the drawback and thus strengthen the classification reliability by employing a Bayesian decision fusion and by optimally combining the decisions of three classifiers. The first classifier is based on shape information obtained from Fourier descriptors while the second is based on the shape information obtained from image gradients. The third classifier uses motion information. Our experimental results on the classification Performance of human and vehicle with a static camera in various directions confirm a significant improvement and indicate the superiority of the proposed decision fusion method compared to the conventional Majority Voting and Weight Average Score approaches.

Development of New Control Interface Technology Based on Leap Motion (Leap Motion을 이용한 새로운 제어 인터페이스 기술 개발)

  • Kim, Hyun-Taek;Nam, Jae-Hyun;Jung, Woo-Hwan;Cho, Kuk-Jin;Kim, Byung-Gyu
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1649-1652
    • /
    • 2013
  • 최근 정보기술의 발전에 가속화되면서 기존의 키보드나 마우스 같은 전통적인 제어장치들과는 달리 새로운 하드웨어 인터페이스들이 등장하고, 그에 따른 새로운 시각에서의 제어 방법들 등장하고 있다. 본 논문에서는 Leap Motion이라는 새로운 하드웨어 인터페이스를 사용할 때 제공되는 단순한 위치 정보만 쓰는 것이 아니라 어떠한 위치에 있는지, 특정 동작을 취했을 때 모션 등과 같은 정보들도 함께 사용하기 위해 손과 손가락을 인식할 수 있도록 모션 인식방법을 제안하고, 제안된 기술을 기반으로 3D Avatar를 제어 및 편집 후 애니메이션을 만들어 공유할 수 있는 모션제어 저작SW를 개발하였다. 본 기술은 의료, 게임, 교육 등 다양한 분야에서 새로운 제어 기술로서 활용될 수 있으며, 기존의 공간 터치 기술과는 다른 장점을 제공할 것으로 예상된다.

A Research on Smart Device-based Potable Sign Language Translator for Hearing-impaired Person (청각장애인을 위한 스마트기기 기반의 휴대용 수화통역기 연구)

  • Choi, Ji-Hee;Jeon, Soo-Min;Park, Hea-Deon;Jo, Jae-Heok;Kim, Hae-Ji;Kim, Yoo-Ri;Ro, Kwang-Hyun;Lee, Seok-ki
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.1019-1022
    • /
    • 2015
  • 사회적 약자인 청각장애인들의 수화통역 서비스가 대체로 만족스럽게 제공되고 있지 않다. 또한 청각 장애인수 대비 수화통역가의 부족과 일반인과의 즉각적인 소통이 어려워 일상생활에 불편함을 느끼는 청각장애인들이 많다. 이의 문제점을 착안하여 본 연구에서는 청각장애인들이 휴대할 수 있는 수화 통역기를 개발하고자 한다. 청각장애인들의 손동작을 인식할 수 있는 3D센서 립모션(Leap-Motion)을 통해 수화를 인식한다. 립모션 센서와 안드로이드 스마트폰 및 태블릿과 연결하여 손 데이터 값을 분석했다. 분석한 손 데이터 값과 특정 지화(자음, 모음)와 간단한 인사말의 수화동작을 취할 때, 트래킹되는 데이터 값을 비교하여 수화를 인식하고 수화와 인식된 지화의 자음과 모음을 글자로 완성시켜, 텍스트와 음성으로 출력한다. 또한 립모션이 부착된 하드케이스 안에 스마트기기 탈착이 가능한 실용성 있는 수화통역기 제품 개발에 대한 연구를 목표로 하고 있다.

3D Character Motion Synthesis and Control Method for Navigating Virtual Environment Using Depth Sensor (깊이맵 센서를 이용한 3D캐릭터 가상공간 내비게이션 동작 합성 및 제어 방법)

  • Sung, Man-Kyu
    • Journal of Korea Multimedia Society
    • /
    • v.15 no.6
    • /
    • pp.827-836
    • /
    • 2012
  • After successful advent of Microsoft's Kinect, many interactive contents that control user's 3D avatar motions in realtime have been created. However, due to the Kinect's intrinsic IR projection problem, users are restricted to face the sensor directly forward and to perform all motions in a standing-still position. These constraints are main reasons that make it almost impossible for the 3D character to navigate the virtual environment, which is one of the most required functionalities in games. This paper proposes a new method that makes 3D character navigate the virtual environment with highly realistic motions. First, in order to find out the user's intention of navigating the virtual environment, the method recognizes walking-in-place motion. Second, the algorithm applies the motion splicing technique which segments the upper and the lower motions of character automatically and then switches the lower motion with pre-processed motion capture data naturally. Since the proposed algorithm can synthesize realistic lower-body walking motion while using motion capture data as well as capturing upper body motion on-line puppetry manner, it allows the 3D character to navigate the virtual environment realistically.