• 제목/요약/키워드: Body gesture

검색결과 100건 처리시간 0.027초

이미지 트레이닝을 위한 바이오 피드백 컨트롤러 (A Bio-Feedback Controller for Image Training)

  • 안진호;문명집;김호룡;김경식
    • 정보통신설비학회논문지
    • /
    • 제10권3호
    • /
    • pp.92-97
    • /
    • 2011
  • In this paper, a controller recognizing human gestures using EMG signal is shown. The tiny and band-type controller is developed for image training to excercise the specific area in the body, and uses a dry-type silver fiber electrode easy to be attached or detached itself to a skin. The captured EMG signals are converted to 10-bit digital values via amplification and frequency filtering processes within the controller, and are transmitted to the server by wireless. As the gesture recognition ratio using the proposed controller on biceps is up to 80%, we expect the practical potential of the controller is very promising.

  • PDF

제스처 인식을 위한 손가락 개수 인식 방법 (A Finger Counting Method for Gesture Recognition)

  • 이도엽;신동규;신동일
    • 인터넷정보학회논문지
    • /
    • 제17권2호
    • /
    • pp.29-37
    • /
    • 2016
  • 인간은 의사소통을 통해서 상호관계를 유지시키고 발전시켜나간다. 의사소통은 크게 언어적 의사소통과 비언어적 의사소통으로 나뉜다. 언어적 의사소통은 말 또는 글을 사용하는 것이고 비언어적 의사소통은 몸동작으로 의사를 전달하는 것이다. 우리는 일상생활에서 대화를 할 때 말과 더불어 제스처를 함께 사용한다. 제스처는 비언어적 의사소통에 속하며, 다양한 형태와 움직임으로 의사를 전달할 수 있다. 이러한 이유로 제스처는 HCI 분야와 HRI 분야에서 NUI/NUX를 구현하기 위한 수단으로 각광받고 있다. 본 논문에서는 키넥트와 손의 기하학적인 특징을 사용하여 손 영역 검출과 손가락 개수를 인식하는 방법을 제안한다. 키넥트가 제공하는 깊이 영상을 이용하여 영상에서 손 영역을 검출하고 손의 윤곽선과 중점의 거리를 비교하여 손가락 개수를 파악한다. 본 논문에서 제안한 방법에 따른 손가락 개수 인식률은 평균 98.5%이고 수행시간은 0.065ms이다. 이 방법은 기존의 연구와 비교 했을 때, 인식 속도가 빠르며, 복잡도가 O(n),으로써 성능 또한 우수하다. 향후 이를 통해 제스처의 인식 가능한 범위를 증가시켜 보다 컴퓨터와 인간의 상호작용이 수월해지는데 도움이 될 것이다.

고객 맞춤형 서비스를 위한 관객 행동 기반 감정예측모형 (The Audience Behavior-based Emotion Prediction Model for Personalized Service)

  • 유은정;안현철;김재경
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.73-85
    • /
    • 2013
  • 정보기술의 비약적 발전에 힘입어, 오늘날 기업들은 지금까지 축적한 고객 데이터를 기반으로 맞춤형 서비스를 제공하는 것에 많은 관심을 가지고 있다. 고객에게 소구하는 맞춤형 서비스를 효과적으로 제공하기 위해서는 우선 그 고객이 처한 상태나 상황을 정확하게 인지하는 것이 중요하다. 특히, 고객에게 서비스가 전달되는 이른바 진실의 순간에 해당 고객의 감정 상태를 정확히 인지할 수 있다면, 기업은 더 양질의 맞춤형 서비스를 제공할 수 있을 것이다. 이와 관련하여 사람의 얼굴과 행동을 이용하여 사람의 감정을 판단하고 개인화 서비스를 제공하기 위한 연구가 활발하게 이루어지고 있다. 얼굴 표정을 통해 사람의 감정을 판단하는 연구는 좀 더 미세하고 확실한 변화를 통해 정확하게 감정을 판단할 수 있지만, 장비와 환경의 제약으로 실제 환경에서 다수의 관객을 대상으로 사용하기에는 다소 어려움이 있다. 이에 본 연구에서는 Plutchik의 감정 분류 체계를 기반으로 사람들의 행동을 통해 감정을 추론해내는 모형을 개발하는 것을 목표로 한다. 본 연구는 콘텐츠에 의해 유발된 사람들의 감정적인 변화를 사람들의 행동 변화를 통해 판단하고 예측하는 모형을 개발하고, 4가지 감정 별 행동 특징을 추출하여 각 감정에 따라 최적화된 예측 모형을 구축하는 것을 목표로 한다. 모형 구축을 위해 사람들에게 적절한 감정 자극영상을 제공하고 그 신체 반응을 수집하였으며, 사람들의 신체 영역을 나누었다. 특히, 모션캡쳐 분야에서 널리 쓰이는 차영상 기법을 적용하여 사람들의 제스쳐를 추출 및 보정하였다. 이후 전처리 과정을 통해 데이터의 타임프레임 셋을 20, 30, 40 프레임의 3가지로 설정하고, 데이터를 학습용, 테스트용, 검증용으로 구분하여 인공신경망 모형을 통해 학습시키고 성과를 평가하였다. 다수의 일반인들을 대상으로 수집된 데이터를 이용하여 제안 모형을 구축하고 평가한 결과, 프레임셋에 따라 예측 성과가 변화함을 알 수 있었다. 감정 별 최적 예측 성과를 보이는 프레임을 확인할 수 있었는데, 이는 감정에 따라 감정의 표출 시간이 다르기 때문인 것으로 판단된다. 이는 행동에 기반한 제안된 감정예측모형이 감정에 따라 효과적으로 감정을 예측할 수 있으며, 실제 서비스 환경에서 사용할 수 있는 효과적인 알고리즘이 될 수 있을 것으로 기대할 수 있다.

인간의 비언어적 행동 특징을 이용한 다중 사용자의 상호작용 의도 분석 (Interaction Intent Analysis of Multiple Persons using Nonverbal Behavior Features)

  • 윤상석;김문상;최문택;송재복
    • 제어로봇시스템학회논문지
    • /
    • 제19권8호
    • /
    • pp.738-744
    • /
    • 2013
  • According to the cognitive science research, the interaction intent of humans can be estimated through an analysis of the representing behaviors. This paper proposes a novel methodology for reliable intention analysis of humans by applying this approach. To identify the intention, 8 behavioral features are extracted from the 4 characteristics in human-human interaction and we outline a set of core components for nonverbal behavior of humans. These nonverbal behaviors are associated with various recognition modules including multimodal sensors which have each modality with localizing sound source of the speaker in the audition part, recognizing frontal face and facial expression in the vision part, and estimating human trajectories, body pose and leaning, and hand gesture in the spatial part. As a post-processing step, temporal confidential reasoning is utilized to improve the recognition performance and integrated human model is utilized to quantitatively classify the intention from multi-dimensional cues by applying the weight factor. Thus, interactive robots can make informed engagement decision to effectively interact with multiple persons. Experimental results show that the proposed scheme works successfully between human users and a robot in human-robot interaction.

Combining Dynamic Time Warping and Single Hidden Layer Feedforward Neural Networks for Temporal Sign Language Recognition

  • Thi, Ngoc Anh Nguyen;Yang, Hyung-Jeong;Kim, Sun-Hee;Kim, Soo-Hyung
    • International Journal of Contents
    • /
    • 제7권1호
    • /
    • pp.14-22
    • /
    • 2011
  • Temporal Sign Language Recognition (TSLR) from hand motion is an active area of gesture recognition research in facilitating efficient communication with deaf people. TSLR systems consist of two stages: a motion sensing step which extracts useful features from signers' motion and a classification process which classifies these features as a performed sign. This work focuses on two of the research problems, namely unknown time varying signal of sign languages in feature extraction stage and computing complexity and time consumption in classification stage due to a very large sign sequences database. In this paper, we propose a combination of Dynamic Time Warping (DTW) and application of the Single hidden Layer Feedforward Neural networks (SLFNs) trained by Extreme Learning Machine (ELM) to cope the limitations. DTW has several advantages over other approaches in that it can align the length of the time series data to a same prior size, while ELM is a useful technique for classifying these warped features. Our experiment demonstrates the efficiency of the proposed method with the recognition accuracy up to 98.67%. The proposed approach can be generalized to more detailed measurements so as to recognize hand gestures, body motion and facial expression.

화자의 긍정·부정 의도를 전달하는 실용적 텔레프레즌스 로봇 시스템의 개발 (Development of a Cost-Effective Tele-Robot System Delivering Speaker's Affirmative and Negative Intentions)

  • 진용규;유수정;조혜경
    • 로봇학회논문지
    • /
    • 제10권3호
    • /
    • pp.171-177
    • /
    • 2015
  • A telerobot offers a more engaging and enjoyable interaction with people at a distance by communicating via audio, video, expressive gestures, body pose and proxemics. To provide its potential benefits at a reasonable cost, this paper presents a telepresence robot system for video communication which can deliver speaker's head motion through its display stanchion. Head gestures such as nodding and head-shaking can give crucial information during conversation. We also can assume a speaker's eye-gaze, which is known as one of the key non-verbal signals for interaction, from his/her head pose. In order to develop an efficient head tracking method, a 3D cylinder-like head model is employed and the Harris corner detector is combined with the Lucas-Kanade optical flow that is known to be suitable for extracting 3D motion information of the model. Especially, a skin color-based face detection algorithm is proposed to achieve robust performance upon variant directions while maintaining reasonable computational cost. The performance of the proposed head tracking algorithm is verified through the experiments using BU's standard data sets. A design of robot platform is also described as well as the design of supporting systems such as video transmission and robot control interfaces.

피지컬 인터페이스의 구현에 관한 연구

  • 오병근
    • 디자인학연구
    • /
    • 제16권2호
    • /
    • pp.131-140
    • /
    • 2003
  • 컴퓨터를 이용한 인터랙션 디자인에 있어서 일반적인 입력방식은 키보드나 마우스를 이용하여 사용자가 모니터를 통해 인터페이스를 조작하는 제한적 형태이다. 그러나 이것은 기존의 전기나 전자의 기초기술을 활용하여 다른 형식의 입력방법을 창작하고 구현하여 인터랙션 디자인의 영역을 넓힐 수 있다. 최근 컴퓨터나 영상매체를 이용한 미디어 예술표현도 다양한 방식으로 제공되는 인터페이스를 사용자가 직접 참여하여 작동해야 예술적 표현이 완성되는 형식이 선보이고 있다. 피지컬 인터페이스를 이용한 인터랙션 디자인도 사용자가 작동하는 인터페이스로부터의 신호를 디지털이나 아날로그 형식으로 구분하고 컴퓨터에 입력하거나 출력하므로써 이를 활용할 수 있다. 이 때 인터페이스의 신호는 컴퓨터가 안전하게 받아들 일 수 있는 형식이 필요하므로 이를 위한 전기적 회로장치 구현이 필요하다. 인터페이스의 형식도 컴퓨터 키보드나 마우스 등의 기존 형태가 아닌 스위치나 센서, 카메라 등을 이용한 또 다른 물리적 형태의 창작물이 되는 것이다. 이러한 형태의 인터랙션 디자인은 인간이 원래부터 사용하는 언어와 몸짓을 이용한 인터랙션의 인간적(Humanity) 풍부함을 부여할 수 있는 디자인이라고 할 수 있다.

  • PDF

Interactive drawing with user's intentions using image segmentation

  • Lim, Sooyeon
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제10권3호
    • /
    • pp.73-80
    • /
    • 2018
  • This study introduces an interactive drawing system, a tool that allows user to sketch and draw with his own intentions. The proposed system enables the user to express more creatively through a tool that allows the user to reproduce his original idea as a drawing and transform it using his body. The user can actively participate in the production of the artwork by studying the unique formative language of the spectator. In addition, the user is given an opportunity to experience a creative process by transforming arbitrary drawing into various shapes according to his gestures. Interactive drawing systems use the segmentation of the drawing image as a way to extend the user's initial drawing idea. The system includes transforming a two-dimensional drawing into a volume-like form such as a three-dimensional drawing using image segmentation. In this process, a psychological space is created that can stimulate the imagination of the user and project the object of desire. This process of drawing personification plays a role of giving the user familiarity with the artwork and indirectly expressing his her emotions to others. This means that the interactive drawing, which has changed to the emotional concept of interaction beyond the concept of information transfer, can create a cooperative sensation image between user's time and space and occupy an important position in multimedia society.

LabVIEW 기반 EPS 동작신호 검출 및 분석 시스템 구현 (Implementation of EPS Motion Signal Detection and Classification system Based on LabVIEW)

  • 천우영;이석현;김영철
    • 스마트미디어저널
    • /
    • 제5권3호
    • /
    • pp.25-29
    • /
    • 2016
  • 본 논문에서는 인체의 전자기장을 측정하는 EPS(Electronic Potential Sensor)를 이용하여 비접촉 동작인식 시스템에 적용하기 위한 연구를 진행하였다. 센서에서 나오는 데이터를 이용하여 동작인식에 적합한 시스템을 설계하기 위한 신호 수집 및 신호처리 시스템을 구현하였다. AC 형태의 입력 데이터 값에 10Hz LPF(Low Pass Filter) 및 H/W 샘플링 속도를 고려하여 선형적인 DC 형태의 데이터로 변형하였다. 센서간의 배열을 고려한 데이터 차분 과정을 통해 목표물의 2차원 움직임 정보를 추출하여 전체 시스템에 대한 특성평가를 수행하였다.

중국어 말하기 교재 속의 인칭직시에 대한 일고 - '아문(我們)'을 중심으로 (Consideration on deixis on the Chinese Conversation Textbook: Focused on Women(我們))

  • 박찬욱
    • 비교문화연구
    • /
    • 제31권
    • /
    • pp.309-330
    • /
    • 2013
  • This paper aims to examine distribution and patterns of Women(我們) on Chinese conversation textbook, and also suggest that Chinese class need to impose pragmatic perspective. For this purpose, this paper explores 35 Womens in 42 conversation units on three Chinese textbooks Hanyu Kouyu vol.1~3 at first. Women is more contributed on 'exclusive Women' among three categories (inclusive, exclusive, borrowed) than other two categories, is also contributed on 'symbolic usage' than 'gestural usage'. Second, this paper examines patterns of Women on the three categories. It shows: first, 'inclusive Women', 'exclusive Women', 'borrowed Women' all show up on the textbooks even though on the textbook vol.1(for beginner) surprisingly; Second, 'exclusive Women' may be a primary one of three categories in terms of the coverage of Women. Women covers those who are related with the speaker regardless of being on the spot, and also covers those which the speaker belongs to, for example, nationality, ethnicity etc. Consequently, the results show that Chinese speaking course, from now on, needs to consider pragmatic factors including existing semantic and syntactic factors, and from the pragmatic perspective, impose 'action'(including speech act, body gesture etc.) on Chinese conversation class for the learners' improvement in Chinese speaking.