• 제목/요약/키워드: movement recognize

검색결과 224건 처리시간 0.019초

친밀도, 공감도, 긍정도에 따른 얼굴 근육의 미세움직임 반응 차이 (Research on Micro-Movement Responses of Facial Muscles by Intimacy, Empathy, Valence)

  • 조지은;박상인;원명주;박민지;황민철
    • 한국콘텐츠학회논문지
    • /
    • 제17권2호
    • /
    • pp.439-448
    • /
    • 2017
  • 얼굴 표정은 상호간의 소통에 있어 중요한 의미를 갖는다. 얼굴 근육의 움직임은 감성 정보를 제공하는데, 이는 사회적 관계를 향상하는 데 중요한 역할을 한다. 그러나 얼굴의 단순 움직임만으로는 복잡한 사회 감성을 인식하기에 정확하지 않다. 본 연구의 목적은 친밀도, 공감도, 긍정도와 같은 사회감성을 인식하기 위한 얼굴의 미세 움직임을 분석하는 것이다. 76명의 피험자를 대상으로 상기 사회감성을 유발하는 자극을 제시하였고 카메라를 사용하여 얼굴 표정을 측정하였다. 결론적으로 친밀함, 공감도, 긍정도의 사회 감성에서 얼굴의 미세움직임이 다르게 나타났다. 총 44개의 얼굴 근육 중 3개의 무의식 근육과 18개의 의식 근육의 움직임 양을 추출한 후, 고속푸리에변환(Fast Fourier Tranform, FFT)을 통하여 (Dominant) Frequency 대역을 확인하였다. 독립 t-검정 결과, 친밀도 상황에서는 코 주변과 볼 주변 근육, 공감도 상황에서는 입 주변 근육, 긍정도 상황에서는 턱 주변 근육에서 유의한 차이를 보였다. 이는 애니메이션의 가상 아바타 등 얼굴 표정의 새로운 표현요소를 제안하고 근육에 따른 사회감성 인식의 기초 연구로서 활용 가능할 것으로 사료 된다.

카메라 간 정보 공유를 통한 실시간 차량 추적 시스템 개발 (Development of Real-Time Tracking System Through Information Sharing Between Cameras)

  • 김선형;김상욱
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제9권6호
    • /
    • pp.137-142
    • /
    • 2020
  • 사물인터넷 기기를 이용한 감시 시스템에 대한 연구가 증가함에 따라 특정 객체의 위치를 추적하는 연구의 필요성이 높아지고 있다. 빠른시간 안에 실시간으로 객체의 이동을 감지하고 이동 경로를 예측하는 것을 목표로 한다. 움직이는 객체를 명확하게 인식하고 검출하는 연구는 많이 이루어졌지만 객체를 인식하는 카메라 간의 정보의 공유를 필요로 하지 않는다. 본 논문에서는 카메라의 기기정보와 카메라에서 촬영하는 영상정보를 이용하여 객체의 이동반경을 예측하고 반경 내의 카메라에 대해 정보를 공유하여 객체의 이동 경로를 제공한다.

A Structure and Framework for Sign Language Interaction

  • Kim, Soyoung;Pan, Younghwan
    • 대한인간공학회지
    • /
    • 제34권5호
    • /
    • pp.411-426
    • /
    • 2015
  • Objective: The goal of this thesis is to design the interaction structure and framework of system to recognize sign language. Background: The sign language of meaningful individual gestures is combined to construct a sentence, so it is difficult to interpret and recognize the meaning of hand gesture for system, because of the sequence of continuous gestures. This being so, in order to interpret the meaning of individual gesture correctly, the interaction structure and framework are needed so that they can segment the indication of individual gesture. Method: We analyze 700 sign language words to structuralize the sign language gesture interaction. First of all, we analyze the transformational patterns of the hand gesture. Second, we analyze the movement of the transformational patterns of the hand gesture. Third, we analyze the type of other gestures except hands. Based on this, we design a framework for sign language interaction. Results: We elicited 8 patterns of hand gesture on the basis of the fact on whether the gesture has a change from starting point to ending point. And then, we analyzed the hand movement based on 3 elements: patterns of movement, direction, and whether hand movement is repeating or not. Moreover, we defined 11 movements of other gestures except hands and classified 8 types of interaction. The framework for sign language interaction, which was designed based on this mentioned above, applies to more than 700 individual gestures of the sign language, and can be classified as an individual gesture in spite of situation which has continuous gestures. Conclusion: This study has structuralized in 3 aspects defined to analyze the transformational patterns of the starting point and the ending point of hand shape, hand movement, and other gestures except hands for sign language interaction. Based on this, we designed the framework that can recognize the individual gestures and interpret the meaning more accurately, when meaningful individual gesture is input sequence of continuous gestures. Application: When we develop the system of sign language recognition, we can apply interaction framework to it. Structuralized gesture can be used for using database of sign language, inventing an automatic recognition system, and studying on the action gestures in other areas.

모터 토크 추정을 통한 보행보조기의 의지파악 알고리즘 (Walking Will Recognition Algorithm for Walking Aids Based on Torque Estimation)

  • 공정식
    • 대한의용생체공학회:의공학회지
    • /
    • 제31권2호
    • /
    • pp.162-169
    • /
    • 2010
  • This paper deals with the recognition algorithm of walking will based on torque estimation. Recently, concern about walking assistant aids is increasing according to the increase in population of elder and handicapped person. However, most of walking aids don't have any actuators for its movement. So, general walking aids have weakness for its movement to upward/download direction of slope. To overcome the weakness of the general walking aids, many researches for active type walking aids are being progressed. Unfortunately it is difficult to control aids during its movement, because it is not easy to recognize user's walking will. Many kinds of methods are proposed to recognize of user's walking will. In this paper, we propose walking will recognition algorithm by using torque estimation from wheels. First, we measure wheel velocity and voltage at the walking aids. From these data, external forces are extracted. And then walking will that is included by walking velocity and direction is estimated. Here, all the processes are verified by simulation and experiment in the real world.

자연스런 손동작을 이용한 모바일 로봇의 동작제어 (Motion Control of a Mobile Robot Using Natural Hand Gesture)

  • 김아람;이상용
    • 한국지능시스템학회논문지
    • /
    • 제24권1호
    • /
    • pp.64-70
    • /
    • 2014
  • 오늘날 일상생활에서 인간과 함께 생활하는 로봇들은 자연스러운 의사소통 방법이 요구된다. 따라서 기존의 단순한 로봇 제어 방식을 이용하여 제어하는 것 보다 실제 사람과 상호작용 하는 것과 같은 방식의 제어방식이 요구되고 있다. 기존의 연구들은 사람의 행동 자체를 인식하는 것에 초점이 맞추어져 있어서 자연스러운 의사소통을 하기 어렵다. 본 논문에서는 모바일 로봇을 제어하는 방법으로 자연스러운 손동작을 은닉 마르코프 모델(HMM: hidden markov model) 과 퍼지추론을 이용하는 방법을 제안한다. 키넥트 센서를 이용해 색상 데이터와 깊이 데이터를 획득하고 사람의 손을 검색하고 HMM과 Mamdani 퍼지추론을 이용하여 손동작을 인식한다. 인식된 결과를 로봇에게 전달하여 원하는 방향으로 이동시킨다.

HMM을 이용한 자연스러운 손동작 인식 (Recognition of Natural Hand Gesture by Using HMM)

  • 김아람;이상용
    • 한국지능시스템학회논문지
    • /
    • 제22권5호
    • /
    • pp.639-645
    • /
    • 2012
  • 본 논문에서는 모바일 로봇이 자연스러운 손동작을 은닉 마르코프 모델(HMM: hidden markov model)을 이용하여 인식해 원하는 명령을 수행하는 방법을 제안한다. 기존의 손동작 기반 로봇 제어 방식은 정해진 몇 종류의 제스처를 사용했었고, 따라서 지시동작이 자연스럽지 않았다. 또한 정해진 제스처를 미리 공부해야하여 불편했었다. 이러한 문제를 해결하기 위해 손동작을 인식하는 방법에 대한 많은 연구가 활발히 진행되고 있다. 본 논문에서는 3차원 카메라를 사용해 색상 데이터와 깊이 데이터를 얻어서, 사람의 손을 검색하고 그 동작을 인식한다. 여기서 동작을 인식하는 방법으로 HMM을 사용하였으며, 인식된 결과를 로봇에게 전달하여 원하는 방향으로 이동시킨다.

얼굴근전도와 얼굴표정으로 인한 감성의 정성적 평가에 대한 연구

  • 황민철;김지은;김철중
    • 대한인간공학회:학술대회논문집
    • /
    • 대한인간공학회 1996년도 춘계학술대회논문집
    • /
    • pp.264-269
    • /
    • 1996
  • Facial expression is innate communication skill of human. Human can recognize theri psychological state by facial parameters which contain surface movement, color, humidity and etc. This study is to quantify or qualify human emotion by measurement of facial electromyography (EMG) and facial movement. The measurement is taken at the facial area of frontalis and zygomaticus The results is indicative to discriminate the positive and negative respond of emotion and to extract the parameter sensitive to positive and negative facial-expression. The facial movement according to EMG shows the possibility of non-invasive technique of human emotion.

  • PDF

Detection of Moving Direction using PIR Sensors and Deep Learning Algorithm

  • Woo, Jiyoung;Yun, Jaeseok
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권3호
    • /
    • pp.11-17
    • /
    • 2019
  • In this paper, we propose a method to recognize the moving direction in the indoor environment by using the sensing system equipped with passive infrared (PIR) sensors and a deep learning algorithm. A PIR sensor generates a signal that can be distinguished according to the direction of movement of the user. A sensing system with four PIR sensors deployed by $45^{\circ}$ increments is developed and installed in the ceiling of the room. The PIR sensor signals from 6 users with 10-time experiments for 8 directions were collected. We extracted the raw data sets and performed experiments varying the number of sensors fed into the deep learning algorithm. The proposed sensing system using deep learning algorithm can recognize the users' moving direction by 99.2 %. In addition, with only one PIR senor, the recognition accuracy reaches 98.4%.

A Consecutive Motion and Situation Recognition Mechanism to Detect a Vulnerable Condition Based on Android Smartphone

  • Choi, Hoan-Suk;Lee, Gyu Myoung;Rhee, Woo-Seop
    • International Journal of Contents
    • /
    • 제16권3호
    • /
    • pp.1-17
    • /
    • 2020
  • Human motion recognition is essential for user-centric services such as surveillance-based security, elderly condition monitoring, exercise tracking, daily calories expend analysis, etc. It is typically based on the movement data analysis such as the acceleration and angular velocity of a target user. The existing motion recognition studies are only intended to measure the basic information (e.g., user's stride, number of steps, speed) or to recognize single motion (e.g., sitting, running, walking). Thus, a new mechanism is required to identify the transition of single motions for assessing a user's consecutive motion more accurately as well as recognizing the user's body and surrounding situations arising from the motion. Thus, in this paper, we collect the human movement data through Android smartphones in real time for five targeting single motions and propose a mechanism to recognize a consecutive motion including transitions among various motions and an occurred situation, with the state transition model to check if a vulnerable (life-threatening) condition, especially for the elderly, has occurred or not. Through implementation and experiments, we demonstrate that the proposed mechanism recognizes a consecutive motion and a user's situation accurately and quickly. As a result of the recognition experiment about mix sequence likened to daily motion, the proposed adoptive weighting method showed 4% (Holding time=15 sec), 88% (30 sec), 6.5% (60 sec) improvements compared to static method.

가상 칠판을 위한 손 표현 인식 (Hand Expression Recognition for Virtual Blackboard)

  • 허경용;김명자;송복득;신범주
    • 한국정보통신학회논문지
    • /
    • 제25권12호
    • /
    • pp.1770-1776
    • /
    • 2021
  • 손 표현 인식을 위해서는 손의 정적인 형태를 기반으로 하는 손 자세 인식과 손의 움직임을 기반으로 하는 손 동작 인식이 함께 사용된다. 본 논문에서는 가상의 칠판 위에서 움직이는 손의 궤적을 기반으로 기호를 인식하는 손 표현인식 방법을 제안하였다. 손으로 가상의 칠판에 그린 기호를 인식하기 위해서는 손의 움직임으로부터 기호를 인식하는 방법은 물론, 데이터 입력의 시작과 끝을 찾아내기 위한 손 자세 인식 역시 필요하다. 본 논문에서는 손 자세 인식을 위해 미디어파이프를, 시계열 데이터에서 손 동작을 인식하기 위해 순환 신경망의 한 종류인 LSTM(Long Short Term Memory)을 사용하였다. 제안하는 방법의 유효성을 보이기 위해 가상 칠판에 쓰는 숫자 인식에 제안하는 방법을 적용하였을 때 약 94%의 인식률을 얻을 수 있었다.