• 제목/요약/키워드: Action recognition

검색결과 404건 처리시간 0.027초

Extensible Hierarchical Method of Detecting Interactive Actions for Video Understanding

  • Moon, Jinyoung;Jin, Junho;Kwon, Yongjin;Kang, Kyuchang;Park, Jongyoul;Park, Kyoung
    • ETRI Journal
    • /
    • 제39권4호
    • /
    • pp.502-513
    • /
    • 2017
  • For video understanding, namely analyzing who did what in a video, actions along with objects are primary elements. Most studies on actions have handled recognition problems for a well-trimmed video and focused on enhancing their classification performance. However, action detection, including localization as well as recognition, is required because, in general, actions intersect in time and space. In addition, most studies have not considered extensibility for a newly added action that has been previously trained. Therefore, proposed in this paper is an extensible hierarchical method for detecting generic actions, which combine object movements and spatial relations between two objects, and inherited actions, which are determined by the related objects through an ontology and rule based methodology. The hierarchical design of the method enables it to detect any interactive actions based on the spatial relations between two objects. The method using object information achieves an F-measure of 90.27%. Moreover, this paper describes the extensibility of the method for a new action contained in a video from a video domain that is different from the dataset used.

스켈레톤 조인트 매핑을 이용한 딥 러닝 기반 행동 인식 (Deep Learning-based Action Recognition using Skeleton Joints Mapping)

  • 타스님;백중환
    • 한국항행학회논문지
    • /
    • 제24권2호
    • /
    • pp.155-162
    • /
    • 2020
  • 최근 컴퓨터 비전과 딥러닝 기술의 발전으로 비디오 분석, 영상 감시, 인터렉티브 멀티미디어 및 인간 기계 상호작용 응용을 위해 인간 행동 인식에 관한 연구가 활발히 진행되고 있다. 많은 연구자에 의해 RGB 영상, 깊이 영상, 스켈레톤 및 관성 데이터를 사용하여 인간 행동 인식 및 분류를 위해 다양한 기술이 도입되었다. 그러나 스켈레톤 기반 행동 인식은 여전히 인간 기계 상호작용 분야에서 도전적인 연구 주제이다. 본 논문에서는 동적 이미지라 불리는 시공간 이미지를 생성하기 위해 동작의 종단간 스켈레톤 조인트 매핑 기법을 제안한다. 행동 클래스 간의 분류를 수행하기 위해 효율적인 심층 컨볼루션 신경망이 고안된다. 제안된 기법의 성능을 평가하기 위해 공개적으로 액세스 가능한 UTD-MHAD 스켈레톤 데이터 세트를 사용하였다. 실험 결과 제안된 시스템이 97.45 %의 높은 정확도로 기존 방법보다 성능이 우수함을 보였다.

온라인상(上)에서 의류제품(衣類製品)의 반품(返品) 경험(經驗)이 브랜드에 대(對)한 태도(態度)에 미치는 영향(影響) 연구(硏究) (A Study on the Effect of Returned Clothes Via On-line Sales on Their Brands)

  • 김연희;김일
    • 패션비즈니스
    • /
    • 제7권4호
    • /
    • pp.26-42
    • /
    • 2003
  • On-line clothes sale are on the increase, and the returns(for replacements or refunds) of the clothes are also increasing. Many studies on off-line consumers' complaints were made before, but few studies on the returns of clothes sold on-line have been made. From this viewpoint, this study was conducted to know what effect returns of clothes sold on-line have on their brands. Therefore, this study was first focused on the factors affecting complaint acts(return intention or return acts) such as lack of information and recognition of product, delivery errors and product defects concerning on-line sales, and second investigated the changes of buyers' attitude toward the brand following the their acts of returning the buyers, and third looked into the changes of on-line buyers' attitude toward the brand. The study is carried out by subdividing the objects of the study into return action(replacement, refundment) and purchasers who experienced return intention. Such experience is demonstratively analyzed to find how it has affected the attitude toward the brand. The study comes up with the following outcomes. First, the effect factor causing complaint action(return action, return intention) on-line is shown as the lack of the information and recognition of the product. Second, it is revealed that the effect factor causing complaint(return action, return intention) does not lie in an error in delivery or a defect of a product. Third, the positive response of a brand to a return action does not raise the repurchasing intention and positive attitude of purchasers who experienced returning a product, but lowers their private complaint action intention. Fourth, the repurchase intention of purchasers who experienced return intention for the brand is lowered, but their negative attitude and private complaint action intention is not raised.

동작 인식을 위한 교사-학생 구조 기반 CNN (Teacher-Student Architecture Based CNN for Action Recognition)

  • ;이효종
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권3호
    • /
    • pp.99-104
    • /
    • 2022
  • 대부분 첨단 동작 인식 컨볼루션 네트워크는 RGB 스트림과 광학 흐름 스트림, 양 스트림 아키텍처를 기반으로 하고 있다. RGB 프레임 스트림은 모양 특성을 나타내고 광학 흐름 스트림은 동작 특성을 해석한다. 그러나 광학 흐름은 계산 비용이 매우 높기 때문에 동작 인식 시간에 지연을 초래한다. 이에 양 스트림 네트워크와 교사-학생 아키텍처에서 영감을 받아 행동 인식을 위한 새로운 네트워크 디자인을 개발하였다. 제안 신경망은 두 개의 하위 네트워크로 구성되어있다. 즉, 교사 역할을 하는 광학 흐름 하위 네트워크와 학생 역할을 하는 RGB 프레임 하위 네트워크를 연결하였다. 훈련 단계에서 광학 흐름의 특징을 추출하고 교사 서브 네트워크를 훈련시킨 다음 그 특징을 학생 서브 네트워크를 훈련시키기 위한 기준선으로 지정하여 학생 서브 네트워크에 전송한다. 테스트 단계에서는 광학 흐름을 계산하지 않고 대기 시간이 줄어들도록 학생 네트워크만 사용한다. 제안 네트워크는 실험을 통하여 정확도 면에서 일반 이중 스트림 아키텍처에 비해 높은 정확도를 보여주는 것을 확인하였다.

확률적 정규 문법 추론법에 의한 사람 몸동작 인식 (Human Action Recognition by Inference of Stochastic Regular Grammars)

  • 조경은;조형제
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제7권3호
    • /
    • pp.248-259
    • /
    • 2001
  • 이 논문은 사람의 비언어적 행동을 자동적으로 분석하는 것을 목적으로 60 가지의 기본적인 사람의 윗몸 동작들을 인식하는 방법을 제안한다. 사람 몸동작을 인식하기 위한 방법으로 확률적 문법 추론법을 이용하였으며 모든 관절의 움직임 분석으로 임의의 동작을 인식하는 방법을 사용하였다. 시스템의 입력 데이타로 쓰여지는 각 관절의 실세계 3 차원 좌표들을 일정간격으로 양자화한 후, 각각 xy, zy, 평면에 투영하고, 이들을 다시 4방향 코딩하여 확률적 문법 추론법에 적합한 입력형식으로 변환한다. 또한 비언어적 행동 분석을 위한 사람의 동작 인식에는 손과 다른 부위와의 관계인 근접 정보가 동작 구분의 중요한 요소가 됨을 감안하여, 확률 문법 추론 방법을 확장하고, 일반적인 확률 문법 추론 방법과 비교하여 인식률이 향상됨을 실험결과를 통해 확인하였다.

  • PDF

목적성 행동 모방학습을 통한 의도 인식을 위한 거울뉴런 시스템 계산 모델 (Computational Model of a Mirror Neuron System for Intent Recognition through Imitative Learning of Objective-directed Action)

  • 고광은;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제20권6호
    • /
    • pp.606-611
    • /
    • 2014
  • The understanding of another's behavior is a fundamental cognitive ability for primates including humans. Recent neuro-physiological studies suggested that there is a direct matching algorithm from visual observation onto an individual's own motor repertories for interpreting cognitive ability. The mirror neurons are known as core regions and are handled as a functionality of intent recognition on the basis of imitative learning of an observed action which is acquired from visual-information of a goal-directed action. In this paper, we addressed previous works used to model the function and mechanisms of mirror neurons and proposed a computational model of a mirror neuron system which can be used in human-robot interaction environments. The major focus of the computation model is the reproduction of an individual's motor repertory with different embodiments. The model's aim is the design of a continuous process which combines sensory evidence, prior task knowledge and a goal-directed matching of action observation and execution. We also propose a biologically inspired plausible equation model.

일반화된 4차원 특징을 이용한 행동 방향 인식 (Recognizing the Direction of Action using Generalized 4D Features)

  • 김선정;김수완;최진영
    • 한국지능시스템학회논문지
    • /
    • 제24권5호
    • /
    • pp.518-528
    • /
    • 2014
  • 본 논문에서는 4차원 시공간 (4D-ST, [x,y,z,t]) 특징을 이용하여 행동 방향을 인식하는 방법을 제안한다. 이를 위해 4차원 시공간 특징점 (4D-STIPs, [x,y,z,t])을 제안하였고, 이는 여러 다른 뷰에서 촬영한 이미지들로부터 복원된 3차원 공간 (3D-S, [x,y,z]) 볼륨으로부터 계산된다. 3차원 공간정보를 갖고 있는 3D-S 볼륨과 4D-STIPs는 2차원 공간 (2D-S, [x,y]) 뷰로 사영을 하여 임의의 2D-S 뷰에서의 특징을 생성해 낼 수 있다. 이 때, 사영 방향을 결정 할 수 있으므로, 학습 시 방향에 대한 정보를 포함하여 행동 방향을 인식 할 수 있다. 행동 방향을 인식하는 과정은 두 단계로 나눌 수 있는데, 우선 어떤 행동인지를 인식하고 그 후, 방향 정보를 이용하여 최종적으로 행동 방향을 인식한다. 행동 인식과 방향 인식을 위해, 사영된 3D-S 볼륨과 4D-STIPs은 각각 움직이는 부분과 움직이지 않는 부분에 대한 정보를 담고 있는 motion history images (MHIs)와 non-motion history images (NMHIs)로 구성된다. 이러한 특징들은 행동 인식을 위해, 방향 정보에 상관없이 같은 행동이면 같은 클래스로 분류되어 support vector data description (SVDD) 분류기로 학습되고, support vector domain density description (SVDDD)을 이용하여 인식된다. 인식된 행동에서 최종적으로 방향을 인식하기 위해 각 행동을 방향 클래스로 분류하여 SVDD 분류기로 학습하고 SVDDD로 인식한다. 제안된 방법의 성능을 보이기 위해서 INRIA Xmas Motion Acquisition Sequences (IXMAS) 데이터셋에서 제공하는 3D-S 볼륨을 사용하여 학습을 하고, 행동 방향 인식 실험이 가능한 SNU 데이터셋을 구축하여 인식 실험을 하였다.

행동 인식을 위한 시공간 앙상블 기법 (Spatial-temporal Ensemble Method for Action Recognition)

  • 서민석;이상우;최동걸
    • 로봇학회논문지
    • /
    • 제15권4호
    • /
    • pp.385-391
    • /
    • 2020
  • As deep learning technology has been developed and applied to various fields, it is gradually changing from an existing single image based application to a video based application having a time base in order to recognize human behavior. However, unlike 2D CNN in a single image, 3D CNN in a video has a very high amount of computation and parameter increase due to the addition of a time axis, so improving accuracy in action recognition technology is more difficult than in a single image. To solve this problem, we investigate and analyze various techniques to improve performance in 3D CNN-based image recognition without additional training time and parameter increase. We propose a time base ensemble using the time axis that exists only in the videos and an ensemble in the input frame. We have achieved an accuracy improvement of up to 7.1% compared to the existing performance with a combination of techniques. It also revealed the trade-off relationship between computational and accuracy.

Improved Two-Phase Framework for Facial Emotion Recognition

  • Yoon, Hyunjin;Park, Sangwook;Lee, Yongkwi;Han, Mikyong;Jang, Jong-Hyun
    • ETRI Journal
    • /
    • 제37권6호
    • /
    • pp.1199-1210
    • /
    • 2015
  • Automatic emotion recognition based on facial cues, such as facial action units (AUs), has received huge attention in the last decade due to its wide variety of applications. Current computer-based automated two-phase facial emotion recognition procedures first detect AUs from input images and then infer target emotions from the detected AUs. However, more robust AU detection and AU-to-emotion mapping methods are required to deal with the error accumulation problem inherent in the multiphase scheme. Motivated by our key observation that a single AU detector does not perform equally well for all AUs, we propose a novel two-phase facial emotion recognition framework, where the presence of AUs is detected by group decisions of multiple AU detectors and a target emotion is inferred from the combined AU detection decisions. Our emotion recognition framework consists of three major components - multiple AU detection, AU detection fusion, and AU-to-emotion mapping. The experimental results on two real-world face databases demonstrate an improved performance over the previous two-phase method using a single AU detector in terms of both AU detection accuracy and correct emotion recognition rate.

프레임간 차를 기반으로 한 작업자의 동작인식 (Motion Recognition of Worker Based on Frame Difference)

  • 김형균;정기봉;오무송
    • 한국정보통신학회논문지
    • /
    • 제5권7호
    • /
    • pp.1280-1286
    • /
    • 2001
  • 본 연구에서는 작업자의 일정한 동작을 보다 효율적으로 인식할 수 있는 시스템을 제안하고자 한다. 먼저, 작업자의 동작을 촬영한 동영상에서 연속된 프레임간의 차를 기반으로, 고정된 배경과 움직이는 대상을 분리한다. 다음으로, 에지 검출을 이용하여 동작의 중심 위치를 추정하여 연속적으로 움직이는 동작을 인식할 수 있도록 하였다. 본 연구에서 설계한 동작 인식시스템은 기존의 산업헌장에서 적용되고 있는 동작인식 시스템의 문제점을 보완하기 위하여 작업자의 동작을 고정된 CCTV로 촬영한 영상을 인식의 대상으로 취함으로써 동작 정보를 얻기 위한 각종 장비들이 최소화되었다. 또한, 작업자의 신체 부분별 특성을 추출하기 위한 계산 작업에 소요되는 시간을 줄이기 위하여 프레임간의 차연산과 에지검출을 통한 동작인식을 실시하여 인식에 필요한 작업시간을 단축하여, 효율적이면서 비용이 저렴한 동작 인식시스템을 설계하였다.

  • PDF