• Title/Summary/Keyword: Human action recognition

Search Result 154, Processing Time 0.03 seconds

Egocentric Vision for Human Activity Recognition Using Deep Learning

  • Malika Douache;Badra Nawal Benmoussat
    • Journal of Information Processing Systems
    • /
    • 제19권6호
    • /
    • pp.730-744
    • /
    • 2023
  • The topic of this paper is the recognition of human activities using egocentric vision, particularly captured by body-worn cameras, which could be helpful for video surveillance, automatic search and video indexing. This being the case, it could also be helpful in assistance to elderly and frail persons for revolutionizing and improving their lives. The process throws up the task of human activities recognition remaining problematic, because of the important variations, where it is realized through the use of an external device, similar to a robot, as a personal assistant. The inferred information is used both online to assist the person, and offline to support the personal assistant. With our proposed method being robust against the various factors of variability problem in action executions, the major purpose of this paper is to perform an efficient and simple recognition method from egocentric camera data only using convolutional neural network and deep learning. In terms of accuracy improvement, simulation results outperform the current state of the art by a significant margin of 61% when using egocentric camera data only, more than 44% when using egocentric camera and several stationary cameras data and more than 12% when using both inertial measurement unit (IMU) and egocentric camera data.

실내 가상 경기를 위한 햅틱 AR 스포츠 기술 (Haptic AR Sports Technologies for Indoor Virtual Matches)

  • 김종성;장시환;양성일;윤민성
    • 전자통신동향분석
    • /
    • 제36권4호
    • /
    • pp.92-102
    • /
    • 2021
  • Outdoor sports activities have been restricted by serious air pollution, such as fine dust and yellow dust, and abnormal meteorological change, such as heatwave and heavy snow. These environmental problems have rapidly increased the demand for indoor sports activities. Virtual sports, such as virtual golf, virtual baseball, virtual soccer, etc., allow playing various sports games without going outdoors. Indoor sports industries and markets have seen rapid growth since the advent of virtual sports. Most virtual sports platforms use screen-based virtual reality techniques, which are why they are called screen sports. However, these platforms cannot support various sports games, especially virtual match games, such as squash, boxing, and so on, because existing screen-based virtual reality sports techniques use real balls and players. This article presents screen-based haptic-augmented reality technologies for a new virtual sports platform. The new platform does not use real balls and players to solve the limitations of previous platforms. Here, various technologies, including human motion tracking, human action recognition, haptic feedback, screen-based augmented-reality systems, and augmented-reality sports content, are unified for the new virtual sports platform. From these haptic-augmented reality technologies, the proposed platform supports sports games, including indoor virtual matches, that existing virtual sports platforms cannot support.

Mirror Neuron System 계산 모델을 이용한 모방학습 기반 인간-로봇 인터페이스에 관한 연구 (A Study on Human-Robot Interface based on Imitative Learning using Computational Model of Mirror Neuron System)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제23권6호
    • /
    • pp.565-570
    • /
    • 2013
  • 영장류 대뇌 피질 영역 중 거울 뉴런들이 분포한 것으로 추정되는 몇몇 영역은 목적성 행위에 대한 시각 정보를 기반으로 모방학습을 수행함으로써 관측 행동의 의도 인식 기능을 담당한다고 알려졌다. 본 논문은 이러한 거울 뉴런 영역을 모델링 하여 인간-로봇 상호작용 시스템에 적용함으로써, 자동화 된 의도인식 시스템을 개발하고자 한다. 거울 뉴런 시스템 계산 모델은 동적 신경망을 기반으로 구축하였으며, 모델의 입력은 객체와 행위자 동작에 대한 연속된 특징 벡터 집합이고 모델의 모방학습 및 추론과정을 통해 관측자가 수행할 수 있는 움직임 정보를 출력한다. 이를 위해 제한된 실험 공간 내에서 특정 객체와 그에 대한 행위자의 목적성 행동, 즉 의도에 대한 시나리오를 전제로 키넥트 센서를 통해 모델 입력 데이터를 수집하고 가상 로봇 시뮬레이션 환경에서 대응하는 움직임 정보를 계산하여 동작을 수행하는 프레임워크를 개발하였다.

적응적 딥러닝 학습 기반 영상 인식 (Image Recognition based on Adaptive Deep Learning)

  • 김진우;이필규
    • 한국인터넷방송통신학회논문지
    • /
    • 제18권1호
    • /
    • pp.113-117
    • /
    • 2018
  • 사람의 감정은 다양한 요소에 의해서 드러난다. 말, 행동, 표정, 옷차림 등등. 하지만 사람은 자신의 감정을 숨길 줄 안다. 따라서 어느 한 가지만으로는 쉽게 그 감성을 짐작할 수 없다. 우리는 이러한 문제를 해결하고 보다 진솔한 사람의 감성을 파악하기 위해 행동과 표정에 주의를 기울이기로 하였다. 행동과 표정은 부단한 노력과 훈련이 없으면 쉽게 감출 수 없기 때문이다. 본 논문에서는 딥러닝 방법을 통해 적은 데이터를 가지고 점진적으로 사람의 행동과 표정을 학습하여 두 가지 결과의 조합을 통해 사람의 감성을 추측하는 알고리즘을 제안한다. 이 알고리즘을 통해 우리는 보다 종합적으로 사람의 감성을 파악할 수 있다.

RECOGNITION ALGORITHM OF DRIED OAK MUSHROOM GRADINGS USING GRAY LEVEL IMAGES

  • Lee, C.H.;Hwang, H.
    • 한국농업기계학회:학술대회논문집
    • /
    • 한국농업기계학회 1996년도 International Conference on Agricultural Machinery Engineering Proceedings
    • /
    • pp.773-779
    • /
    • 1996
  • Dried oak mushroom have complex and various visual features. Grading and sorting of dried oak mushrooms has been done by the human expert. Though actions involved in human grading looked simple, a decision making underneath the simple action comes from the result of the complex neural processing of the visual image. Through processing details involved in human visual recognition has not been fully investigated yet, it might say human can recognize objects via one of three ways such as extracting specific features or just image itself without extracting those features or in a combined manner. In most cases, extracting some special quantitative features from the camera image requires complex algorithms and processing of the gray level image requires the heavy computing load. This fact can be worse especially in dealing with nonuniform, irregular and fuzzy shaped agricultural products, resulting in poor performance because of the sensitiveness to the crisp criteria or specific ules set up by algorithms. Also restriction of the real time processing often forces to use binary segmentation but in that case some important information of the object can be lost. In this paper, the neuro net based real time recognition algorithm was proposed without extracting any visual feature but using only the directly captured raw gray images. Specially formated adaptable size of grids was proposed for the network input. The compensation of illumination was also done to accomodate the variable lighting environment. The proposed grading scheme showed very successful results.

  • PDF

Binary Hashing CNN Features for Action Recognition

  • Li, Weisheng;Feng, Chen;Xiao, Bin;Chen, Yanquan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권9호
    • /
    • pp.4412-4428
    • /
    • 2018
  • The purpose of this work is to solve the problem of representing an entire video using Convolutional Neural Network (CNN) features for human action recognition. Recently, due to insufficient GPU memory, it has been difficult to take the whole video as the input of the CNN for end-to-end learning. A typical method is to use sampled video frames as inputs and corresponding labels as supervision. One major issue of this popular approach is that the local samples may not contain the information indicated by the global labels and sufficient motion information. To address this issue, we propose a binary hashing method to enhance the local feature extractors. First, we extract the local features and aggregate them into global features using maximum/minimum pooling. Second, we use the binary hashing method to capture the motion features. Finally, we concatenate the hashing features with global features using different normalization methods to train the classifier. Experimental results on the JHMDB and MPII-Cooking datasets show that, for these new local features, binary hashing mapping on the sparsely sampled features led to significant performance improvements.

Recognition of Occupants' Cold Discomfort-Related Actions for Energy-Efficient Buildings

  • Song, Kwonsik;Kang, Kyubyung;Min, Byung-Cheol
    • 국제학술발표논문집
    • /
    • The 9th International Conference on Construction Engineering and Project Management
    • /
    • pp.426-432
    • /
    • 2022
  • HVAC systems play a critical role in reducing energy consumption in buildings. Integrating occupants' thermal comfort evaluation into HVAC control strategies is believed to reduce building energy consumption while minimizing their thermal discomfort. Advanced technologies, such as visual sensors and deep learning, enable the recognition of occupants' discomfort-related actions, thus making it possible to estimate their thermal discomfort. Unfortunately, it remains unclear how accurate a deep learning-based classifier is to recognize occupants' discomfort-related actions in a working environment. Therefore, this research evaluates the classification performance of occupants' discomfort-related actions while sitting at a computer desk. To achieve this objective, this study collected RGB video data on nine college students' cold discomfort-related actions and then trained a deep learning-based classifier using the collected data. The classification results are threefold. First, the trained classifier has an average accuracy of 93.9% for classifying six cold discomfort-related actions. Second, each discomfort-related action is recognized with more than 85% accuracy. Third, classification errors are mostly observed among similar discomfort-related actions. These results indicate that using human action data will enable facility managers to estimate occupants' thermal discomfort and, in turn, adjust the operational settings of HVAC systems to improve the energy efficiency of buildings in conjunction with their thermal comfort levels.

  • PDF

에이전트 행동에 기반한 의도 인식 컴퓨팅 (Agent's Activities based Intention Recognition Computing)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제13권2호
    • /
    • pp.87-98
    • /
    • 2012
  • 에이전트의 의도를 인식하는 것은 사물지능형 컴퓨팅에서 인간컴퓨터 상호작용의 주요 부분이다. 컴퓨팅 시스템에서 인식 대상의 의도를 정확하게 유추하면 다수의 에이전트간의 협력 상황 이해와 특정 행동이 취해질 때의 상황 파악이 쉽기 때문이다. 본 연구는 다른 이의 행동을 해석하고 행동의 근거가 되는 의도와 목적을 추론하는 인간의 기제를 바탕으로, 컴퓨팅 시스템이 행동을 인식하여 습득한 사전 경험 데이터를 이용, 대상의 의도를 빠르게 인식하는 방법을 제안한다. 의도 인식을 수행하기 위해 제안 방법은 에이전트의 목적에 따른 행동 변화를 검출하고 시스템이 사전에 학습한 행동 정보를 모델링하기 위해 특정 형태의 행동 은닉마코프 형식을 이용한다. 에이전트의 의도를 추론하는 데 관점을 다양하게 취함으로써 시스템이 에이전트의 행동이 끝나기 전에 미리 의도를 추론하도록 한다. 의도 인식의 정확도, 조기 검출률과 정확 지속률에 대한 실험으로 여러 가지 행동을 취하는 에이전트의 의도 검출 결과를 정량적으로 제시함으로써 제안 연구가 효과적인 의도 인식 시스템 구현에 기여함을 보여준다.

비지도 학습을 이용한 생체 모방 동작 인지 기반의 동작 순서 인식 (Bio-mimetic Recognition of Action Sequence using Unsupervised Learning)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제15권4호
    • /
    • pp.9-20
    • /
    • 2014
  • 대상의 동작을 잘 예측하는 것은 사회적 상호작용과 의사결정 컨텍스트 이해의 핵심이다. 본 연구는 동작 인식 과정에서 인간 뇌 시각인지 과정을 모방한 방법으로 관절 동작의 동작 순서 패턴을 학습하는 컴퓨팅 모델을 제안하였다. 제안 방법의 핵심은 뇌에서 동작 인지 자극을 처리하는 신경생리학적 IT, MT, STS의 피질 기능과 특정 시각 신경 회로 네트워크 기능을 모방하여 비지도 방법으로 동작 순서를 학습한 후 동작을 예측, 인식하는 것이다. 실험을 통해 제안 모델이 어떻게 연속적으로 입력되는 비디오에서 의미있는 동작 스냅샷 뿐 아니라 중요한 동작 패턴을 자동으로 선택하는 지를 제시하였다. 이 핵심 움직임은 학습 네트워크가 정적 시점에서 정지 영상에 함축된 동작을 인식하는지를 증명하는데 이용하는 관절 자세이다. 또한 STS 피질 영역에서 어떻게 정지와 움직임 입력을 통합하는지를 모방하여 학습하고, 학습한 피드백 연결이 차후 동작의 입력 순서를 어떻게 예측하는지를 제시하였다. 네트워크 시뮬레이션을 통해 동작 인식에 대한 제안 모델의 우수성을 입증하였다.

가속도 센서 데이터 기반의 행동 인식 모델 성능 향상 기법 (Improving Performance of Human Action Recognition on Accelerometer Data)

  • 남정우;김진헌
    • 전기전자학회논문지
    • /
    • 제24권2호
    • /
    • pp.523-528
    • /
    • 2020
  • 스마트 모바일 장치의 확산은 인간의 일상 행동 분석을 보다 일반적이고 간단하게 만들었다. 행동 분석은 이미 본인 인증, 감시, 건강 관리 등 많은 분야에서 사용 중이고 그 유용성이 증명되었다. 본 논문에서는 스마트폰의 가속도 센서 신호를 사용하여 효율적이고 정확하게 행동 인식을 수행하는 합성곱 신경망(모델 A)과 순환 신경망까지 적용한(모델 B) 심층 신경망 모델을 제시한다. 모델 A는 batch normalization과 같은 단순한 기법만 적용해도 이전의 결과보다 더 작은 모델로 더 높은 성능을 달성할 수 있다는 것을 보인다. 모델 B는 시계열 데이터 모델링에 주로 사용되는 LSTM 레이어를 추가하여 예측 정확도를 더욱 높일 수 있음을 보인다. 이 모델은 29명의 피실험자를 대상으로 수집한 벤치마크 데이트 세트에서 종합 예측 정확도 97.16%(모델 A), 99.50%(모델 B)를 달성했다.