• Title/Summary/Keyword: 행동정확도

Search Result 175, Processing Time 0.033 seconds

Pet Behavior Detection through Sensor Data Synthesis (센서 데이터 합성을 통한 반려동물 행동 감지)

  • Kim, Hyungju;Park, Chan;Moon, Nammee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.606-608
    • /
    • 2022
  • 센서 데이터를 활용한 행동 감지 연구는 인간 행동 인식을 선행연구로 진행되었으며, 인식의 정확도를 높이기 위해 전처리, 보간, 증강 등을 통한 연구가 활발히 진행되고 있다. 이에 본 논문에서는 시계열 센서 데이터 증강을 통하여 반려동물의 행동 감지를 제안한다. ODROID 단일 보드 컴퓨터와 6축 센서(가속도, 자이로) 데이터를 탑재한 소형 디바이스를 사용하여 블루투스 통신을 통해 웹 서버 DB에 저장한다. 저장된 데이터는 이상치, 결측치 처리 후 정규화를 통해 시퀀스를 구성하는 전처리 과정을 거친다. 이후 GAN을 기반으로 한 시계열 데이터 증강을 진행한다. 이때, 데이터 증강은 입력된 텍스트에 따라 센서 데이터로 변환하여 데이터를 증강한다. 학습된 딥러닝 모델을 바탕으로 행동을 감지 후 평가 지표에 따라 모델 성능을 검증한다.

Group Action Recognition through Grid search and Transformer (Grid search와 Transformer를 통한 그룹 행동 인식)

  • Gi-Duk Kim;Geun-Hoo Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.513-515
    • /
    • 2023
  • 본 논문에서는 그리드 탐색과 트랜스포머를 사용한 그룹 행동 인식 모델을 제안한다. 추출된 여러 사람의 스켈레톤 정보를 차분 벡터, 변위 벡터, 관계 벡터로 변환하고 사람별로 묶어 이를 TimeDistributed 함수에 넣고 풀링을 한다. 이를 트랜스포머 모델의 입력으로 넣고 그룹 행동 인식 분류를 출력하였다. 논문에서 3가지 벡터를 입력으로 하여 합치고 트랜스포머 계층을 거친 모델과 3가지 벡터를 입력으로 하고 계층적으로 트랜스포머 모델을 거쳐 행동 인식 분류를 출력하는 두 가지 모델을 제안한다. 3가지 벡터를 합친 모델에서 클래스 분류 정확도는 CAD 데이터 세트 96.6%, Volleyball 데이터 세트 91.4%, 계층적 트랜스포머 모델은 CAD 데이터 세트 96.8%, Volleyball 데이터 세트 91.1%를 얻었다

  • PDF

Development of a Real-time Action Recognition-Based Child Behavior Analysis Service System (실시간 행동인식 기반 아동 행동분석 서비스 시스템 개발)

  • Chimin Oh;Seonwoo Kim;Jeongmin Park;Injang Jo;Jaein Kim;Chilwoo Lee
    • Smart Media Journal
    • /
    • v.13 no.2
    • /
    • pp.68-84
    • /
    • 2024
  • This paper describes the development of a system and algorithms for high-quality welfare services by recognizing behavior development indicators (activity, sociability, danger) in children aged 0 to 2 years old using action recognition technology. Action recognition targeted 11 behaviors from lying down in 0-year-olds to jumping in 2-year-olds, using data directly obtained from actual videos provided for research purposes by three nurseries in the Gwangju and Jeonnam regions. A dataset of 1,867 actions from 425 clip videos was built for these 11 behaviors, achieving an average recognition accuracy of 97.4%. Additionally, for real-world application, the Edge Video Analyzer (EVA), a behavior analysis device, was developed and implemented with a region-specific random frame selection-based PoseC3D algorithm, capable of recognizing actions in real-time for up to 30 people in four-channel videos. The developed system was installed in three nurseries, tested by ten childcare teachers over a month, and evaluated through surveys, resulting in a perceived accuracy of 91 points and a service satisfaction score of 94 points.

The Development of Gait Cycle Identification Algorithm (보행주기내의 발 뒷굽닿기와 발가락떼기 행동 판별 알고리즘 개발)

  • Yoo, Hyungjin;Choi, Sangil
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.375-378
    • /
    • 2021
  • 인간의 보행에는 다양한 분야에서 유용하게 사용할 수 있는 정보를 가지고 있어 의료분야와 수사기관에서 사용되고 있다. 보행 데이터로부터 유용한 정보를 얻어내기 위해 선행되어야 하는 작업은 보행주기를 판별하는 것이다. 본 연구에서는 보행주기 판별을 위하여 발 뒷굽 닿기와 발가락 떼기 행동을 가속도 값과 각속도 값을 사용하여 알아내고, 정확도를 분석하는 알고리즘에 대해 논한다.

Design and Implementation of a User Activity Auto-recognition System based on Multimodal Sensor in Ubiquitous Computing Environment (유비쿼터스 컴퓨팅환경에서의 Multimodal Sensor 기반의 Health care를 위한 사용자 행동 자동인식 시스템 - Multi-Sensor를 이용한 ADL(activities of daily living) 지수 자동 측정 시스템)

  • Byun, Sung-Ho;Jung, Yu-Suk;Kim, Tae-Su;Kim, Hyun-Woo;Lee, Seung-Hwan;Cho, We-Duke
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.21-26
    • /
    • 2009
  • A sensor system capable of automatically recognize activities would allow many potential Ubiquitous applications. This paper presents a new system for recognizing the activities of daily living(ADL) like walking, running, standing, sitting, lying etc. The system based on the state-dependent motion analysis using Tri-Accelerometer and Zigbee tag. Two accelerometers are used for the classification of body and hand activities. Classification of the environment and instrumental activities is performed based on the hand interaction with an object ID using.

  • PDF

High Rise Worker Behavior Monitoring using Deep Learning (딥러닝을 이용한 고소작업자 행동 모니터링)

  • Lee, Se-Hoon;Kim, Hyun-Woo;Yu, Jin-Hwan;Tak, Jin-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2018.07a
    • /
    • pp.25-26
    • /
    • 2018
  • 이 논문에서는 고소 작업자의 위험 행동 분석을 위해 딥러닝 기법 중 연속적인 데이터 분석에 적합하며 매우 뛰어난 성능을 보여주는 LSTM 알고리즘을 이용해 모니터링 하는 시스템을 개발하였다. 모델을 위해 학습 데이터는 안전벨트에 자이로센서 등을 부착해서 실험하였다. 시스템은 작업자의 5가지의 행동 패턴을 분석할 수 있으며, 96%의 정확도를 얻었다.

  • PDF

Human Action Recognition in Various Viewpoints with a Key-Pose Distribution (핵심-포즈 분포 기반 다중 시점에서의 휴먼 행동 인식)

  • Kim, Sun-Woo;Suk, Heung-Il;Lee, Seong-Whan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06c
    • /
    • pp.507-511
    • /
    • 2010
  • 휴먼 행동 인식은 크게 3D 모델 기반 방법과 템플릿 기반 방법으로 나눌 수 있다. 3D 모델 기반 방법은 휴먼의 포즈를 3D로 재구성한 뒤 특징을 추출하는 것으로 인식 정확도는 높으나 연산량이 많아 매우 비효율적이다. 반면 템플릿 기반의 방법은 간단하고 수행 시간이 빠르기 때문에 여러 논문들에서 채택되고 있다. 그러나 템플릿을 이용한다는 특성 때문에 시점, 행동 스타일의 변화 등에 따라 실루엣의 변화가 심해 인식 성능에 한계점을 가진다. 본 논문에서는 핵심-포즈들의 히스토그램으로 표현되는 핵심-포즈 분포와 광류의 변화를 이용하여 다중 시점에서의 휴먼 행동 인식 방법을 제안한다. 제안하는 방법은 IXMAS 데이터 셋을 이용한 실험에서 적은 수의 템플릿을 이용하면서도 평균 87.9%의 높은 인식률을 보였다.

  • PDF

Sign language translation using video captioning and sign language recognition using action recognition (비디오 캡셔닝을 적용한 수어 번역 및 행동 인식을 적용한 수어 인식)

  • Gi-Duk Kim;Geun-Hoo Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2024.01a
    • /
    • pp.317-319
    • /
    • 2024
  • 본 논문에서는 비디오 캡셔닝 알고리즘을 적용한 수어 번역 및 행동 인식 알고리즘을 적용한 수어 인식 알고리즘을 제안한다. 본 논문에 사용된 비디오 캡셔닝 알고리즘으로 40개의 연속된 입력 데이터 프레임을 CNN 네트워크를 통해 임베딩 하고 트랜스포머의 입력으로 하여 문장을 출력하였다. 행동 인식 알고리즘은 랜덤 샘플링을 하여 한 영상에 40개의 인덱스에서 40개의 연속된 데이터에 CNN 네트워크를 통해 임베딩하고 GRU, 트랜스포머를 결합한 RNN 모델을 통해 인식 결과를 출력하였다. 수어 번역에서 BLEU-4의 경우 7.85, CIDEr는 53.12를 얻었고 수어 인식으로 96.26%의 인식 정확도를 얻었다.

  • PDF

Eating Activity Detection and Meal Time Estimation Using Structure Features From 6-axis Inertial Sensor (6축 관성 센서에서 구조적 특징을 이용한 식사 행동 검출 및 식사 시간 추론)

  • Kim, Jun Ho;Choi, Sun-Tak;Ha, Jeong Ho;Cho, We-Duke
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.7 no.8
    • /
    • pp.211-218
    • /
    • 2018
  • In this study, we propose an algorithm to detect eating activity and estimation mealtime using 6-axis inertial sensor. The eating activity is classified into three types: food picking, food eating, and lowering. The feature points of the gyro signal are selected for each gesture, and the eating activity is detected when each feature point appears in the sequence. Morphology technique is used to post-process to detect meal time. The proposed algorithm achieves the accuracy of 94.3% and accuracy of 84.1%.

Ontology-based User Intention Recognition for Proactive Planning of Intelligent Robot Behavior (지능형로봇 행동의 능동적 계획수립을 위한 온톨로지 기반 사용자 의도인식)

  • Jeon, Ho-Cheol;Choi, Joong-Min
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.21 no.1
    • /
    • pp.86-99
    • /
    • 2011
  • Due to the uncertainty of intention recognition for behaviors of users, the intention is differently recognized according to the situation for the same behavior by the same user, the accuracy of user intention recognition by minimizing the uncertainty is able to be improved. This paper suggests a novel ontology-based method to recognize user intentions, and able to minimize the uncertainties that are the obstacles against the precise recognition of user intention. This approach creates ontology for user intention, makes a hierarchy and relationship among user intentions by using RuleML as well as Dynamic Bayesian Network, and improves the accuracy of user intention recognition by using the defined RuleML as well as the gathered sensor data such as temperature, humidity, vision, and auditory. To evaluate the performance of robot proactive planning mechanism, we developed a simulator, carried out some experiments to measure the accuracy of user intention recognition for all possible situations, and analyzed and detailed described the results. The result of our experiments represented relatively high level the accuracy of user intention recognition. On the other hand, the result of experiments tells us the fact that the actions including the uncertainty get in the way the precise user intention recognition.