• 제목/요약/키워드: 행동 방향 인식

검색결과 200건 처리시간 0.034초

실내 환경에서 시선 방향을 고려한 사람 행동 인식 (Human Behavior Recognition based on Gaze Direction In Office Environment)

  • 공병용;정도준;김항준
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.119-120
    • /
    • 2007
  • 본 논문에서는 실내의 고정된 단일 칼라 카메라에서 획득된 비디오 스트림으로부터 사람의 행동을 인식하기 위한 시스템을 제안한다. 제안된 시스템은 사람의 시공간적 상태 변화와 사람의 시선 방향을 이용하여 규칙기반으로 행동을 인식한다. 사람의 의미 있는 상태변화를 이벤트로, 이벤트의 시퀀스 즉, 사람의 행동을 시나리오로 정의하였다. 따라서 입력비디오 스트림에서 사람의 상태변화로 이벤트를 검출하고, 검출된 이벤트의 시퀀스로 사람의 행동을 인식한다. 사람의 시선은 얼굴과 머리 영역의 색정보를 이용한 시선 방향 추정 방법으로 찾아지며, 사람의 상태 변화는 사람의 위치와 키 등을 이용하여 검출된다. 본 시스템은 실내 환경에서 획득한 비디오에서 실험하였으며, 실험결과 시선 방향에 의해 서로 다른 행동을 구분하여 인식할 수 있었다.

  • PDF

일반화된 4차원 특징을 이용한 행동 방향 인식 (Recognizing the Direction of Action using Generalized 4D Features)

  • 김선정;김수완;최진영
    • 한국지능시스템학회논문지
    • /
    • 제24권5호
    • /
    • pp.518-528
    • /
    • 2014
  • 본 논문에서는 4차원 시공간 (4D-ST, [x,y,z,t]) 특징을 이용하여 행동 방향을 인식하는 방법을 제안한다. 이를 위해 4차원 시공간 특징점 (4D-STIPs, [x,y,z,t])을 제안하였고, 이는 여러 다른 뷰에서 촬영한 이미지들로부터 복원된 3차원 공간 (3D-S, [x,y,z]) 볼륨으로부터 계산된다. 3차원 공간정보를 갖고 있는 3D-S 볼륨과 4D-STIPs는 2차원 공간 (2D-S, [x,y]) 뷰로 사영을 하여 임의의 2D-S 뷰에서의 특징을 생성해 낼 수 있다. 이 때, 사영 방향을 결정 할 수 있으므로, 학습 시 방향에 대한 정보를 포함하여 행동 방향을 인식 할 수 있다. 행동 방향을 인식하는 과정은 두 단계로 나눌 수 있는데, 우선 어떤 행동인지를 인식하고 그 후, 방향 정보를 이용하여 최종적으로 행동 방향을 인식한다. 행동 인식과 방향 인식을 위해, 사영된 3D-S 볼륨과 4D-STIPs은 각각 움직이는 부분과 움직이지 않는 부분에 대한 정보를 담고 있는 motion history images (MHIs)와 non-motion history images (NMHIs)로 구성된다. 이러한 특징들은 행동 인식을 위해, 방향 정보에 상관없이 같은 행동이면 같은 클래스로 분류되어 support vector data description (SVDD) 분류기로 학습되고, support vector domain density description (SVDDD)을 이용하여 인식된다. 인식된 행동에서 최종적으로 방향을 인식하기 위해 각 행동을 방향 클래스로 분류하여 SVDD 분류기로 학습하고 SVDDD로 인식한다. 제안된 방법의 성능을 보이기 위해서 INRIA Xmas Motion Acquisition Sequences (IXMAS) 데이터셋에서 제공하는 3D-S 볼륨을 사용하여 학습을 하고, 행동 방향 인식 실험이 가능한 SNU 데이터셋을 구축하여 인식 실험을 하였다.

모델 기반의 시선 방향 추정을 이용한 사람 행동 인식 (Human Activity Recognition using Model-based Gaze Direction Estimation)

  • 정도준;윤정오
    • 한국산업정보학회논문지
    • /
    • 제16권4호
    • /
    • pp.9-18
    • /
    • 2011
  • 본 논문에서는 모델 기반으로 추정한 사람의 시선 방향을 이용하여 실내 환경에서 발생 할 수 있는 사람의 행동을 인식하는 방법을 제안한다. 제안하는 방법은 크게 두 단계로 구성된다. 첫째, 행동 인식을 위한 사전 정보를 얻는 단계로 사람의 머리 영역을 검출하고 시선 방향을 추정한다. 사람의 머리 영역은 색상 정보와 모양 정보를 이용하여 검출하고, 시선 방향은 머리와 얼굴의 관계를 표현한 베이지안 네트워크 모델을 이용하여 추정한다. 둘째, 이벤트와 사람의 행동을 나타내는 시나리오를 인식하는 단계이다. 이벤트는 사람의 상태 변화로 인식하고, 시나리오는 이벤트들의 조합과 제약 사항을 이용하여 규칙 기반으로 인식한다. 본 논문에서는 시선방향과 연관이 있는 4 가지의 시나리오를 정의하여 실험 한다. 실험을 통해 시선 방향 추정의 성능과 시선 방향이 고려된 상황에서의 행동 인식 성능을 보인다.

스마트폰 가속도 센서와 딥러닝 다중 레이어를 이용한 넘어짐 방향 판단 방법 (A Falling Direction Detection Method Using Smartphone Accelerometer and Deep Learning Multiple Layers)

  • 송특섭
    • 한국정보통신학회논문지
    • /
    • 제26권8호
    • /
    • pp.1165-1171
    • /
    • 2022
  • 가속도 센서를 이용한 인간의 행동인식은 다양한 분야에 적용되고 있다. 스마트폰의 보급이 일반화되면서 스마트폰에 내장된 가속도 센서를 이용한 인간의 행동인식 방법이 연구되고 있다. 노인의 경우 넘어지게 되면 심각한 부상으로 이어지는 경우가 많으며 공사 현장에서도 넘어짐은 중요한 사고원인 중 하나이다. 본 연구는 스마트폰에 내장된 가속도 센서와 방향 센서를 이용하여 사람의 넘어지는 방향에 대해 연구하였다. 기존에는, 인간의 행동을 인식하기 위해서 가속도벡터의 크기를 활용하는 것이 일반적인 방법이었다. 본 연구는 최근 많이 활용되고 있는 딥러닝 기법을 적용하여 인간의 넘어지는 방향을 인식하는 방법을 제안하였다.

모션 히스토리 영상 및 기울기 방향성 히스토그램과 적출 모델을 사용한 깊이 정보 기반의 연속적인 사람 행동 인식 시스템 (Depth-Based Recognition System for Continuous Human Action Using Motion History Image and Histogram of Oriented Gradient with Spotter Model)

  • 음혁민;이희진;윤창용
    • 한국지능시스템학회논문지
    • /
    • 제26권6호
    • /
    • pp.471-476
    • /
    • 2016
  • 본 논문은 깊이 정보를 기반으로 모션 히스토리 영상 및 기울기 방향성 히스토그램과 적출 모델을 사용하여 연속적인 사람 행동들을 인식하는 시스템을 설명하고 연속적인 행동 인식 시스템에서 인식 성능을 개선하기 위해 행동 적출을 수행하는 적출 모델을 제안한다. 본 시스템의 구성은 전처리 과정, 사람 행동 및 적출 모델링 그리고 연속적인 사람 행동 인식으로 이루어져 있다. 전처리 과정에서는 영상 분할과 시공간 템플릿 기반의 특징을 추출하기 위하여 Depth-MHI-HOG 방법을 사용하였으며, 추출된 특징들은 사람 행동 및 적출 모델링 과정을 통해 시퀀스들로 생성된다. 이 생성된 시퀀스들과 은닉 마르코프 모델을 사용하여 정의된 각각의 행동에 적합한 사람 행동 모델과 제안된 적출 모델을 생성한다. 연속적인 사람 행동 인식은 연속적인 행동 시퀀스에서 적출 모델에 의해 의미 있는 행동과 의미 없는 행동을 분할하는 행동 적출과 의미 있는 행동 시퀀스에 대한 모델의 확률 값들을 비교하여 연속적으로 사람 행동들을 인식한다. 실험 결과를 통해 제안된 모델이 연속적인 행동 인식 시스템에서 인식 성능을 효과적으로 개선하는 것을 검증한다.

의사결정나무를 이용한 생물의 행동 패턴 구분과 인식 (Classification and Recognition of Movement Behavior of Animal based on Decision Tree)

  • 이승태;김성신
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2005년도 추계학술대회 학술발표 논문집 제15권 제2호
    • /
    • pp.225-228
    • /
    • 2005
  • 본 논문에서는 생물의 2차원영상에서 4가지의 특징을 추출한 다음 약품에 대한 생물의 행동 패턴 반응에 대하여 의사결정나무를 적용하여 패턴의 인식 및 분류를 하였다. 생물의 행동패턴을 대변하는 물리적인 특징인 속도, 방향전환 각도, 이동거리에 대하여 각각 중간이상속도비율, FFT(Fast Fourier Transformation), 2차원 히스토그램 면적, 프렉탈, 무게중심을 사용하여 특징을 추출하였다. 이렇게 추출된 4가지의 특징변수들을 사용하여 의사결정나무 모델을 구성한 다음 생물의 약품 첨가에 대한 반응을 분석하였다. 또한 결과에서는 기존의 생물의 행동패턴 구분에 쓰였던 전형적인 기법(conventional methods)보다 본 연구에서 적용한 의사결정나무가 생물의 행동패턴이 가지는 물리적 요소에 대한 독해력을 가짐을 보임으로써 특정환경에서 이동행동에 대한 분석을 용이하게 하고자 하였다.

  • PDF

영상기반 행동패턴 인식에 의한 운전자 보조시스템 (Driver Assistance System By the Image Based Behavior Pattern Recognition)

  • 김상원;김중규
    • 전자공학회논문지
    • /
    • 제51권12호
    • /
    • pp.123-129
    • /
    • 2014
  • 복합 기능 기기의 발전에 따라 카메라는 방범 시스템, 운전자 보조 시스템 등 여러 분야에서 광범위하게 사용되고 있으며 많은 사람들은 이러한 시스템에 노출되어 있다. 따라서 시스템은 인간의 행동을 인식할 수 있고 인식된 행동으로부터 얻은 정보를 이용하여 유용한 기능을 사용자에게 제공할 수 있어야 한다. 본 논문은 이차원 영상 이미지에서 인식된 기계적 학습 접근 방법을 사용한 인간 행동 패턴 인식 기법을 제안한다. 제안된 방법은 인식된 사용자의 행동 패턴을 기반으로 사용자에게 유용한 기능을 실행하기 위한 정보를 제공하게 될 것이다. 먼저 소개하는 방법은 전화 통화 행동 인식이다. 차량 내부에 운전자 방향으로 설치된 블랙박스가 전화 통화 행동을 인식한다면 안전 운전을 위해서 운전자에게 경고를 줄 수 있다. 두 번째 제안하는 방법은 안전 운행을 위한 전방 주시 행동 인식으로서 운전자가 전방 주시하고 있는지 아닌지를 판단하기 위한 방법과 기준을 제안한다. 본 논문은 실시간 영상 조건에서 제안하는 인식 방법의 효용성을 실험 결과를 통해서 보여준다.

인체의 조인트와 움직임 정보를 이용한 인간의 행동패턴 인식 (Human Activity Pattern Recognition Using Motion Information and Joints of Human Body)

  • 곽내정;송특섭
    • 한국정보통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.1179-1186
    • /
    • 2012
  • 본 논문에서는 인체의 조인트와 조인트의 움직임 정보를 이용하여 인간의 행동을 인식하는 알고리즘을 제안한다. 제안방법은 입력되는 비디오에서 객체를 추출하고 인체의 비율정보를 이용하여 조인트를 자동추출하며 각 조인트에 블록매칭 기법을 적용하여 조인트의 움직임 정보를 얻는다. 제안방법은 움직임이 있는 조인트, 조인트의 움직임의 방향벡터와 조인트의 x와 y좌표의 증가(+)와 감소(-)를 부호로 나타낸 것을 행동 인식을 위한 기본 파라메터로 사용한다. 제안된 방법은 웹카메라에서 입력되는 영상에서 8가지 행동에 대해 실험하였으며 인간의 행동 인식률에 있어 좋은 결과를 보였다.

이미지 센서와 3축 가속도 센서를 이용한 인간 행동 인식 (Human Activity Recognition using an Image Sensor and a 3-axis Accelerometer Sensor)

  • 남윤영;최유주;조위덕
    • 인터넷정보학회논문지
    • /
    • 제11권1호
    • /
    • pp.129-141
    • /
    • 2010
  • 본 논문에서는 사람의 행동 모니터링을 위한 멀티 센서 기반의 웨어러블 지능형 디바이스를 제안한다. 다중 행동을 인식하기 위해, 이미지 센서와 가속도 센서를 이용하여 행동 인식 알고리즘을 개발하였다. 멀티 센서로부터 얻은 데이터를 분석하기 위해 그리드 기반 옵티컬 플로우 방법을 제안하고 SVM 분류기법을 이용하였다. 이미지 센서로부터 얻은 모션 벡터의 방향과 크기를 이용하였고, 3축 가속도 센서로부터 얻은 데이터에서 FFT의 축과 크기와의 상관관계를 계산하였다. 실험 결과에서 이미지 센서 기반과 3축 가속도 센서기반의 행동 인식률은 각각 55.57 %, 89.97%를 보였으나 제안한 멀티센서기반의 행동인식률은 92.78% 를 보였다.

프리미티브 패턴 나열의 확장에 의한 사람 몸 동작 패턴 분류기의 구현 (Implementation of a Human Body Motion Pattern Classifier using Extensions of Primitive Pattern Sequences)

  • 조경은;조형제
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2000년도 추계학술발표논문집
    • /
    • pp.475-478
    • /
    • 2000
  • 사람의 몸 동작을 인식해야하는 여러 응용분야에서의 필요성이 대두되면서 이 분야로의 연구가 활발해지고 있다. 이 논문은 사람의 비언어적 행동을 자동적으로 분석할 수 있는 인식기 개발에 관한 것으로 실세계 3 차원 좌표값을 입력으로 하는 사람 몸 동작 패턴 분류기의 구현방법을 소개한 것이다. 하나의 사람 몸 동작은 각 몸 구성 성분(손, 아래팔, 위팔, 어깨, 머리, 몸통 등)의 움직임을 조합해서 정의한 수가 있기 때문에 개별적인 각 몸 구성성분의 움직임을 인식하여 조합해서 임의의 동작을 판별하려는 방법을 적용한다. 사람 몸 동작 패턴 분류기는 측정된 실세계 3 차원 좌표 자료를 양자화한 후 xy, zy 평면에 투영한 값을 자자 구한다. 이 결과를 각각 8 방향 체인 코드로 바꾸고 2 단계 체인 코드 평활화 사업을 하여, 4 방향 코드 체적화 및 대표 코드로의 압축단계를 거친다. 이로서 생성된 프리미티브 패턴나열들을 동작 클래스별로 분류하여 프리미티브 패턴나열의 확장으로 각각의 식별기를 구축하여 각 몸 구성 성분별 동작들을 분류한다. 일련의 실험이 행해져 그 타당성을 확인하였으며, 차후에 이 분류기는 비언어적 행동 분석을 위한 사람 몸 동작 인식기의 전처리 단계로 사용되어진 것이다.

  • PDF