• 제목/요약/키워드: 모션 템플릿

검색결과 16건 처리시간 0.026초

모션 그래디언트 히스토그램 기반의 시공간 크기 변화에 강인한 동작 인식 (Spatial-Temporal Scale-Invariant Human Action Recognition using Motion Gradient Histogram)

  • 김광수;김태형;곽수영;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제34권12호
    • /
    • pp.1075-1082
    • /
    • 2007
  • 본 논문은 동영상에 등장하는 다수 사람의 동작을 검출하여 검출된 동작을 개별적으로 인식하는 방법을 제안한다. 동작이 수행되는 속도 또는 크기 변화에 강인한 인식 성능을 갖기 위해 시공간축 피라미드(Spatial-Temporal Pyramid)방식을 적용한다. 동작 표현 방식을 통계적 특성 기반의 모션 그래디언트 히스토그램(MGH:Motion Gradient Histogram)으로 선택하여 인식 과정에서 발생하는 복잡도를 최소화 하였다. 다수의 동작을 검출하기 위하여 이진 차영상을 축적한 모션 에너지 이미지(MEI: Motion Energy Image) 방법을 적용하여 효율적으로 개별적 동작 영역을 획득한다. 각 영역은 동작 표현 방법인 MGH로 나타내어지고, 크기 변화에 강인하도록 피라미드 방식을 적응하여 학습된 템플릿 MGH와 유사도를 상호 비교하여 최종 인식 결과를 얻는다. 인식 성능의 평가를 위해 10개의 동영상을 활용하여 단일 객체, 다수 객체, 속도 및 크기 변화, 기존 방식과의 비교, 기타 추가 실험 등을 실시하여 다양한 조건의 영상에서 양호한 인식 결과를 확인 할 수 있었다.

얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션 (3D Facial Animation with Head Motion Estimation and Facial Expression Cloning)

  • 권오륜;전준철
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.311-320
    • /
    • 2007
  • 본 논문에서는 강건한 얼굴 포즈 추정과 실시간 표정제어가 가능한 비전 기반 3차원 얼굴 모델의 자동 표정 생성 방법 및 시스템을 제안한다. 기존의 비전 기반 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 반영하지 못하고 얼굴 표정 생성에 초점을 맞추고 있다. 그러나, 얼굴 포즈를 정확히 추정하여 반영하는 작업은 현실감 있는 얼굴 애니메이션을 위해서 중요한 이슈로 인식되고 있다. 본 연구 에서는 얼굴 포즈추정과 얼굴 표정제어가 동시에 가능한 통합 애니메이션 시스템을 제안 하였다. 제안된 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출은 비모수적 HT 컬러 모델과 템플릿 매칭을 통해 수행된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 얼굴 모션 추정을 위하여 3차원 실린더 모델을 검출된 얼굴 영역에 투영하고 광류(optical flow) 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 주요 얼굴 특징점을 검출하며 광류 알고리즘에 의하여 특징점을 추적한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수(parameters)를 계산한다. 결국 얼굴 표정 복제는 두 개의 정합과정을 통해 수행된다. 애니메이션 매개변수 3차원 얼굴 모델의 주요 특징점(제어점)의 이동은 획득된 애니메이션 매개변수를 적용하여 수행하며, 정점 주위의 부가적 정점의 위치는 RBF(Radial Basis Function) 보간법을 통해 변형한다. 실험결과 본 논문에서 제안된 비전기반 애니메이션 시스템은 비디오 영상으로부터 강건한 얼굴 포즈 추정과 얼굴의 표정변화를 잘 반영하여 현실감 있는 애니메이션을 생성함을 입증할 수 있었다.

다수의 네트워크 카메라를 이용한 협동 추적 (Collaborative Tracking Using Multiple Network Cameras)

  • 전형석;정준영;주영훈;신상근
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2011년도 제42회 하계학술대회
    • /
    • pp.1888-1889
    • /
    • 2011
  • 본 논문에서는 다수의 네트워크 카메라를 이용한 협동 추적 알고리즘을 제안하고자 한다. 이를 위해 먼저 모션 템플릿 기법을 통하여 영상내의 움직임 영역을 추출한다. 이후 움직임 영역이 추출되면 이웃한 카메라에 협동요청을 하고 칼만 필터를 이용하여 움직임 영역의 위치를 보정하여 정확한 PTZ변수를 설정한다. 또한 협동요청을 받은 이웃 카메라는 요청받은 PTZ변수를 이용하여 움직임 물체를 협동 추적한다. 마지막으로, 본 논문에서 제안하는 협동 추적 알고리즘에 대한 실험을 통하여 제안된 협동 추적 알고리즘의 성능분석 및 그 응용 가능성을 증명한다.

  • PDF

플래시를 이용한 안내용 로봇 콘텐츠 개발 (Content design for a guide robot using Flash)

  • 이영철;이민철;김기수;정구민;안현식;문찬우;정현철
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2008년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.359-360
    • /
    • 2008
  • 본 논문에서는 유진 로봇에서 제공되는 로봇 모션 command를 이용하여 플래시 툴의 타임라인을 기반으로 동작 가능한 안내용 로봇 콘텐츠의 제작방법을 제시한다. 유진 로봇에서 제공되는 로봇 command에서 안내용 콘텐츠의 필요한 명령어를 추출 하고 명령어 템플릿을 제작 한다. 플래시를 이용하여 콘텐츠 제작을 하고, 플래시의 타임라인에 유진 로봇에서 제공되는 command를 삽입한다. 시뮬레이터를 통하여 테스트하여 검증 한 뒤, 로봇에 직접 다운로드 하여 콘텐츠를 실행한다.

  • PDF

선착장 안전 모니터링을 위한 이동 객체 추적 시스템 (Moving Object Tracking System for Dock Safety Monitoring)

  • 박미정;홍성일;유승혁;김경옥;송종남;김응곤
    • 한국전자통신학회논문지
    • /
    • 제10권8호
    • /
    • pp.867-874
    • /
    • 2015
  • 어촌계를 중심으로 부두나 해안가에는 인양기가 설치되어 있다. 인양기는 어구 및 해산물의 하역작업에 사용되거나, 태풍이나 악천후에 어선을 방파제 또는 육상으로 인양하기 위한 장치이다. 본 논문에서 제안하는 선착장 안전 모니터링을 위한 이동 객체 추적 시스템은 이러한 기본 역할에 선착장에서 발생하는 선박의 파손, 도난 및 침입 탐지 등의 안전을 수행할 수 있는 영상 감지 및 이동 객체 추적을 위한 시스템이다. 모션템플릿을 활용하여 광역감시에서 움직임을 실시간으로 감지하고 이동하는 객체(사람, 선박 등)에 대해 PTZ 카메라를 이용하여 집중 감시하는 객체 추적 시스템이다.

모션 히스토리 영상 및 기울기 방향성 히스토그램과 적출 모델을 사용한 깊이 정보 기반의 연속적인 사람 행동 인식 시스템 (Depth-Based Recognition System for Continuous Human Action Using Motion History Image and Histogram of Oriented Gradient with Spotter Model)

  • 음혁민;이희진;윤창용
    • 한국지능시스템학회논문지
    • /
    • 제26권6호
    • /
    • pp.471-476
    • /
    • 2016
  • 본 논문은 깊이 정보를 기반으로 모션 히스토리 영상 및 기울기 방향성 히스토그램과 적출 모델을 사용하여 연속적인 사람 행동들을 인식하는 시스템을 설명하고 연속적인 행동 인식 시스템에서 인식 성능을 개선하기 위해 행동 적출을 수행하는 적출 모델을 제안한다. 본 시스템의 구성은 전처리 과정, 사람 행동 및 적출 모델링 그리고 연속적인 사람 행동 인식으로 이루어져 있다. 전처리 과정에서는 영상 분할과 시공간 템플릿 기반의 특징을 추출하기 위하여 Depth-MHI-HOG 방법을 사용하였으며, 추출된 특징들은 사람 행동 및 적출 모델링 과정을 통해 시퀀스들로 생성된다. 이 생성된 시퀀스들과 은닉 마르코프 모델을 사용하여 정의된 각각의 행동에 적합한 사람 행동 모델과 제안된 적출 모델을 생성한다. 연속적인 사람 행동 인식은 연속적인 행동 시퀀스에서 적출 모델에 의해 의미 있는 행동과 의미 없는 행동을 분할하는 행동 적출과 의미 있는 행동 시퀀스에 대한 모델의 확률 값들을 비교하여 연속적으로 사람 행동들을 인식한다. 실험 결과를 통해 제안된 모델이 연속적인 행동 인식 시스템에서 인식 성능을 효과적으로 개선하는 것을 검증한다.