• 제목/요약/키워드: Face Pose Estimation

검색결과 52건 처리시간 0.037초

방향성 2차원 타원형 필터를 이용한 스테레오 기반 포즈에 강인한 사람 검출 (Stereo-based Robust Human Detection on Pose Variation Using Multiple Oriented 2D Elliptical Filters)

  • 조상호;김태완;김대진
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권10호
    • /
    • pp.600-607
    • /
    • 2008
  • 이 논문은 방향성 2차원 타원형 필터(Multiple Oriented 2D Elliptical Filters;MO2DEFs)를 사용하여 스테레오 영상으로부터 포즈에 강인한 사람 검출을 제안한다. 기존의 물체 지향 크기 적응 필터(Object Oriented Scale Adaptive Filter;OOSAF)는 정면을 보고 있는 사람만을 검출하는 단점을 지니고 있는데 반해 제안한 방향성 2차원 타원형 필터는 사람의 크기나 포즈에 관계없이 사람을 검출하고 추적한다. 2D 공간-깊이 히스토그램에 특정 각도로 향하는 4개의 2차원 타원형 필터들을 적용하고, 필터링 된 히스토그램에서 임계값을 통해서 사람을 검출한 다음, MO2D2EFs 중 승적 결과가 가장 큰 2차원 타원형 필터의 방향을 사람의 방향으로 판단한다. 사람 후보들은 얼굴을 검출하거나 검출된 사람의 선택된 방향의 머리-어께 형태를 정합함으로서 검증한다. 실험 결과는 (1) 포즈 각도 예측의 정확도는 약 88%이고, (2) 제안한 MO2DEFs를 사용한 사람 검출의 성능이 OOSAF를 사용한 사람 검출의 성능보다 $15{\sim}20%$만큼 향상되었으며, 특히 정면이 아닌 사람의 경우에 더 향상이 있었다.

엣지 디바이스와 카메라 센서 퓨전을 활용한 사람 자세 데이터 자동 수집 시스템 (An Automatic Data Collection System for Human Pose using Edge Devices and Camera-Based Sensor Fusion)

  • 김영근;김승현;김정곤;김원중
    • 한국전자통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.189-196
    • /
    • 2024
  • 지능형 선별 관제 시스템의 잦은 오탐지로 인해 관제 요원들의 업무 능률 및 시장 신뢰도 저하 문제가 꾸준히 보고되고 있다. 오탐지 문제 개선을 위해 새 AI 모델을 개발하거나 교체하는 것은 기회비용이 크므로, 훈련 데이터 세트 품질을 향상하여 문제를 개선하는 것이 현실적이다. 그러나 소규모 조직은 데이터 세트 수집 및 정제 역량이 부족한 실정이다. 이에 본 논문에서는 사람 자세 추정 모델을 중심으로 엣지 디바이스와 카메라 센서 퓨전을 활용한 사람 자세 데이터 자동 수집 시스템을 제안한다. 이 시스템은 네트워크 말단에서 현장 데이터를 직접 수집하고 레이블링하는 과정을 실시간으로 처리하도록 만들어, 중앙으로 집중되는 연산 부하를 분산시킨다. 또한 현장 데이터를 직접 레이블링하므로 새로운 훈련 데이터 구축에 도움을 준다.

화자의 긍정·부정 의도를 전달하는 실용적 텔레프레즌스 로봇 시스템의 개발 (Development of a Cost-Effective Tele-Robot System Delivering Speaker's Affirmative and Negative Intentions)

  • 진용규;유수정;조혜경
    • 로봇학회논문지
    • /
    • 제10권3호
    • /
    • pp.171-177
    • /
    • 2015
  • A telerobot offers a more engaging and enjoyable interaction with people at a distance by communicating via audio, video, expressive gestures, body pose and proxemics. To provide its potential benefits at a reasonable cost, this paper presents a telepresence robot system for video communication which can deliver speaker's head motion through its display stanchion. Head gestures such as nodding and head-shaking can give crucial information during conversation. We also can assume a speaker's eye-gaze, which is known as one of the key non-verbal signals for interaction, from his/her head pose. In order to develop an efficient head tracking method, a 3D cylinder-like head model is employed and the Harris corner detector is combined with the Lucas-Kanade optical flow that is known to be suitable for extracting 3D motion information of the model. Especially, a skin color-based face detection algorithm is proposed to achieve robust performance upon variant directions while maintaining reasonable computational cost. The performance of the proposed head tracking algorithm is verified through the experiments using BU's standard data sets. A design of robot platform is also described as well as the design of supporting systems such as video transmission and robot control interfaces.

얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션 (3D Facial Animation with Head Motion Estimation and Facial Expression Cloning)

  • 권오륜;전준철
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.311-320
    • /
    • 2007
  • 본 논문에서는 강건한 얼굴 포즈 추정과 실시간 표정제어가 가능한 비전 기반 3차원 얼굴 모델의 자동 표정 생성 방법 및 시스템을 제안한다. 기존의 비전 기반 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 반영하지 못하고 얼굴 표정 생성에 초점을 맞추고 있다. 그러나, 얼굴 포즈를 정확히 추정하여 반영하는 작업은 현실감 있는 얼굴 애니메이션을 위해서 중요한 이슈로 인식되고 있다. 본 연구 에서는 얼굴 포즈추정과 얼굴 표정제어가 동시에 가능한 통합 애니메이션 시스템을 제안 하였다. 제안된 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출은 비모수적 HT 컬러 모델과 템플릿 매칭을 통해 수행된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 얼굴 모션 추정을 위하여 3차원 실린더 모델을 검출된 얼굴 영역에 투영하고 광류(optical flow) 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 주요 얼굴 특징점을 검출하며 광류 알고리즘에 의하여 특징점을 추적한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수(parameters)를 계산한다. 결국 얼굴 표정 복제는 두 개의 정합과정을 통해 수행된다. 애니메이션 매개변수 3차원 얼굴 모델의 주요 특징점(제어점)의 이동은 획득된 애니메이션 매개변수를 적용하여 수행하며, 정점 주위의 부가적 정점의 위치는 RBF(Radial Basis Function) 보간법을 통해 변형한다. 실험결과 본 논문에서 제안된 비전기반 애니메이션 시스템은 비디오 영상으로부터 강건한 얼굴 포즈 추정과 얼굴의 표정변화를 잘 반영하여 현실감 있는 애니메이션을 생성함을 입증할 수 있었다.

미디어 편집을 위한 인물 식별 및 검색 기법 (Character Recognition and Search for Media Editing)

  • 박용석;김현식
    • 방송공학회논문지
    • /
    • 제27권4호
    • /
    • pp.519-526
    • /
    • 2022
  • 동영상 콘텐츠 편집 시 등장인물을 구분하고 식별하는 작업은 많은 시간과 노력이 요구되는 작업이다. 노동 집약적 특성이 있는 미디어 편집 작업 시 인공지능 기술을 활용하면 미디어 제작 시간을 획기적으로 줄일 수 있어 창작과정의 효율성 향상에 도움을 줄 수 있다. 본 논문에서는 동영상 편집을 위한 인물 식별 및 검색 작업을 자동화하기 위해 다수의 인공지능 기술을 혼합하여 활용하는 기법을 제안한다. 객체 검출, 얼굴 검출, 자세 예측 기법을 사용하여 인물 객체에 대한 특징 정보를 수집하고, 수집된 정보를 바탕으로 얼굴 인식, 색 공간 분석 기법 등을 활용하여 인물 객체 식별 정보를 생성한다. 인물 특징 및 식별 정보는 편집 대상 영상의 각 프레임에 대해서 수집되며 영상 편집을 위한 프레임 단위 검색을 위한 메타데이터로 사용된다.

딥러닝 기반 영상처리 기법 및 표준 운동 프로그램을 활용한 비대면 온라인 홈트레이닝 어플리케이션 연구 (Non-face-to-face online home training application study using deep learning-based image processing technique and standard exercise program)

  • 신윤지;이현주;김준희;권다영;이선애;추윤진;박지혜;정자현;이형석;김준호
    • 문화기술의 융합
    • /
    • 제7권3호
    • /
    • pp.577-582
    • /
    • 2021
  • 최근 AR, VR 및 스마트 디바이스 기술의 발전에 따라 피트니스 산업에서도 비대면 환경을 기반으로 한 서비스 수요가 증가하고 있다. 비대면 온라인 홈트레이닝 서비스는 기존의 오프라인 서비스에 비해 시간과 장소의 제약이 없다는 장점이 있으나 운동 기구의 부재 및 사용자의 정확한 운동 자세 유지여부, 운동량의 측정이 어려운 단점이 존재한다. 본 연구에서는 이러한 단점을 보완할 수 있는 표준 운동 프로그램을 개발하고 딥러닝 기반 신체 자세 추정 영상처리를 통하여 새로운 비대면 홈트레이닝 어플리케이션 알고리즘을 제안한다. 본 연구의 알고리즘 기반 어플리케이션을 활용한다면 표준 운동 프로그램 영상의 트레이너를 사용자가 직접 보고 따라하면서 사용자 스스로 자세를 교정하며 정확한 운동이 가능하다. 나아가 본 연구의 알고리즘을 용도에 맞게 커스터마이징 한다면 공연, 영화, 동아리 활동, 컨퍼런스 분야로의 적용도 가능할 것이다.

다중 PCA모듈을 이용한 얼굴포즈 판별 (Multiple PCA Module Face Pose Estimation)

  • 고재필;김선욱;변혜란
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (2)
    • /
    • pp.431-433
    • /
    • 2000
  • 본 논문에서는 얼굴인식에 주로 사용되는 PCA를 얼굴포즈판별로 적용해 보았다. 얼굴포즈판별은 개개인의 얼굴특징을 강조해야 하는 얼굴인식과는 달리 일반적인 얼굴특징을 이용하기 때문에 PCA에 적합한 응용분야이다. 그러나, 다양한 얼굴포즈에 대한 영상을 하나의 표본집합으로 사용하면, 표본집합의 분산이 크기 때문에 포즈별로 표본집합을 달리하여 PCA모듈을 구성하는 것이 타당하다. 표본수집의 어려움은 3차원 한국인 표준모형을 이용해 극복하고, 이를 통하여 다양한 조명방향 및 얼굴포즈에 대한 표본을 수집하였다. 5방향의 얼굴포즈에 대한 판별 실험을 통하여 모율화된 PCA의 분류기로서의 가능성을 살펴보고, 조명에 따른 오류를 완하하고자 비 선형적 패턴을 나타내는 각 PCA모듈의 결과를 신경망에 적용하여 보았다.

  • PDF

운전자 피로 감지를 위한 얼굴 동작 인식 (Facial Behavior Recognition for Driver's Fatigue Detection)

  • 박호식;배철수
    • 한국통신학회논문지
    • /
    • 제35권9C호
    • /
    • pp.756-760
    • /
    • 2010
  • 본 논문에서는 운전자 피로 감지를 위한 얼굴 동작을 효과적으로 인식하는 방법을 제안하고자 한다. 얼굴 동작은 얼굴 표정, 얼굴 자세, 시선, 주름 같은 얼굴 특징으로 나타난다. 그러나 얼굴 특징으로 하나의 동작 상태를 뚜렷이 구분한다는 것은 대단히 어려운 문제이다. 왜냐하면 사람의 동작은 복합적이며 그 동작을 표현하는 얼굴은 충분한 정보를 제공하기에는 모호성을 갖기 때문이다. 제안된 얼굴 동작 인식 시스템은 먼저 적외선 카메라로 눈 검출, 머리 방향 추정, 머리 움직임 추정, 얼굴 추적과 주름 검출과 같은 얼굴 특징 등을 감지하고 획득한 특징을 FACS의 AU로 나타낸다. 획득한 AU를 근간으로 동적 베이지안 네트워크를 통하여 각 상태가 일어날 확률을 추론한다.

자율 주차 시스템을 위한 실시간 차량 추출 알고리즘 (A Real-time Vehicle Localization Algorithm for Autonomous Parking System)

  • 한종우;최영규
    • 반도체디스플레이기술학회지
    • /
    • 제10권2호
    • /
    • pp.31-38
    • /
    • 2011
  • This paper introduces a video based traffic monitoring system for detecting vehicles and obstacles on the road. To segment moving objects from image sequence, we adopt the background subtraction algorithm based on the local binary patterns (LBP). Recently, LBP based texture analysis techniques are becoming popular tools for various machine vision applications such as face recognition, object classification and so on. In this paper, we adopt an extension of LBP, called the Diagonal LBP (DLBP), to handle the background subtraction problem arise in vision-based autonomous parking systems. It reduces the code length of LBP by half and improves the computation complexity drastically. An edge based shadow removal and blob merging procedure are also applied to the foreground blobs, and a pose estimation technique is utilized for calculating the position and heading angle of the moving object precisely. Experimental results revealed that our system works well for real-time vehicle localization and tracking applications.

얼굴 위치와 방향 추적을 이용한 3차원 시각화 (3D Visualization using Face Position and Direction Tracking)

  • 김민하;김지현;김철기;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.173-175
    • /
    • 2011
  • 본 논문에서는 얼굴의 3차원 위치와 방향을 추적하여 3D 물체를 다각도에서 볼 수 있는 사용자 인터페이스를 제시한다. 구현된 사용자 인터페이스는 사용자가 상하좌우로 얼굴을 움직였을 때, 얼굴의 3차원 위치 좌표를 이용하여 사용자가 움직이는 방향으로 물체를 이동시킨다. 그 뒤 사용자가 상하(pitch)좌우(yaw)로 얼굴을 회전시켰을 때, 얼굴의 Euler angle값을 이용하여 얼굴의 회전각만큼 물체를 회전시켜 물체의 측면을 제공한다. 다양한 위치와 방향에 사용자가 있을 때 물체의 움직임의 정확성과 반응성을 실험한 결과 시각화가 잘 됨을 확인하였다.

  • PDF