• Title/Summary/Keyword: 머리자세 추정

Search Result 17, Processing Time 0.032 seconds

Optimization Approach for Pose Determination of Human Head Using Multi Feature Points From an Uncalibreated Camera (다특징점 정보 및 최적화 기반 비조정 카메라 영상으로부터 머리 움직임 추정 방법)

  • Song, Min-Gyu;Kim, Jin-Young;Na, Seung-You
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2008.04a
    • /
    • pp.199-200
    • /
    • 2008
  • 머리의 자세 및 움직임 추적은 응시추적 및 시각운율 연구에서 필수적이다. 일반적으로 머리자세를 추정하는 방법은 보정된 카메라를 통해 추출된 얼굴의 특징점 정보를 이용한다. 그러나 실제 응용 분야에서는 보정되지 않은 카메라를 통한 머리 움직임을 추정해야 할 경우가 발생한다. 이에 따라 본 논문에서는 보정되지 않은 하나의 카메라를 이용, 단일특징점 정보를 이용한 머리 자세 추정 방법을 확장하여 최적화 기법을 도입한 다특징점 정보 기반 머리 자세 추정방법에 대하여 논하였다.

  • PDF

Head Pose Estimation Based on Perspective Projection Using PTZ Camera (원근투영법 기반의 PTZ 카메라를 이용한 머리자세 추정)

  • Kim, Jin Suh;Lee, Gyung Ju;Kim, Gye Young
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.7 no.7
    • /
    • pp.267-274
    • /
    • 2018
  • This paper describes a head pose estimation method using PTZ(Pan-Tilt-Zoom) camera. When the external parameters of a camera is changed by rotation and translation, the estimated face pose for the same head also varies. In this paper, we propose a new method to estimate the head pose independently on varying the parameters of PTZ camera. The proposed method consists of 3 steps: face detection, feature extraction, and pose estimation. For each step, we respectively use MCT(Modified Census Transform) feature, the facial regression tree method, and the POSIT(Pose from Orthography and Scaling with ITeration) algorithm. The existing POSIT algorithm does not consider the rotation of a camera, but this paper improves the POSIT based on perspective projection in order to estimate the head pose robustly even when the external parameters of a camera are changed. Through experiments, we confirmed that RMSE(Root Mean Square Error) of the proposed method improve $0.6^{\circ}$ less then the conventional method.

Detection of Pig's Posture for Top-View-Camera-based Pig's Weight Estimation (탑뷰 카메라 기반의 돼지 체중 추정을 위한 돼지 자세 결정)

  • Choi, Won-Seok;Ahn, Han-Se;Lee, Han-Hae-Sol;Chung, Yong-Wha;Park, Dai-Hee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.05a
    • /
    • pp.625-628
    • /
    • 2019
  • 양돈 업계에서 돼지의 무게는 생산성 측면에서 매우 중요한 요인 중 하나이다. 탑뷰 카메라를 통해 획득된 이미지에서 돼지의 무게를 추정할 때 오차가 적고 신뢰도 있는 결과를 보이기 위해, 오차의 주요 원인인 돼지의 머리를 제거하여야 한다. 우선, 돼지의 머리를 제거하기 위해서는 귀를 탐지하여야 한다. 그러나 돼지의 자세가 바르지 못한 경우 겹침으로 인해 돼지의 귀와 머리가 구분되지 않는 경우가 발생하고, 귀 탐지 과정에서 고려해야 할 변수가 많아지므로 연산량과 수행 시간이 증가한다. 따라서 돼지의 무게 추정을 위해서 돼지의 머리를 제거할 때 돼지의 자세 판정은 필수적이다. 본 논문에서는 돼지의 중점으로부터 돼지의 경계선을 연결한 선분의 길이를 비교하여 돼지의 자세를 빠르게 결정하였다. 이를 통해 자세가 바른 돼지의 머리를 제거하여 돼지의 무게를 측정하는 방법을 제안한다. 실험 결과, 7.8 ms의 수행 시간과 0.97 이상의 정확도로 돼지머리 제거를 위한 자세를 결정할 수 있음을 확인하였다.

Map Creation Algorithm and Initial Attitude Estimation Method for Optical Head Tracker System (광학방식 헤드 트랙커를 위한 맵 생성 알고리즘과 초기자세 추정기법)

  • Lee, Young-Jun;Park, Chan-Gook
    • Journal of the Korean Society for Aeronautical & Space Sciences
    • /
    • v.36 no.7
    • /
    • pp.680-687
    • /
    • 2008
  • This paper presents map creation algorithm and initial attitude estimation method for the proposed optical head tracker system. The optical head tracker system consists of the IR stereo cameras and infrared LEDs as features on the helmet. In order for the stereo camera to track the luminous LEDs, it must take in to account the light radiation from the LEDs to determine the position of the center points. The proposed map creation algorithm makes map data about the position of features center points on the helmet frame. Also, initial attitude estimation method is proposed to estimate the initial attitude and position of a pilot head from the camera frame by the use of the feature pattern on the helmet. Therefore, the head motion can be expressed with respect to the body frame of a flight.

Image Processing and Deep Learning Techniques for Fast Pig's Posture Determining and Head Removal (돼지의 빠른 자세 결정과 머리 제거를 위한 영상처리 및 딥러닝 기법)

  • Ahn, Hanse;Choi, Wonseok;Park, Sunhwa;Chung, Yongwha;Park, Daihee
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.8 no.11
    • /
    • pp.457-464
    • /
    • 2019
  • The weight of pig is one of the main factors in determining the health and growth state of pigs, their shipment, the breeding environment, and the ration of feed, and thus measuring the pig's weight is an important issue in productivity perspective. In order to estimate the pig's weight by using the number of pig's pixels from images, acquired from a Top-view camera, the posture determining and the head removal from images are necessary to measure the accurate number of pixels. In this research, we propose the fast and accurate method to determine the pig's posture by using a fast image processing technique, find the head location by using a fast deep learning technique, and remove pig's head by using light weighted image processing technique. First, we determine the pig's posture by comparing the length from the center of the pig's body to the outline of the pig in the binary image. Then, we train the location of pig's head, body, and hip in images using YOLO(one of the fast deep learning based object detector), and then we obtain the location of pig's head and remove an outside area of head by using head location. Finally, we find the boundary of head and body by using Convex-hull, and we remove pig's head. In the Experiment result, we confirmed that the pig's posture was determined with an accuracy of 0.98 and a processing speed of 250.00fps, and the pig's head was removed with an accuracy of 0.96 and a processing speed of 48.97fps.

LH-FAS v2: Head Pose Estimation-Based Lightweight Face Anti-Spoofing (LH-FAS v2: 머리 자세 추정 기반 경량 얼굴 위조 방지 기술)

  • Hyeon-Beom Heo;Hye-Ri Yang;Sung-Uk Jung;Kyung-Jae Lee
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.19 no.1
    • /
    • pp.309-316
    • /
    • 2024
  • Facial recognition technology is widely used in various fields but faces challenges due to its vulnerability to fraudulent activities such as photo spoofing. Extensive research has been conducted to overcome this challenge. Most of them, however, require the use of specialized equipment like multi-modal cameras or operation in high-performance environments. In this paper, we introduce LH-FAS v2 (: Lightweight Head-pose-based Face Anti-Spoofing v2), a system designed to operate on a commercial webcam without any specialized equipment, to address the issue of facial recognition spoofing. LH-FAS v2 utilizes FSA-Net for head pose estimation and ArcFace for facial recognition, effectively assessing changes in head pose and verifying facial identity. We developed the VD4PS dataset, incorporating photo spoofing scenarios to evaluate the model's performance. The experimental results show the model's balanced accuracy and speed, indicating that head pose estimation-based facial anti-spoofing technology can be effectively used to counteract photo spoofing.

A Gesture-based interface for interactive computer games (게임을 위한 제스처 기반의 인터페이스)

  • Park, Hye-Sun;Kang, Hyun;Jung, Kee-Chul;Kim, Eun-Yi;Park, Min-Ho;Kim, Hang-Joon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10b
    • /
    • pp.631-633
    • /
    • 2003
  • 본 논문에서는 사용자의 연속적인 제스처들을 실시간으로 제스처를 적출하고 인식하는 게임 인터페이스를 제안한다. 제안된 인터페이스는 동영상에서 사용자의 자세를 예측하는 포즈 추정 모듈과 연속된 포즈 심벌열로부터 제스처를 적출하고 인식하는 제스처 인식 모듈로 구성되어 있다. 사용자의 자세는 영상에 나타난 머리, 양손의 좌표를 취하여 대표되는 자세를 클러스터링을 통해 구하였다. 제스처를 적출하기 위해서 연속된 포즈 심벌열로부터 가제스처들을 생성한다. 생성된 가제스처의 인식엔진의 인식값을 기준으로하여 제스처를 판별한다. 제안된 논문에서 정의한 제스처를 인터페이스로 사용하여 실제 게임인 퀘이크II에 적용해 봄으로써, 컴퓨터 게임 안에서, 제안된 인터페이스가 타탕함을 증명하였다.

  • PDF

Facial Behavior Recognition for Driver's Fatigue Detection (운전자 피로 감지를 위한 얼굴 동작 인식)

  • Park, Ho-Sik;Bae, Cheol-Soo
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.35 no.9C
    • /
    • pp.756-760
    • /
    • 2010
  • This paper is proposed to an novel facial behavior recognition system for driver's fatigue detection. Facial behavior is shown in various facial feature such as head expression, head pose, gaze, wrinkles. But it is very difficult to clearly discriminate a certain behavior by the obtained facial feature. Because, the behavior of a person is complicated and the face representing behavior is vague in providing enough information. The proposed system for facial behavior recognition first performs detection facial feature such as eye tracking, facial feature tracking, furrow detection, head orientation estimation, head motion detection and indicates the obtained feature by AU of FACS. On the basis of the obtained AU, it infers probability each state occur through Bayesian network.

2D Human Pose Estimation Using Component-Based Density Propagation (구성요소 기반 확률 전파를 이용한 2D 사람 자세 추정)

  • Cha, Eun-Mi;Lee, Kyoung-Mi
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.725-730
    • /
    • 2007
  • 본 논문에서는 인체 추적에 필요한 인체의 각 부위들을 구성요소로 각각 검출하여 연결하는 인체 모델을 통해 각 구성요소를 개별적으로 추정하게 된다. 여기서 인체의 구성요소 중 동작 추적에 가장 필요한 6개 부위로 구성된 구성요소인 머리, 몸통, 왼팔, 오른팔, 왼발, 오른발 등을 검출하여 추적한 후, 각 구성요소의 중심값과 색상정보를 이용하여 이전 프레임과 현재 프레임 간에 연결성을 두여 각 구성요소를 개별적으로 확률 전파를 통해 추적되어지고, 각 구성요소의 추적 결과는 구성요소들의 추정 결과를 구성요소 기반 확률 전파를 이용하여 인체의 동작을 추정하는 방법을 제안한다. 입력 영상에서 피부색 등의 색상 정보를 이용하여 인체 부위 또는 인체 모델의 구성 요소들 각각의 중심값과 색상정보를 가지고 확률전파를 통해 이것이 어떤 동작인지 동작 추정이 가능하다. 본 논문에서 제안하는 인체 동작 추적 시스템은 유아의 동작교육에 이용되는 7가지 동작인 걷기, 뛰기, 앙감질, 구부리기, 뻗기, 균형 잡기, 회전하기 등에 적용하였다. 본 논문에서 제안한 인체 모델의 각 구성요소 부위들을 독립적으로 검출하여 평균 96%의 높은 인식률을 나타냈고, 앞서 적용한 7가지 동작에 대해서 실험한 결과 평균 88.5% 성공률을 획득함으로써 본 논문에서 제안한 방법의 타당성을 보였다.

  • PDF

Robust AAM-based Face Tracking with Occlusion Using SIFT Features (SIFT 특징을 이용하여 중첩상황에 강인한 AAM 기반 얼굴 추적)

  • Eom, Sung-Eun;Jang, Jun-Su
    • The KIPS Transactions:PartB
    • /
    • v.17B no.5
    • /
    • pp.355-362
    • /
    • 2010
  • Face tracking is to estimate the motion of a non-rigid face together with a rigid head in 3D, and plays important roles in higher levels such as face/facial expression/emotion recognition. In this paper, we propose an AAM-based face tracking algorithm. AAM has been widely used to segment and track deformable objects, but there are still many difficulties. Particularly, it often tends to diverge or converge into local minima when a target object is self-occluded, partially or completely occluded. To address this problem, we utilize the scale invariant feature transform (SIFT). SIFT is an effective method for self and partial occlusion because it is able to find correspondence between feature points under partial loss. And it enables an AAM to continue to track without re-initialization in complete occlusions thanks to the good performance of global matching. We also register and use the SIFT features extracted from multi-view face images during tracking to effectively track a face across large pose changes. Our proposed algorithm is validated by comparing other algorithms under the above 3 kinds of occlusions.