• 제목/요약/키워드: pose recognition

검색결과 278건 처리시간 0.023초

통합된 시스템에서의 얼굴검출과 인식기법 (An Integrated Face Detection and Recognition System)

  • 박동희;배철수
    • 한국정보통신학회논문지
    • /
    • 제7권6호
    • /
    • pp.1312-1317
    • /
    • 2003
  • 본 논문에서는 임의의 장면에도 얼굴 인식에 영향을 받지 않는 통합된 얼굴 인식 방법을 제안한다. 크기 정규화는 피부 색 분할과 log-polar 매핑 절차의 새로운 조합을 통하여 얻어지고, 주요 얼굴 구성 요소 분석은 자세 변화들을 처리하기 위하여 제안된 멀티 뷰 접근을 통해 이루어진다. 주어진 컬러 입력 이미지로부터 검출기는 얼굴을 원형 경계 안에 둘러싸고 코의 위치를 표시하며 다음 인식을 위해, 원형 경계 내에 배치하는 방사형 격자는 특징 벡터 코 중심에 두었다. 컬러로 분할된 영역의 폭으로서 얼굴의 크기를 평가하고, 추출된 특정 벡터는 평가된 크기에 의하여 정규화 된 크기이다. 특징 벡터는 얼굴 인식을 위해 훈련된 신경망 분류자에게 입력된다. 시스템은 서로 다른 복합적인 배경에서 다양한 크기와 자세를 가진 20 명의 얼굴 데이터 베이스를 사용하여 실험한 결과 얼굴 인식기의 수행능력은 매우 작은 크기의 얼굴 이미지 외에는 87%에서 92%의 평균 인식율을 얻을 수 있었다.

얼굴의 포즈 상태와 오토마타 기법을 이용한 헤드 제스처 인식 (Head Gesture Recognition using Facial Pose States and Automata Technique)

  • 오승택;전병환
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제28권12호
    • /
    • pp.947-954
    • /
    • 2001
  • 본 논문에서는 인식된 얼굴의 포즈 상태 열에 오토마타 기법을 적용하여 다양한 헤드 제스처 를 인식하는 방법을 제안한다. 얼굴 영역의 추출에는 Yl7외 I성분인 최적의 얼굴색 정보와 적응적인 차영상 정보를 이용하며. 눈 영역 추출에는 소벨 연산자와 투영 기법. 그리고 눈의 기하학적 위치 정보를 이용 한다 얼굴의 상태 인식에는 계층적인 특징분석 방법을 사용하며, 인식된 얼굴 상태 열에 오토마타 기법을 적용하여 13가지 제스처; 준비, 상측, 하측, 좌측, 우측, 전진, 후퇴, 좌 윙크, 우 윙크, 좌 더블 윙크 우 더블 윙크, 긍정, 부정제스처를 인식한다. 총 8명으로부터 1,488 프레임의 영상을 취득하여 실험한 결과, 99.3%의 얼굴 영역 추출률 95.3%, 의 눈 영역 추출률, 94.1% 의 얼굴 상태 인식률. 그리고 93.3%의 헤드제 스처 인식률을 얻었다

  • PDF

Affine Category Shape Model을 이용한 형태 기반 범주 물체 인식 기법 (A New Shape-Based Object Category Recognition Technique using Affine Category Shape Model)

  • 김동환;최유경;박성기
    • 로봇학회논문지
    • /
    • 제4권3호
    • /
    • pp.185-191
    • /
    • 2009
  • This paper presents a new shape-based algorithm using affine category shape model for object category recognition and model learning. Affine category shape model is a graph of interconnected nodes whose geometric interactions are modeled using pairwise potentials. In its learning phase, it can efficiently handle large pose variations of objects in training images by estimating 2-D homography transformation between the model and the training images. Since the pairwise potentials are defined on only relative geometric relationship betweenfeatures, the proposed matching algorithm is translation and in-plane rotation invariant and robust to affine transformation. We apply spectral matching algorithm to find feature correspondences, which are then used as initial correspondences for RANSAC algorithm. The 2-D homography transformation and the inlier correspondences which are consistent with this estimate can be efficiently estimated through RANSAC, and new correspondences also can be detected by using the estimated 2-D homography transformation. Experimental results on object category database show that the proposed algorithm is robust to pose variation of objects and provides good recognition performance.

  • PDF

딥러닝 자세 추정 모델을 이용한 지하공동구 다중 작업자 낙상 검출 모델 비교 (Comparison of Deep Learning Based Pose Detection Models to Detect Fall of Workers in Underground Utility Tunnels)

  • 김정수
    • 한국재난정보학회 논문집
    • /
    • 제20권2호
    • /
    • pp.302-314
    • /
    • 2024
  • 연구목적: 본 연구는 지하공동구 내 다수 작업자의 낙상을 자동으로 판별하기 위한 Top-down 방식의 딥러닝 자세 추정 모델 기반 낙상 검출 모델을 제안하고, 제안 모델의 성능을 평가한다. 연구방법: Top-down 방식의 자세 추정모델 중 하나인 YOLOv8-pose로부터 추론된 결과와 낙상 판별 규칙을 결합한 모델을 제시하고, 지하공동구 내 2인 이하 작업자가 출현한 기립 및 낙상 이미지에 대해 모델 성능지표를 평가하였다. 또한 동일한 방법으로 Bottom-up 방식 자세추정모델(OpenPose)을 적용한 결과를 함께 분석하였다. 두 모델의 낙상 검출 결과는 각 딥러닝 모델의 작업자 인식 성능에 의존적이므로, 작업자 쓰러짐과 함께 작업자 존재 여부에 대한 성능지표도 함께 조사하였다. 연구결과: YOLOv8-pose와 OpenPose의 모델의 작업자 인식 성능은 F1-score 기준으로 각각 0.88, 0.71로 두 모델이 유사한 수준이었으나, 낙상 규칙을 적용함에 따라 0.71, 0.23로 저하되었다. 작업자의 신체 일부만 검출되거나 작업자간 구분을 실패하여, OpenPose 기반 낙상 추론 모델의 성능 저하를 야기한 것으로 분석된다. 결론: Top-down 방식의 딥러닝 자세 추정 모델을 사용하는 것이 신체 관절점 인식 및 개별 작업자 구분 측면에서 지하공동구 내 작업자 낙상 검출에 효과적이라 판단된다.

NATURAL INTERACTION WITH VIRTUAL PET ON YOUR PALM

  • Choi, Jun-Yeong;Han, Jae-Hyek;Seo, Byung-Kuk;Park, Han-Hoon;Park, Jong-Il
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.341-345
    • /
    • 2009
  • We present an augmented reality (AR) application for cell phone where users put a virtual pet on their palms and play/interact with the pet by moving their hands and fingers naturally. The application is fundamentally based on hand/palm pose recognition and finger motion estimation, which is the main concern in this paper. We propose a fast and efficient hand/palm pose recognition method which uses natural features (e.g. direction, width, contour shape of hand region) extracted from a hand image with prior knowledge for hand shape or geometry (e.g. its approximated shape when a palm is open, length ratio between palm width and pal height). We also propose a natural interaction method which recognizes natural motion of fingers such as opening/closing palm based on fingertip tracking. Based on the proposed methods, we developed and tested the AR application on an ultra-mobile PC (UMPC).

  • PDF

딥러닝 기반 포즈인식을 이용한 체력측정 시스템 (Fitness Measurement system using deep learning-based pose recognition)

  • 김형균;홍호표;김용호
    • 디지털융복합연구
    • /
    • 제18권12호
    • /
    • pp.97-103
    • /
    • 2020
  • 제안한 시스템은 AI 체력측정 파트와 AI 체력관리 파트 2가지 부분이 연계성을 가지고 구성되어 있다. AI 체력측정 파트에서 딥러닝 기반의 포즈인식을 통해 체력측정에 대한 가이드와 측정값의 정확한 연산을 수행한다. 이 측정값을 기반으로 AI 체력관리 파트에서는 개인 맞춤형 운동프로그램을 설계해 전용 스마트 어플리케이션에 제공한다. 측정자세 가이드를 위해 웹캠을 통해 측정대상자의 자세를 촬영해 골격선을 추출한다. 다음으로 학습된 준비자세의 골격선과 추출된 골격선을 비교해 정상 유무를 판단하고, 정상자세 유지를 위한 음성안내를 실시한다.

가버 특징 벡터 조명 PCA 모델 기반 강인한 얼굴 인식 (Robust Face Recognition based on Gabor Feature Vector illumination PCA Model)

  • 설태인;김상훈;정선태;조성원
    • 전자공학회논문지SC
    • /
    • 제45권6호
    • /
    • pp.67-76
    • /
    • 2008
  • 성공적인 상업화를 위해서는 다양한 조명 환경에서 신뢰성 있는 얼굴 인식이 필요하다. 특징 벡터 기반 얼굴 인식에서 특징 벡터를 잘 선택하는 것은 중요하다. 가버 특징 벡터는 다른 특징 벡터보다도 상대적으로 방향, 자세, 조명 등의 영향을 덜 받는 것으로 잘 알려져 있어 얼굴 인식의 특징 벡터로 많이 이용된다. 그러나 조명의 영향에 대해 완전히 독립적이지 못하다. 본 논문에서는 얼굴 이미지의 가버 특징 벡터에 대한 조명 PCA 모델의 구성을 제안하고 이를 이용하여 조명에 독립적인 얼굴 고유의 특성을 나타내는 가버 특징 벡터만을 분리해내고 이를 이용한 얼굴 인식 방법을 제시한다. 가버 특징 벡터 조명 PCA 모델은 가버 특징 벡터공간을 조명 영향 부분공간과 얼굴 고유특성 부분공간의 직교 분해로 구성한다. 얼굴 고유특성 부분공간으로 투영하여 얻어진 가버 특징 벡터는 조명 영향을 분리해 내었기 때문에 이를 이용한 얼굴 인식은 조명에 보다 강인하게 된다. 실험을 통해서 가버 특징 벡터 조명 PCA 모델을 이용한 제안된 얼굴 인식 방식이 다양한 자세에서 조명에 대해 보다 신뢰성 있게 동작함을 확인하였다.

딥러닝 기반 고성능 얼굴인식 기술 동향 (Research Trends for Deep Learning-Based High-Performance Face Recognition Technology)

  • 김형일;문진영;박종열
    • 전자통신동향분석
    • /
    • 제33권4호
    • /
    • pp.43-53
    • /
    • 2018
  • As face recognition (FR) has been well studied over the past decades, FR technology has been applied to many real-world applications such as surveillance and biometric systems. However, in the real-world scenarios, FR performances have been known to be significantly degraded owing to variations in face images, such as the pose, illumination, and low-resolution. Recently, visual intelligence technology has been rapidly growing owing to advances in deep learning, which has also improved the FR performance. Furthermore, the FR performance based on deep learning has been reported to surpass the performance level of human perception. In this article, we discuss deep-learning based high-performance FR technologies in terms of representative deep-learning based FR architectures and recent FR algorithms robust to face image variations (i.e., pose-robust FR, illumination-robust FR, and video FR). In addition, we investigate big face image datasets widely adopted for performance evaluations of the most recent deep-learning based FR algorithms.

복잡한 배경의 칼라영상에서 Face and Facial Features 검출 (Detection of Face and Facial Features in Complex Background from Color Images)

  • 김영구;노진우;고한석
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(4)
    • /
    • pp.69-72
    • /
    • 2002
  • Human face detection has many applications such as face recognition, face or facial feature tracking, pose estimation, and expression recognition. We present a new method for automatically segmentation and face detection in color images. Skin color alone is usually not sufficient to detect face, so we combine the color segmentation and shape analysis. The algorithm consists of two stages. First, skin color regions are segmented based on the chrominance component of the input image. Then regions with elliptical shape are selected as face hypotheses. They are certificated to searching for the facial features in their interior, Experimental results demonstrate successful detection over a wide variety of facial variations in scale, rotation, pose, lighting conditions.

  • PDF

비주얼 서보잉을 위한 딥러닝 기반 물체 인식 및 자세 추정 (Object Recognition and Pose Estimation Based on Deep Learning for Visual Servoing)

  • 조재민;강상승;김계경
    • 로봇학회논문지
    • /
    • 제14권1호
    • /
    • pp.1-7
    • /
    • 2019
  • Recently, smart factories have attracted much attention as a result of the 4th Industrial Revolution. Existing factory automation technologies are generally designed for simple repetition without using vision sensors. Even small object assemblies are still dependent on manual work. To satisfy the needs for replacing the existing system with new technology such as bin picking and visual servoing, precision and real-time application should be core. Therefore in our work we focused on the core elements by using deep learning algorithm to detect and classify the target object for real-time and analyzing the object features. We chose YOLO CNN which is capable of real-time working and combining the two tasks as mentioned above though there are lots of good deep learning algorithms such as Mask R-CNN and Fast R-CNN. Then through the line and inside features extracted from target object, we can obtain final outline and estimate object posture.