• 제목/요약/키워드: Keypoints

검색결과 73건 처리시간 0.019초

RGB-D 정보를 이용한 2차원 키포인트 탐지 기반 3차원 인간 자세 추정 방법 (A Method for 3D Human Pose Estimation based on 2D Keypoint Detection using RGB-D information)

  • 박서희;지명근;전준철
    • 인터넷정보학회논문지
    • /
    • 제19권6호
    • /
    • pp.41-51
    • /
    • 2018
  • 최근 영상 감시 분야에서는 지능형 영상 감시 시스템에 딥 러닝 기반 학습 방법이 적용되어 범죄, 화재, 이상 현상과 같은 다양한 이벤트들을 강건하게 탐지 할 수 있게 되었다. 그러나 3차원 실세계를 2차원 영상으로 투영시키면서 발생하는 3차원 정보의 손실로 인하여 폐색 문제가 발생하기 때문에 올바르게 객체를 탐지하고, 자세를 추정하기 위해서는 폐색 문제를 고려하는 것이 필요하다. 따라서 본 연구에서는 기존 RGB 정보에 깊이 정보를 추가하여 객체 탐지 과정에서 나타나는 폐색 문제를 해결하여 움직이는 객체를 탐지하고, 탐지된 영역에서 컨볼루션 신경망을 이용하여 인간의 관절 부위인 14개의 키포인트의 위치를 예측한다. 그 다음 자세 추정 과정에서 발생하는 자가 폐색 문제를 해결하기 위하여 2차원 키포인트 예측 결과와 심층 신경망을 이용하여 자세 추정의 범위를 3차원 공간상으로 확장함으로써 3차원 인간 자세 추정 방법을 설명한다. 향후, 본 연구의 2차원 및 3차원 자세 추정 결과는 인간 행위 인식을 위한 용이한 데이터로 사용되어 산업 기술 발달에 기여 할 수 있다.

그래프 컨벌루션 네트워크 기반 주거지역 감시시스템의 얼굴인식 알고리즘 개선 (Improvement of Face Recognition Algorithm for Residential Area Surveillance System Based on Graph Convolution Network)

  • 담하의;민병원
    • 사물인터넷융복합논문지
    • /
    • 제10권2호
    • /
    • pp.1-15
    • /
    • 2024
  • 스마트 지역사회의 구축은 지역사회의 안전을 보장하는 새로운 방법이자 중요한 조치이다. 촬영 각도로 인한 얼굴 기형 및 기타 외부 요인의 영향으로 인한 신원 인식 정확도 문제를 해결하기 위해 이 논문에서는 네트워크 모델을 구축할 때 전체 그래프 컨벌루션 모델을 설계하고, 그래프 컨벌루션 모델에 협력하여 얼굴의 핵심을 추출한다. 또한 얼굴의 핵심을 특정 규칙에 따라 핵심 포인트를 구축하며 이미지 컨벌루션 구조를 구축한 후 이미지 컨벌루션 모델을 추가하여 이미지 특징의 핵심을 개선한다. 마지막으로 두 사람의 얼굴의 이미지 특징 텐서를 계산하고 전체 연결 레이어를 사용하여 집계된 특징을 추출하고 판별하여 인원의 신원이 동일한지 여부를 결정한다. 최종적으로 다양한 실험과 테스트를 거쳐 이 글에서 설계한 네트워크의 얼굴 핵심 포인트에 대한 위치 정확도 AUC 지표는 300W 오픈 소스 데이터 세트에서 85.65%에 도달했다. 자체 구축 데이터 세트에서 88.92% 증가했다. 얼굴 인식 정확도 측면에서 이 글에서 제안한 IBUG 오픈 소스 데이터 세트에서 네트워크의 인식 정확도는 83.41% 증가했으며 자체 구축 데이터 세트의 인식 정확도는 96.74% 증가했다. 실험 결과는 이 글에서 설계된 네트워크가 얼굴을 모니터링하는 데 더 높은 탐지 및 인식 정확도를 가지고 있음을 보여준다.

카메라 기반 6DoF 추적 및 포즈 추정 시스템의 설계 및 구현에 관한 연구 (A Study on the Design and Implementation of a Camera-Based 6DoF Tracking and Pose Estimation System)

  • 정도윤;정희자;김남호
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권5호
    • /
    • pp.53-59
    • /
    • 2024
  • 본 연구에서는 카메라 기반의 6DoF(6 Degrees of Freedom) 추적 및 포즈 추정 시스템을 설계하고 구현하였다. 특히, 6DoF 로봇 팔을 활용하여 사용자의 모든 손가락에 대한 위치와 자세를 정밀하게 추정하는 방법을 제안한다. 시스템은 Python 프로그래밍 언어를 기반으로 하여, Mediapipe와 OpenCV 라이브러리를 활용하여 개발되었다. Mediapipe는 손가락의 키포인트를 실시간으로 추출하는 데 사용되며, 각 손가락의 관절 위치를 정확하게 인식한다. OpenCV는 카메라에서 수집된 이미지 데이터를 처리하여 손가락의 위치를 분석하고, 이를 통해 포즈 추정을 수행한다. 이러한 접근법은 다양한 조명 조건과 손의 위치 변화에도 불구하고 높은 정확도를 유지할 수 있도록 설계되었다. 제안한 시스템은 실험을 통해 그 성능을 검증하였으며, 손동작 인식의 정확성과 로봇 팔의 제어 능력을 평가하였다. 실험 결과, 본 시스템은 실시간으로 손가락의 위치를 추정하고, 이를 기반으로 6DoF 로봇 팔의 정밀한 동작을 구현할 수 있음을 보여주었다. 본 연구는 로봇 제어 및 인간-로봇 상호작용 분야에 중요한 기여를 할 것으로 기대되며, 향후 다양한 응용가능성을 열어줄 것이다. 본 연구의 결과는 로봇 기술의 발전과 더불어 사람과 로봇 간의 자연스러운 상호작용을 촉진하는 데 기여할 것이다.