• 제목/요약/키워드: camera translation

검색결과 73건 처리시간 0.022초

Realtime Facial Expression Representation Method For Virtual Online Meetings System

  • Zhu, Yinge;Yerkovich, Bruno Carvacho;Zhang, Xingjie;Park, Jong-il
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 추계학술대회
    • /
    • pp.212-214
    • /
    • 2021
  • In a society with Covid-19 as part of our daily lives, we had to adapt ourselves to a new reality to maintain our lifestyles as normal as possible. An example of this is teleworking and online classes. However, several issues appeared on the go as we started the new way of living. One of them is the doubt of knowing if real people are in front of the camera or if someone is paying attention during a lecture. Therefore, we encountered this issue by creating a 3D reconstruction tool to identify human faces and expressions actively. We use a web camera, a lightweight 3D face model, and use the 2D facial landmark to fit expression coefficients to drive the 3D model. With this Model, it is possible to represent our faces with an Avatar and fully control its bones with rotation and translation parameters. Therefore, in order to reconstruct facial expressions during online meetings, we proposed the above methods as our solution to solve the main issue.

  • PDF

다중 신경망을 이용한 사용자의 응시 위치 추출 (Gaze Detection Using Two Neural Networks)

  • 박강령;이정준;이동재;김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 하계종합학술대회 논문집
    • /
    • pp.587-590
    • /
    • 1999
  • Gaze detection is to locate the position on a monitor screen where a user is looking at. We implement it by a computer vision system setting a camera above a monitor, and a user move (rotates and or translates) her face to gaze at a different position on the monitor. Up to now, we have tried several different approaches and among them the Two Neural Network approach shows the best result which is described in this paper (1.7 inch error for test data including facial rotation. 3.1 inch error for test data including facial rotation and translation).

  • PDF

원근투영법 기반의 PTZ 카메라를 이용한 머리자세 추정 (Head Pose Estimation Based on Perspective Projection Using PTZ Camera)

  • 김진서;이경주;김계영
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권7호
    • /
    • pp.267-274
    • /
    • 2018
  • 본 논문에서는 PTZ 카메라를 이용한 머리자세추정 방법에 대하여 서술한다. 회전 또는 이동에 의하여 카메라의 외부인자가 변경되면, 추정된 얼굴자세도 변한다. 본 논문에는 PTZ 카메라의 회전과 위치 변화에 독립적으로 머리자세를 추정하는 새로운 방법을 제안한다. 제안하는 방법은 얼굴검출, 특징추출 그리고 자세추정으로 이루어진다. 얼굴검출은 MCT특징을 이용해 검출하고, 얼굴 특징추출은 회귀트리 방법을 이용해 추출하고, 머리자세 추정은 POSIT 알고리즘을 사용한다. 기존의 POSIT 알고리즘은 카메라의 회전을 고려하지 않지만, 카메라의 외부인자 변화에도 강건하게 머리자세를 추정하기 위하여 본 논문은 원근투영법에 기반하여 POSIT를 개선한다. 실험을 통하여 본 논문에서 제안하는 방법이 기존의 방법 보다 RMSE가 약 $0.6^{\circ}$ 개선되는 것을 확인했다.

IMU/GPS와 카메라 좌표계간의 물리적 관계를 위한 수학적 모델링 (Mathematical Modeling for the Physical Relationship between the Coordinate Systems of IMU/GPS and Camera)

  • 전재춘
    • 한국측량학회지
    • /
    • 제26권6호
    • /
    • pp.611-616
    • /
    • 2008
  • 모바일 매핑시스템 (Mobile Mapping Systems)에 장착된 카메라로부터, 3차원 데이터를 취득시, 취득된 3차원 데이터의 정밀도를 결정하는 중요한 요소 중 하나는 IMU/GPS와 카메라 좌표계간의 상대적인 위치(lever-arm)와 자세(bore-sight) 얼라인먼트이다. 기존 연구는 지상기준점(GPS)을 통하여 카메라의 절대표정을 계산하기 때문에, 하나의 좌표계 (GPS 좌표계) 상에서 이 얼라인먼트가 이루어진다. 이 방법은 GCP을 기본적으로 필요로 하는 단점이 있다. 본 논문에서는 GCP가 필요하지 않고, 연관성이 없는 카메라 데이터와 IMU/GPS 데이터를 통하여 이 두좌표계 간의 얼라인먼트를 계산하는 수학적 모델링을 제시한다.

변형된 라돈 변환을 이용한 기하학적 형태 불변 보행인식 (Geometric Transform-Invariant Gait Recognition Using Modified Radon Transform)

  • 장상식;이승원;백준기
    • 대한전자공학회논문지SP
    • /
    • 제48권4호
    • /
    • pp.67-75
    • /
    • 2011
  • 본 논문에서는 라돈 변환(Radon transform)을 변형한 R-변환(R-transform)을 이용하여 객체의 크기 변환과 회전에 불변하는 보행 인식 방법을 제안한다. R-변환은 라돈 변환의 결과를 제곱한 후 투영선에 대해 적분한 것으로서, 평행이동에 불변하고 크기 변환은 변환계수의 진폭과 비례하고, 회전의 경우는 변환계수가 평행으로 이동하는 성질을 갖기 때문에 임의의 위치에서 교정되지 않은 카메라를 이용해서 객체 정보를 추출하는 데 효과적이다. 추출된 정보는 상관도(Correlation)를 이용하여 신원을 파악한다. 제안된 방법은 기하학적 변환에 강인하기 때문에 보행인식 단계에서 기하학적인 정렬 과정이 필요 없고, 객체와 카메라의 거리에 무관하게 인식이 가능하며, 카메라의 비정상적인 회전이 발생한 경우에도 강인한 인식이 가능하다.

다시점 영상 시스템을 위한 얼굴 추적 (Face Tracking for Multi-view Display System)

  • 한충신;장세훈;배진우;유지상
    • 한국통신학회논문지
    • /
    • 제30권2C호
    • /
    • pp.16-24
    • /
    • 2005
  • 본 논문에서는 관찰자의 시점에 적응적인 다시점 영상 합성 시스템을 위한 얼굴 추적 기법을 제안한다. depth 카메라를 이용하여 텍스쳐 영상과 깊이 정보를 획득한 후, 회전(rotation)과 이동(translation) 등 기하학적인 변환을 이용하여 관찰자의 위치를 고려한 다시점 영상을 생성할 수 있다. 관찰 시점의 위치와 각도에 의한 입체감(motion parallex cue)을 제공하기 위하여 주 관찰자의 얼굴을 추적하는 기법을 제안한다. 제안된 기법에서는 모니터에 설치된 얼굴 획득용 카메라로부터 얻은 영상에서 얼굴 색상의 통계학적 특성과 변형적 형판(template)을 이용하여, 실시간으로 초기에 설정된 주요 관찰자(dominant face)의 얼굴영역을 추적하게 된다. 실험 결과 복잡한 배경 하에서도 얼굴 영역의 위치를 성공적으로 검출 및 추적하여 관찰자 시점에 해당하는 3차원 입체 영상을 디스플레이 할 수 있었다.

단안 카메라를 이용한 입체영상 생성 (Generating a Stereoscopic Image from a Monoscopic Camera)

  • 이동우;이관욱;김만배
    • 방송공학회논문지
    • /
    • 제17권1호
    • /
    • pp.17-25
    • /
    • 2012
  • 본 논문에서는 단안 카메라를 이용하여 획득한 여러 장의 영상으로부터 입체영상을 제작하는 방법을 제안한다. 수평으로 이동하며 촬영한 N 장의 프레임 영상중에서 최적의 좌우 입체영상을 먼저 선택한다. 이를 위해 영상의 에지를 추출한 후 에지의 방향을 이용하여 두 영상의 에지각의 차이인 회전각을 구한다. 또한 영상 투영을 통해 두 영상의 상관관계를 구한 후, 이를 이용하여 이동벡터를 얻는다. 다음으로 최적의 입체영상 두 장을 선택한 후, 회전각 및 이동벡터를 이용하여 선택된 좌우영상을 보정한다. 총 32장의 실험영상데이터에 제안방법을 적용하였고, 입체영상의 품질을 검증하기 위해서 주관적 시각적 피로도 평가를 수행하였다. 피로도 측면에서는 84 %의 안정적인 입체감을 전달하는 것을 증명하였다.

카메라와 라이다의 객체 검출 성능 향상을 위한 Sensor Fusion (Camera and LiDAR Sensor Fusion for Improving Object Detection)

  • 이종서;김만규;김학일
    • 방송공학회논문지
    • /
    • 제24권4호
    • /
    • pp.580-591
    • /
    • 2019
  • 본 논문의 목적은 자율주행을 위하여 카메라와 라이다를 이용하여 객체를 검출하고 각 센서에서 검출된 객체를 late fusion 방식으로 융합을 하여 성능을 향상하는 것을 목적으로 한다. 카메라를 이용한 객체 검출은 one-stage 검출인 YOLOv3을, 검출된 객체의 거리 추정은 perspective matrix를, 라이다의 객체 검출은 K-means 군집화 기반 객체 검출을 각각 이용하였다. 카메라와 라이다 calibration은 PnP-RANSAC을 이용하여 회전, 변환 행렬을 구하였다. 센서 융합은 라이다에서 검출된 객체를 이미지 평면에 옮겨 Intersection over union(IoU)을 계산하고, 카메라에서 검출된 객체를 월드 좌표에 옮겨 거리, 각도를 계산하여 IoU, 거리 그리고 각도 세 가지 속성을 로지스틱 회귀를 이용하여 융합을 하였다. 융합을 통하여 각 센서에서 검출되지 않은 객체를 보완해주어 성능이 약 5% 증가하였다.

개선된 화질의 영상을 이용한 열화상 카메라 캘리브레이션 (Calibration of Thermal Camera with Enhanced Image)

  • 김주오;이덕우
    • 한국산학기술학회논문지
    • /
    • 제22권4호
    • /
    • pp.621-628
    • /
    • 2021
  • 본 논문에서는 3개의 시점을 가진 열화상 카메라의 캘리브레이션을 수행하는 방법을 제안하고, 카메라의 내부 파라미터 추정 및 그 결과의 정확도를 파악하기 위해 역투영 오류값을 제시한다. 3개의 시점을 가진 카메라는 일반 카메라와 다르게 각 시점마다 겹치는 영상이 존재하지 않고, 획득한 영상의 화질은 일반 카메랄 획득한 영상보다 낮다. 카메라 캘리브레이션은 3차원 실제 영상의 좌표 정보 또는 카메라와 목표물체 사이의 거리를 계산하기 전에 반드시 수행되어야 하는 작업이다. 카메라 캘리브레이션 작업을 통해 얻는 것은 카메라의 내부 및 외부 파라미터이며 내부 파라미터는 카메라의 초점거리, 비대칭계수, 이미지 중심점으로 구성되어 있고, 외부 파라미터는 사용되는 카메라들 사이 또는 사용되는 카메라의 상대적 위치인 회전행렬과 변위벡터로 구성되어 있다. 본 논문에서는 열화상 카메라의 캘리브레이션을 수행하는 방법을 제안하며, 열화상 카메라의 캘리브레이션 수행을 위해 온도에 반응하는 열상 체커보드를 활용한다. 캘리브레이션이 안정적으로 수행되기 위해 본 논문에서는 심층 학습 기반 촬영대상 물체의 화질을 개선하여 코너 추출의 정확도를 높인 후 캘리브레이션 파라미터 계산을 수행하고, 개선된 화질의 영상이 캘리브레이션을 개선한 결과를 제시한다.

위치 이동에 무관한 홍채 인식을 위한 웨이블렛 변환 기술 (Wavelet Transform Technology for Translation-invariant Iris Recognition)

  • 임철수
    • 정보처리학회논문지B
    • /
    • 제10B권4호
    • /
    • pp.459-464
    • /
    • 2003
  • 본 논문에서 제안한 위치 이동에 무관한 웨이블렛 변환을 이용한 홍채 인식 방법은 영상 획득 장비에 의해 획득한 사용자의 눈 영상에 대하여 홍채 영역만을 추출하기 위한 전처리를 수행하고 전처리를 거친 홍채 영상에 의하여 사용자의 신원을 식별하는데 있어서 홍채 영상의 기울어짐 및 이동 문제를 해결하였다. 이를 위해서 일반적인 웨이블렛을 사용하는 대신, 위치 이동에 무관한 웨이블렛 변환을 통하여 최적의 특징값을 추출한후, 이를 코드화하여 저장한 후, 비교하여 본인 여부를 식별하였다. 실험결과 제안된 방법으로 생성된 특징 벡터와 기존에 등록된 특징 벡터의 일치도 측정에 있어서 종래의 웨이블렛 변환 홍채 인식 방법보다 오인식률(FAR) 및 오거부율(FRR)이 현저하게 감소하였다.