• 제목/요약/키워드: Monocular Image Processing

검색결과 28건 처리시간 0.022초

A Framework for Real Time Vehicle Pose Estimation based on synthetic method of obtaining 2D-to-3D Point Correspondence

  • Yun, Sergey;Jeon, Moongu
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 춘계학술발표대회
    • /
    • pp.904-907
    • /
    • 2014
  • In this work we present a robust and fast approach to estimate 3D vehicle pose that can provide results under a specific traffic surveillance conditions. Such limitations are expressed by single fixed CCTV camera that is located relatively high above the ground, its pitch axes is parallel to the reference plane and the camera focus assumed to be known. The benefit of our framework that it does not require prior training, camera calibration and does not heavily rely on 3D model shape as most common technics do. Also it deals with a bad shape condition of the objects as we focused on low resolution surveillance scenes. Pose estimation task is presented as PnP problem to solve it we use well known "POSIT" algorithm [1]. In order to use this algorithm at least 4 non coplanar point's correspondence is required. To find such we propose a set of techniques based on model and scene geometry. Our framework can be applied in real time video sequence. Results for estimated vehicle pose are shown in real image scene.

한 개의 카메라를 이용한 최소오차 레이저 빔 포인터 위치 검출 (Error Minimized Laser Beam Point Detection Using Mono-Camera)

  • 이왕헌;이현창
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권6호
    • /
    • pp.69-76
    • /
    • 2007
  • 강의 및 회의에서 발표자가 파일을 열거나 PC상의 모니터를 직접 조작하기 위하여 진행중인 발표를 멈추고 PC에 다가가 필요한 조작을 하게 되면 발표의 흐름이 끊기게 된다. 이러한 불편함을 개선하기 위한 여러 방법들이 제안되었으나 주로 레이저 빔 포인터[LBP]에 마우스 기능을 부착하여 처리하려는 시도들이 대부분이고 근본적인 해결은 되지 않고 있다. 본 논문에서는 한 개의 카메라와 영상처리 알고리즘을 적용하여 설치가 간단하고 저 가격으로도 실현이 가능하면서도 빔의 검지 위치 정도를 높인 마우스 기능이 부착된 LBP를 제안하고 구현하였으며, 실험을 통하여 마우스의 위치 인식 오차를 분석하였다. 본 연구의 결과 제안된 LBP가 카메라를 사용하였음에도 불구하고 조명의 변화나 시야각의 변화에 대해서도 검지된 빔의 위치인식의 반복성과 마우스의 커서로 사용하기에 충분한 고정도의 위치 인식 오차를 보여주고 있음을 확인하였다.

  • PDF

다중영상을 이용한 딥러닝 기반 온디바이스 증강현실 시스템 (Deep Learning Based On-Device Augmented Reality System using Multiple Images)

  • 정태현;박인규
    • 방송공학회논문지
    • /
    • 제27권3호
    • /
    • pp.341-350
    • /
    • 2022
  • 본 논문은 온디바이스 환경에서 다중 시점 영상을 입력 받아 객체를 증강하고, 현실 공간에 의한 가려짐을 구현하는 딥러닝 기반의 증강현실 시스템을 제안한다. 이는 세부적으로 카메라 자세 추정, 깊이 추정, 객체 증강 구현의 세 기술적 단계로 나눠지며 각 기법은 온디바이스 환경에서의 최적화를 위해 다양한 모바일 프레임워크를 사용한다. 카메라 자세 추정 단계에서는 많은 계산량을 필요로 하는 특징 추출 알고리즘을 GPU 병렬처리 프레임워크인 OpenCL을 통해 가속하여 사용하며, 깊이 영상 추론 단계에서는 모바일 심층신경망 프레임워크 TensorFlow Lite를 사용하여 가속화된 단안, 다중 영상 기반의 깊이 영상 추론을 수행한다. 마지막으로 모바일 그래픽스 프레임워크 OpenGL ES를 활용해 객체 증강 및 가려짐을 구현한다. 제시하는 증강현실 시스템은 안드로이드 환경에서 GUI를 갖춘 애플리케이션으로 구현되며 모바일과 PC 환경에서의 동작 정확도 및 처리 시간을 평가한다.

모바일 디바이스를 이용한 3차원 특징점 추출 기법 (3D feature point extraction technique using a mobile device)

  • 김진겸;서영호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.256-257
    • /
    • 2022
  • 본 논문에서는 단일 모바일 디바이스의 움직임을 통해 3차원 특징점을 추출하는 방법에 대해 소개한다. 단안 카메라를 이용해 카메라 움직임에 따라 2D 영상을 획득하고 Baseline을 추정한다. 특징점 기반의 스테레오 매칭을 진행한다. 특징점과 디스크립터를 획득하고 특징점을 매칭한다. 매칭된 특징점을 이용해 디스패리티를 계산하고 깊이값을 생성한다. 3차원 특징점은 카메라 움직임에 따라 업데이트 된다. 마지막으로 장면 전환 검출을 이용하여 장면 전환시 특징점을 리셋한다. 위 과정을 통해 특징점 데이터베이스에 평균 73.5%의 저장공간 추가 확보를 할 수 있다. TUM Dataset의 Depth Ground truth 값과 RGB 영상으로 제안한 알고리즘을 적용하여 3차원 특징점 결과와 비교하여 평균 26.88mm의 거리 차이가 나는것을 확인하였다.

  • PDF

다중크기와 다중객체의 실시간 얼굴 검출과 머리 자세 추정을 위한 심층 신경망 (Multi-Scale, Multi-Object and Real-Time Face Detection and Head Pose Estimation Using Deep Neural Networks)

  • 안병태;최동걸;권인소
    • 로봇학회논문지
    • /
    • 제12권3호
    • /
    • pp.313-321
    • /
    • 2017
  • One of the most frequently performed tasks in human-robot interaction (HRI), intelligent vehicles, and security systems is face related applications such as face recognition, facial expression recognition, driver state monitoring, and gaze estimation. In these applications, accurate head pose estimation is an important issue. However, conventional methods have been lacking in accuracy, robustness or processing speed in practical use. In this paper, we propose a novel method for estimating head pose with a monocular camera. The proposed algorithm is based on a deep neural network for multi-task learning using a small grayscale image. This network jointly detects multi-view faces and estimates head pose in hard environmental conditions such as illumination change and large pose change. The proposed framework quantitatively and qualitatively outperforms the state-of-the-art method with an average head pose mean error of less than $4.5^{\circ}$ in real-time.

UKF와 연동된 입자필터를 이용한 실시간 단안시 카메라 추적 기법 (Real-time Monocular Camera Pose Estimation using a Particle Filiter Intergrated with UKF)

  • 이석한
    • 한국정보전자통신기술학회논문지
    • /
    • 제16권5호
    • /
    • pp.315-324
    • /
    • 2023
  • 본 논문에서는 UKF(unscented Kalman filter)와 연동된 입자필터를 이용한 단안시 카메라의 실시간 자세추정 기법을 제안한다. 단안시 카메라 자세 추정 기법에는 주로 카메라 영상과 자이로스코프, 가속도센서 데이터 등을 연동하는 방법이 많이 이용되고 있으나 본 논문에서 제안하는 방법은 별도의 센서 없이 카메라 영상에서 취득되는 2차원 시각 정보만을 이용하는 것을 목표로 한다. 제안된 방법은 카메라 영상 이외의 부가적인 장비를 이용하지 않고 별도의 센싱 정보 없이 2차원 영상만으로 카메라 추적이 가능하며, 따라서 기존에 비해 하드웨어 구성이 단순해질수 있다는 장점을 갖고 있다. 제안된 방법은 UKF와 연동된 입자필터를 기반으로 한다. 입자필터의 각 입자마다 개별적으로 정의된 UKF로부터 카메라의 상태를 추정한 다음 입자필터의 전체 입자로부터 카메라 상태에 대한 통계데이터를 산출하고 이로부터 카메라의 실시간 자세정보를 계산한다. 기존의 방법과 달리 제안된 방법은 카메라의 급격한 흔들림이 발생하는 경우에도 카메라 추적이 가능함을 보여주며, 영상 내의 특징점 대다수가 가려지는 환경에서도 카메라 추적에 실패하지 않음을 실험을 통하여 확인하였다. 또한 입자의 개수가 35개인 경우 프레임 당 소요 시간이 약 25ms이며 이로부터 실시간 처리에 문제가 없음을 확인할 수 있었다.

동영상에서 물체의 추출과 배경영역의 상대적인 깊이 추정 (Moving Object Extraction and Relative Depth Estimation of Backgrould regions in Video Sequences)

  • 박영민;장주석
    • 정보처리학회논문지B
    • /
    • 제12B권3호
    • /
    • pp.247-256
    • /
    • 2005
  • 컴퓨터 비젼에 관한 고전적인 연구 주제들 중의 하나는 두 개 이상의 이미지로부터 3차원 형상을 재구성하는 3차원 변환에 관한 것이다. 본 논문은 단안 카메라로 촬영한 일반적인 2차원 영상물에서 능동적으로 움직이는 3차원 영상의 깊이 정보를 추출하는 문제를 다룬다. 연속하는 프레임들간의 영상 블록의 움직임을 평가하여 카메라의 회전과 배율효과를 보상하고 다음과 같은 두 개의 단계에 걸쳐 블록의 움직임을 추출한다. (i) 블록의 위치와 움직임을 이용하여 카메라의 이동과 초점거리에 대한 전역 파라메타를 계산한다. (ii) 전역 파라메타, 블록의 위치와 움직임을 이용하여 평균 영상 깊이에 대한 상대적인 블록의 깊이를 계산한다. 다양한 동영상을 대상으로 특이점인 경우와 그렇지 않은 경우를 실험하였다. 결과로 얻어지는 상대적인 깊이 정보와 객체는 인간이 판단하는 경우와 동일함을 보였다.

SegNet과 ResNet을 조합한 딥러닝에 기반한 횡단보도 영역 검출 (Detection of Zebra-crossing Areas Based on Deep Learning with Combination of SegNet and ResNet)

  • 량한;서수영
    • 한국측량학회지
    • /
    • 제39권3호
    • /
    • pp.141-148
    • /
    • 2021
  • 본 논문은 SegNet과 ResNet을 조합한 딥러닝을 이용하여 횡단보도를 검출하는 방법을 제안한다. 시각 장애인의 경우 횡단보도가 어디에 있는지 정확히 아는 게 안전한 교통 시스템에서 중요하다. 딥러닝에 의한 횡단보도 검출은 이 문제에 대한 좋은 해결책이 될 수 있다. 로봇 시각 기반 보조 기술은 지난 몇년 동안 카메라를 사용하는 특정 장면에 초점을 두고 제안되어 왔다. 이러한 전통적인 방법은 비교적 긴 처리 시간으로 의미있는 결과를 얻었으며 횡단보도 인식을 크게 향상시켰다. 그러나 전통적인 방법은 지연 시간이 길고 웨어러블 장비에서 실시간을 만족시킬 수 없다. 본 연구에서 제안하는 방법은 취득한 영상에서 횡단보도를 빠르고 안정적으로 검출하기 위한 모델을 제안한다. 모델은 SegNet과 ResNet을 기반으로 개선되었으며 3단계로 구성된다. 첫째, 입력 영상을 서브샘플링하여 이미지 특징을 추출하고 ResNet의 컨벌루션 신경망을 수정하여 새로운 인코더로 만든다. 둘째, 디코딩 과정에서 업샘플링 네트워크를 통해 특징맵을 원영상 크기로 복원한다. 셋째, 모든 픽셀을 분류하고 각 픽셀의 정확도를 계산한다. 이 실험의 결과를 통하여 수정된 시맨틱 분할 알고리즘의 적격한 정확성을 검증하는 동시에 결과 출력 속도가 비교적 빠른 것으로 파악되었다.