• 제목/요약/키워드: single-view camera

검색결과 97건 처리시간 0.021초

GPU-Accelerated Single Image Depth Estimation with Color-Filtered Aperture

  • Hsu, Yueh-Teng;Chen, Chun-Chieh;Tseng, Shu-Ming
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권3호
    • /
    • pp.1058-1070
    • /
    • 2014
  • There are two major ways to implement depth estimation, multiple image depth estimation and single image depth estimation, respectively. The former has a high hardware cost because it uses multiple cameras but it has a simple software algorithm. Conversely, the latter has a low hardware cost but the software algorithm is complex. One of the recent trends in this field is to make a system compact, or even portable, and to simplify the optical elements to be attached to the conventional camera. In this paper, we present an implementation of depth estimation with a single image using a graphics processing unit (GPU) in a desktop PC, and achieve real-time application via our evolutional algorithm and parallel processing technique, employing a compute shader. The methods greatly accelerate the compute-intensive implementation of depth estimation with a single view image from 0.003 frames per second (fps) (implemented in MATLAB) to 53 fps, which is almost twice the real-time standard of 30 fps. In the previous literature, to the best of our knowledge, no paper discusses the optimization of depth estimation using a single image, and the frame rate of our final result is better than that of previous studies using multiple images, whose frame rate is about 20fps.

증강현실 기반의 항행정보 가시화를 위한 영상해석 모듈 (Image Analysis Module for AR-based Navigation Information Display)

  • 이정민;이경호;김대석
    • 한국해양공학회지
    • /
    • 제27권3호
    • /
    • pp.22-28
    • /
    • 2013
  • This paper suggests a navigation information display system that is based on augmented reality technology. A navigator always has to confirm the information from marine electronic navigation devices and then compare it with the view of targets outside the windows. This "head down" posture causes discomfort and sometimes near accidents such as collisions or missing objects, because he or she cannot keep an eye on the front view of the windows. Augmented reality can display both virtual and real information in a single display. Therefore, we attempted to adapt AR technology to assist navigators. To analyze the outside view of the bridge window, various computer image processing techniques are required because the sea surface has many noises that disturb computer image processing for object detection, such as waves, wakes, light reflection, and so on. In this study, we investigated an analysis module to extract navigational information from images that are captured by a CCTV camera, and we validated our prototype.

증강현실 개념의 항행정보 가시화를 위한 영상처리 기술 (Computer Image Processing for AR Conceptional Display 3D Navigational Information)

  • 이정민;이경호;김대석;남병욱
    • 한국항해항만학회:학술대회논문집
    • /
    • 한국항해항만학회 2014년도 추계학술대회
    • /
    • pp.245-246
    • /
    • 2014
  • This paper suggests the navigation information display system which is based on augmented reality technology and especially focuses on image analysis technology. Navigator has to always confirm the information from marine electronic navigation devices and then they compare with the view of outside targets of the windows. During this 'head down' posture, they feel uncomfortable and sometimes it cause near-accidents such as collision or missing objects, because he or she cannot keep an eye on the front view of windows. Augmented reality can display both of information of virtual and real in a single display. Therefore we tried to adapt the AR technology to help navigators and have been studied and developed image pre-processing module as a previous research already. To analysis the outside view of the bridge window, we have extracted navigational information from the camera image by using image processing. This paper mainly describes about recognizing ship feature by haar-like feature and filtering region of interest area by AIS data, which are to improve accuracy of the image analysis.

  • PDF

전방 모노카메라 기반 SLAM 을 위한 다양한 특징점 초기화 알고리즘의 성능 시뮬레이션 (Performance Simulation of Various Feature-Initialization Algorithms for Forward-Viewing Mono-Camera-Based SLAM)

  • 이훈;김철홍;이태재;조동일
    • 제어로봇시스템학회논문지
    • /
    • 제22권10호
    • /
    • pp.833-838
    • /
    • 2016
  • This paper presents a performance evaluation of various feature-initialization algorithms for forward-viewing mono-camera based simultaneous localization and mapping (SLAM), specifically in indoor environments. For mono-camera based SLAM, the position of feature points cannot be known from a single view; therefore, it should be estimated from a feature initialization method using multiple viewpoint measurements. The accuracy of the feature initialization method directly affects the accuracy of the SLAM system. In this study, four different feature initialization algorithms are evaluated in simulations, including linear triangulation; depth parameterized, linear triangulation; weighted nearest point triangulation; and particle filter based depth estimation algorithms. In the simulation, the virtual feature positions are estimated when the virtual robot, containing a virtual forward-viewing mono-camera, moves forward. The results show that the linear triangulation method provides the best results in terms of feature-position estimation accuracy and computational speed.

GPGPU를 이용한 고속 영상 합성 기법 (Fast View Synthesis Using GPGPU)

  • 신홍창;박한훈;박종일
    • 방송공학회논문지
    • /
    • 제13권6호
    • /
    • pp.859-874
    • /
    • 2008
  • 본 논문은 3차원 디스플레이 시스템에서 카메라의 기하 정보 및 참조 영상들의 깊이 맵 정보가 주어졌을 때, 다수의 중간 시점 영상을 실시간으로 생성하는 고속 영상 합성 기법을 제안한다. 기본적으로 본 논문에서는 영상 합성 기법의 모든 과정을 GPU에 서 병렬 처리함으로써 고속화 할 수 있었다. 병렬처리를 이용한 고속화 효율을 높이기 위해 최근 NVIDIA사에서 발표한 $CUDA^{TM}$를 이용하였다. 영상 합성을 위한 모든 중간 과정을 CUDA로 처리하기 위해 병렬구조로 변환하고, GPU 상의 고속메모리의 사용을 극대화하고, 알고리즘 구현을 최적화함으로써 고속화 효율을 높일 수 있었다. 결과적으로 본 논문에서는 양안 영상과 깊이 지도를 이용하여 가로 720, 세로 480 크기의 9개의 시점 영상을 0.128초 이내에 생성할 수 있었다.

사람의 움직임 추적에 근거한 다중 카메라의 시공간 위상 학습 (Learning Spatio-Temporal Topology of a Multiple Cameras Network by Tracking Human Movement)

  • 남윤영;류정훈;최유주;조위덕
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제13권7호
    • /
    • pp.488-498
    • /
    • 2007
  • 본 논문은 유비쿼터스 스마트 공간에서 중첩 FOV와 비중첩 FOV에 대한 카메라 네트워크의 시공간 위상을 표현하는 새로운 방법을 제안한다. 제안된 방법을 이용하여 다중 카메라들간의 움직이는 객체들을 인식 및 추적하였으며 이를 통해 카메라 네트워크의 위상을 결정하였다. 다중 카메라의 영상으로부터 여러 객체들을 추적하기 위해 여러 가지 방법들을 사용하였다. 우선, 단일 카메라에서 객체들의 겹침 문제를 해결하기 위해서 병합-분리(Merge-Split) 방법을 사용하였으며, 보다 정확한 객체 특성을 추출하기 위해 그리드 기반의 부분 추출 방법을 사용하였다. 또한, 비중첩 FOV를 포함하는 다중 카메라의 보이지 않는 지역에 대한 객체 추적을 위해 등장과 퇴장 영역간의 전이시간과 사람들의 외형 정보를 고려하였다. 본 논문에서는 다양한 등장과 퇴장 영역간의 전이시간을 추정하고 전이확률을 이용하여 무방향 가중치 그래프로써 카메라 위상을 가시적으로 표현하였다.

A NEW AUTO-GUIDING SYSTEM FOR CQUEAN

  • CHOI, NAHYUN;PARK, WON-KEE;LEE, HYE-IN;JI, TAE-GEUN;JEON, YISEUL;IM, MYUNGSHI;PAK, SOOJONG
    • 천문학회지
    • /
    • 제48권3호
    • /
    • pp.177-185
    • /
    • 2015
  • We develop a new auto-guiding system for the Camera for QUasars in the EArly uNiverse (CQUEAN). CQUEAN is an optical CCD camera system attached to the 2.1-m Otto-Struve Telescope (OST) at McDonald Observatory, USA. The new auto-guiding system differs from the original one in the following: instead of the cassegrain focus of the OST, it is attached to the finder scope; it has its own filter system for observation of bright targets; and it is controlled with the CQUEAN Auto-guiding Package, a newly developed auto-guiding program. Finder scope commands a very wide field of view at the expense of poorer light gathering power than that of the OST. Based on the star count data and the limiting magnitude of the system, we estimate there are more than 5.9 observable stars with a single FOV using the new auto-guiding CCD camera. An adapter is made to attach the system to the finder scope. The new auto-guiding system successfully guided the OST to obtain science data with CQUEAN during the test run in 2014 February. The FWHM and ellipticity distributions of stellar profiles on CQUEAN, images guided with the new auto-guiding system, indicate similar guiding capabilities with the original auto-guiding system but with slightly poorer guiding performance at longer exposures, as indicated by the position angle distribution. We conclude that the new auto-guiding system has overall similar guiding performance to the original system. The new auto-guiding system will be used for the second generation CQUEAN, but it can be used for other cassegrain instruments of the OST.

다시점 비디오 부호화를 위한 개선된 움직임/변이 벡터 예측 (An Improved Motion/Disparity Vector Prediction for Multi-view Video Coding)

  • 임성창;이영렬
    • 대한전자공학회논문지SP
    • /
    • 제45권2호
    • /
    • pp.37-48
    • /
    • 2008
  • 일반적으로 움직임 벡터는 한 카메라에서 촬영된 영상 속에서의 객체의 움직임 정보를 나타내고, 변이 벡터는 서로 다른 카메라에서 촬영된 영상 간 객체의 위치 차이를 나타낸다. 기존의 H.264/AVC에서는 단일 시점 영상을 위한 비디오 부호화 기술이기 때문에 변이 벡터를 고려하지 않는다. 하지만, 다시점 비디오 부호화 기술은 H.264/AVC를 기반으로 하여 시점 간 예측구조를 지원하기 때문에, 다른 시점에서의 영상을 참조할 때는 움직임 벡터 대신 변이 벡터가 고려된다. 따라서, 본 논문에서는 다시점 비디오 부호화 기술을 위해 전역 변이 벡터 대체 방법과 확장된 주변 블록 예측 방법을 이용하여 개선된 움직임/변이 벡터 예측 방법을 제안한다. 제안하는 방법을 통해서 움직임 벡터 탐색 범위를 ${\pm}16$으로 설정하고, 전역 변이 벡터 탐색 범위를 ${\pm}32$으로 설정한 경우 평균 1.07%의 BD (Bjontegaard delta)-비트율 감소를 얻었으며, 전역 변이 벡터 탐색 범위를 ${\pm}64$로 설정한 경우 평균 1.32%의 BD-비트율 감소를 얻을 수가 있었다.

A Fast Vision-based Head Tracking Method for Interactive Stereoscopic Viewing

  • Putpuek, Narongsak;Chotikakamthorn, Nopporn
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1102-1105
    • /
    • 2004
  • In this paper, the problem of a viewer's head tracking in a desktop-based interactive stereoscopic display system is considered. A fast and low-cost approach to the problem is important for such a computing environment. The system under consideration utilizes a shuttle glass for stereoscopic display. The proposed method makes use of an image taken from a single low-cost video camera. By using a simple feature extraction algorithm, the obtained points corresponding to the image of the user-worn shuttle glass are used to estimate the glass center, its local 'yaw' angle, as measured with respect to the glass center, and its global 'yaw' angle as measured with respect to the camera location. With these estimations, the stereoscopic image synthetic program utilizes those values to interactively adjust the two-view stereoscopic image pair as displayed on a computer screen. The adjustment is carried out such that the so-obtained stereoscopic picture, when viewed from a current user position, provides a close-to-real perspective and depth perception. However, because the algorithm and device used are designed for fast computation, the estimation is typically not precise enough to provide a flicker-free interactive viewing. An error concealment method is thus proposed to alleviate the problem. This concealment method should be sufficient for applications that do not require a high degree of visual realism and interaction.

  • PDF

합성 촬영 집적 영상의 신호 모델 해석 방법 (Analysis method of signal model for synthetic aperture integral imaging)

  • 유훈
    • 한국정보통신학회논문지
    • /
    • 제14권11호
    • /
    • pp.2563-2568
    • /
    • 2010
  • 합성 촬영 집적 영상 (synthetic aperture integral imaging; SAII) 기술은 하나의 카메라를 이동하여 3D 물체에 대한 다시점 영상을 획득하여 깊이 정보의 3D 영상을 복원이 가능한 기술이다. 이 방법은 크게 3D 물체의 요소 영상을 픽업하는 과정과 픽업된 요소 영상을 이용하여 컴퓨터 기반으로 3D 깊이 영상들을 복원하는 두 과정으로 나눈다. 본 논문에서는 이 SAII에 대한 신호 모델을 설명하고, 이를 통하여 발생하는 잡음을 정의하고 해석하였다. SAII에 대한 신호해석을 통하여 다시점 영상을 얻기 위한 카메라 이동 거리를 줄임으로써 영상 잡음감소와 계산 속도 개선을 동시에 얻을 수 있음을 보고한다.