• Title/Summary/Keyword: 다중 시점 카메라

Search Result 28, Processing Time 0.036 seconds

Multiple-View Cooperation based Context Recognition System for Automatic Detection of Traffic Accidents (교통사고 자동탐지를 위한 다중시점 협업기반 상황인식 시스템)

  • Yi, Si-Hyuk;Min, Jun-Ki;Cho, Sung-Bae
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06c
    • /
    • pp.273-275
    • /
    • 2011
  • 최근 교통량이 증가함에 따라 자동차 사고피해도 비례하여 증가하고 있으며, 이로 인해 CCTV 등과 같이 교통사고 예방에 소모되는 비용이 막대하게 지출되고 있다. 단일시점 카메라의 시스템은 객체들의 겹침, 카메라각도에 의한 인식오류 등으로 오차율이 높은 단점이 있다. 이를 보완하기 위해 다중시점의 협업기반 자동 상황인지 시스템을 제안한다. 제안하는 방법은먼저 영상데이터로부터 차량, 사람 등의 객체를 추출하고 이들 객체 쌍의 특징 정보를 계산한다. 이를 바탕으로 각 카메라 센서노드의 규칙기반 시스템을 이용하여 객체간의 사고여부를 가려낸다. 각 센서노드의 사고여부 정보는 메인서버로 수집되고, 수집된 정보는 상위 규칙에 의해 최종 사고 여부가 판단된다. 본 논문에서는 실제 교차로에 설치된세대의 카메라를 이용한 실험을 통해 제안하는 시스템의 성능을 검증하였다.

Virtual Control of Optical Axis of Stereo TV (양안 입체 TV를 위한 가상 광축 조절)

  • 한상효;박종일;엄기문;안충현
    • Proceedings of the IEEK Conference
    • /
    • 2003.07e
    • /
    • pp.1895-1898
    • /
    • 2003
  • 양안 입체 TV 에서는 3 차원 카메라의 시점거리에 따라 눈의 편안함과 3 차원 효과 사이에 대차 관계가 존재한다. 일반적으로 카메라 사이의 거리가 인간의 동공 사이의 거리인 65㎜ 일 때 최적의 효과를 낸다고 한다. 그러나 일반적인 방송용 화질의 상용 카메라는 렌즈 크기가 크기 때문에 이 거리를 맞춘 3 차원 카메라를 제작하기는 매우 어렵다. 그래서 보기 편한 양안입체 영상을 제공하기 위해서는 스테레오 카메라에서 얻은 영상을 조작하여 원하는 가상 시점에서의 영상으로 만들어 줄 필요가 있다. 본 논문에서는 먼저 적응적 다중 창틀 정합을 이용한 계층적 변이 추정을 사용하여 변이 지도를 추출하고, 이것을 이용하여 가상 시점에서의 영상을 합성했다. 다양한 스테레오 영상을 이용한 실험을 통해 제안된 기법의 타당성을 확인하였다.

  • PDF

Multi-Depth Map Fusion Technique from Depth Camera and Multi-View Images (깊이정보 카메라 및 다시점 영상으로부터의 다중깊이맵 융합기법)

  • 엄기문;안충현;이수인;김강연;이관행
    • Journal of Broadcast Engineering
    • /
    • v.9 no.3
    • /
    • pp.185-195
    • /
    • 2004
  • This paper presents a multi-depth map fusion method for the 3D scene reconstruction. It fuses depth maps obtained from the stereo matching technique and the depth camera. Traditional stereo matching techniques that estimate disparities between two images often produce inaccurate depth map because of occlusion and homogeneous area. Depth map obtained from the depth camera is globally accurate but noisy and provide a limited depth range. In order to get better depth estimates than these two conventional techniques, we propose a depth map fusion method that fuses the multi-depth maps from stereo matching and the depth camera. We first obtain two depth maps generated from the stereo matching of 3-view images. Moreover, a depth map is obtained from the depth camera for the center-view image. After preprocessing each depth map, we select a depth value for each pixel among them. Simulation results showed a few improvements in some background legions by proposed fusion technique.

Convenient View Calibration of Multiple RGB-D Cameras Using a Spherical Object (구형 물체를 이용한 다중 RGB-D 카메라의 간편한 시점보정)

  • Park, Soon-Yong;Choi, Sung-In
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.3 no.8
    • /
    • pp.309-314
    • /
    • 2014
  • To generate a complete 3D model from depth images of multiple RGB-D cameras, it is necessary to find 3D transformations between RGB-D cameras. This paper proposes a convenient view calibration technique using a spherical object. Conventional view calibration methods use either planar checkerboards or 3D objects with coded-pattern. In these conventional methods, detection and matching of pattern features and codes takes a significant time. In this paper, we propose a convenient view calibration method using both 3D depth and 2D texture images of a spherical object simultaneously. First, while moving the spherical object freely in the modeling space, depth and texture images of the object are acquired from all RGB-D camera simultaneously. Then, the external parameters of each RGB-D camera is calibrated so that the coordinates of the sphere center coincide in the world coordinate system.

Depth Generation using Bifocal Stereo Camera System for Autonomous Driving (자율주행을 위한 이중초점 스테레오 카메라 시스템을 이용한 깊이 영상 생성 방법)

  • Lee, Eun-Kyung
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.16 no.6
    • /
    • pp.1311-1316
    • /
    • 2021
  • In this paper, we present a bifocal stereo camera system combining two cameras with different focal length cameras to generate stereoscopic image and their corresponding depth map. In order to obtain the depth data using the bifocal stereo camera system, we perform camera calibration to extract internal and external camera parameters for each camera. We calculate a common image plane and perform a image rectification for generating the depth map using camera parameters of bifocal stereo camera. Finally we use a SGM(Semi-global matching) algorithm to generate the depth map in this paper. The proposed bifocal stereo camera system can performs not only their own functions but also generates distance information about vehicles, pedestrians, and obstacles in the current driving environment. This made it possible to design safer autonomous vehicles.

Multi-view Generation using High Resolution Stereoscopic Cameras and a Low Resolution Time-of-Flight Camera (고해상도 스테레오 카메라와 저해상도 깊이 카메라를 이용한 다시점 영상 생성)

  • Lee, Cheon;Song, Hyok;Choi, Byeong-Ho;Ho, Yo-Sung
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.37 no.4A
    • /
    • pp.239-249
    • /
    • 2012
  • Recently, the virtual view generation method using depth data is employed to support the advanced stereoscopic and auto-stereoscopic displays. Although depth data is invisible to user at 3D video rendering, its accuracy is very important since it determines the quality of generated virtual view image. Many works are related to such depth enhancement exploiting a time-of-flight (TOF) camera. In this paper, we propose a fast 3D scene capturing system using one TOF camera at center and two high-resolution cameras at both sides. Since we need two depth data for both color cameras, we obtain two views' depth data from the center using the 3D warping technique. Holes in warped depth maps are filled by referring to the surrounded background depth values. In order to reduce mismatches of object boundaries between the depth and color images, we used the joint bilateral filter on the warped depth data. Finally, using two color images and depth maps, we generated 10 additional intermediate images. To realize fast capturing system, we implemented the proposed system using multi-threading technique. Experimental results show that the proposed capturing system captured two viewpoints' color and depth videos in real-time and generated 10 additional views at 7 fps.

Multi-GPU based Fast Multi-view Depth Map Generation Method (다중 GPU 기반의 고속 다시점 깊이맵 생성 방법)

  • Ko, Eunsang;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2014.11a
    • /
    • pp.236-239
    • /
    • 2014
  • 3차원 영상을 제작하기 위해서는 여러 시점의 색상 영상과 함께 깊이 정보를 필요로 한다. 하지만 깊이 정보를 얻을 때 사용하는 ToF 카메라는 해상도가 낮으며 적외선 신호의 주파수 문제 때문에 최대 3대까지 사용할 수 있다. 따라서 깊이 정보를 색상 영상과 함께 사용하기 위해서 깊이 정보의 업샘플링이 필수적이다. 업샘플링은 깊이 정보를 색상 카메라 위치로 3차원 워핑하고 결합형 양방향 필터(joint bilateral filter, JBF)를 사용하여 빈 영역을 채우는 방법으로 진행된다. 업샘플링은 오랜 시간이 소요되지만 그래픽스 프로세싱 유닛(graphics processing units, GPU)를 이용하여 빠르게 수행될 수 있다. 본 논문에서는 다중 GPU의 병렬 수행을 통하여 빠르게 다시점 깊이맵을 생성할 수 있는 방법을 제안한다. 다중 GPU 병렬 수행은 범용 목적 GPU(general purpose computing on GPU, GPGPU) 중의 하나인 CUDA를 이용하였으며, 본 논문에서 제안된 방법을 이용하여 3개의 GPU 사용한 실험 결과 초당 35 프레임의 다시점 깊이맵을 생성했다.

  • PDF

Fast Multi-View Synthesis Using Duplex Foward Mapping and Parallel Processing (순차적 이중 전방 사상의 병렬 처리를 통한 다중 시점 고속 영상 합성)

  • Choi, Ji-Youn;Ryu, Sae-Woon;Shin, Hong-Chang;Park, Jong-Il
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.34 no.11B
    • /
    • pp.1303-1310
    • /
    • 2009
  • Glassless 3D display requires multiple images taken from different viewpoints to show a scene. The simplest way to get multi-view image is using multiple camera that as number of views are requires. To do that, synchronize between cameras or compute and transmit lots of data comes critical problem. Thus, generating such a large number of viewpoint images effectively is emerging as a key technique in 3D video technology. Image-based view synthesis is an algorithm for generating various virtual viewpoint images using a limited number of views and depth maps. In this paper, because the virtual view image can be express as a transformed image from real view with some depth condition, we propose an algorithm to compute multi-view synthesis from two reference view images and their own depth-map by stepwise duplex forward mapping. And also, because the geometrical relationship between real view and virtual view is repetitively, we apply our algorithm into OpenGL Shading Language which is a programmable Graphic Process Unit that allow parallel processing to improve computation time. We demonstrate the effectiveness of our algorithm for fast view synthesis through a variety of experiments with real data.

Developing an HDR Imaging Method for an Ultra-thin Light-Field Camera (초박형 라이트필드 카메라를 위한 HDR 이미징 알고리즘 개발)

  • Jiwoong Na;Jaekwan Ryu;Yongjin Jo;Min H. Kim
    • Journal of the Korea Computer Graphics Society
    • /
    • v.29 no.3
    • /
    • pp.13-19
    • /
    • 2023
  • 카메라 센서의 한계로 인하여 촬영 장면에 따라 한 번의 촬영으로 모든 영역의 밝기가 적절하게 촬영되지 않는 경우가 존재한다. 이러한 센서의 한계는 하이 다이나믹 레인지 이미징 기술을 통해서 극복이 가능하다. 한 장면을 다양한 노출 설정으로 여러 번 촬영하는 브라케팅은 움직이는 피사체를 찍기에 적절하지 않으며 촬영 시간이 길다는 단점이 있다. 본 연구는 한 번의 촬영으로 서로 다른 노출의 이미지를 얻을 수 있는 소형 라이트필드 카메라를 제안한다. 라이트필드 카메라는 대표적으로 두 가지 형태가 있는데, 첫 번째는 여러 대의 카메라를 어레이로 배치한 라이트필드 카메라 시스템이며, 두 번째는 대물렌즈 뒤에 마이크로 렌즈 어레이를 배치한 카메라이다. 본 연구에서 제작된 초박형 라이트필드 카메라는 센서 위에 마이크로 렌즈어레이가 부착되어있는 형태의 카메라로 각 렌즈 조리개 크기를 다르게 설계하여 한 번의 촬영으로 다른 노출의 촬영 결과를 얻을 수 있게 설계되었다. 촬영된 단일 영상들을 전처리 하여 이미지 품질을 높인 이후, HDR 알고리즘을 통해 각 단일 이미지들보다 다이나믹 레인지가 넓은 이미지를 획득하도록 구현하였다. 또한 노출 시간을 기준으로 설계된 식을 수정하여 조리개값에 따라 다른 가중치를 둘 수 있도록 바꾸었고, 이를 통해 단 한 번의 촬영을 통한 HDR 이미징을 구현하였다.

A Synchronized Multiplexing Scheme for Multi-view HD Video Transport System over IP Networks (실시간 다시점 고화질 비디오 전송 시스템을 위한 동기화된 다중화 기법)

  • Kim, Jong-Ryool;Kim, Jong-Won
    • Journal of Broadcast Engineering
    • /
    • v.13 no.6
    • /
    • pp.930-940
    • /
    • 2008
  • This paper proposes a prototype realization of multi-view HD video transport system with synchronized multiplexing over IP networks. The proposed synchronized multiplexing considers the synchronization during video acquisition and the multiplexing for the interactive view-selection during transport. For the synchronized acquisition from multiple HDV camcorders through IEEE 1394 interface, we estimate the timeline differences among MPEG-2 compressed video streams by using global time of network between the cameras and a server and correct timelines of video streams by changing the time stamp of the MPEG-2 system stream. Also, we multiplex a selected number of acquired HD views at the MPEG-2 TS (transport stream) level for the interactive view-selection during transport. Thus, with the proposed synchronized multiplexing scheme, we can display synchronized HD view.