• 제목/요약/키워드: 3D 깊이 카메라

검색결과 201건 처리시간 0.023초

체적형 객체 촬영을 위한 RGB-D 카메라 기반의 포인트 클라우드 정합 알고리즘 (Point Cloud Registration Algorithm Based on RGB-D Camera for Shooting Volumetric Objects)

  • 김경진;박병서;김동욱;서영호
    • 방송공학회논문지
    • /
    • 제24권5호
    • /
    • pp.765-774
    • /
    • 2019
  • 본 논문에서는 다중 RGB-D 카메라의 포인트 클라우드 정합 알고리즘을 제안한다. 일반적으로 컴퓨터 비전 분야에서는 카메라의 위치를 정밀하게 추정하는 문제에 많은 관심을 두고 있다. 기존의 3D 모델 생성 방식들은 많은 카메라 대수나 고가의 3D Camera를 필요로 한다. 또한 2차원 이미지를 통해 카메라 외부 파라미터를 얻는 기존의 방식은 큰 오차를 가지고 있다. 본 논문에서는 저가의 RGB-D 카메라 8대를 사용하여 전방위 3차원 모델을 생성하기 위해 깊이 이미지와 함수 최적화 방식을 이용하여 유효한 범위 내의 오차를 갖는 좌표 변환 파라미터를 구하는 방식을 제안한다.

Synthetic aperture 집적 영상을 이용한 3D 영상 디스플레이 방법 (3D Image Display Method using Synthetic Aperture integral imaging)

  • 신동학;유훈
    • 한국정보통신학회논문지
    • /
    • 제16권9호
    • /
    • pp.2037-2042
    • /
    • 2012
  • Synthetic aperture 집적 영상 (SAII) 기술은 다수의 카메라를 이용하여 고해상도의 요소 영상을 획득할 수 있는 유망한 3D 이미징 기술이다. 본 논문에서는 SAII 기술을 이용하여 집적 영상 디스플레이를 수행하는 공간 3D 영상을 표시하는 방법을 제안한다. SAII로부터 얻어지는 요소 영상은 직접적으로 공간 3D 영상으로 사용될 수 없기 때문에 깊이 지도를 추출하여 새로운 디스플레이용 요소 영상으로 변환하여 공간 3D 영상을 표시한다. 제안하는 방법의 유용함을 보이기 위해서 장난감 3D 물체를 사용하여 기초적인 실험을 수행하고, 또한 공간 3D 영상이 구현된 실험 결과를 제시한다.

동영상에서 물체의 추출과 배경영역의 상대적인 깊이 추정 (Moving Object Extraction and Relative Depth Estimation of Backgrould regions in Video Sequences)

  • 박영민;장주석
    • 정보처리학회논문지B
    • /
    • 제12B권3호
    • /
    • pp.247-256
    • /
    • 2005
  • 컴퓨터 비젼에 관한 고전적인 연구 주제들 중의 하나는 두 개 이상의 이미지로부터 3차원 형상을 재구성하는 3차원 변환에 관한 것이다. 본 논문은 단안 카메라로 촬영한 일반적인 2차원 영상물에서 능동적으로 움직이는 3차원 영상의 깊이 정보를 추출하는 문제를 다룬다. 연속하는 프레임들간의 영상 블록의 움직임을 평가하여 카메라의 회전과 배율효과를 보상하고 다음과 같은 두 개의 단계에 걸쳐 블록의 움직임을 추출한다. (i) 블록의 위치와 움직임을 이용하여 카메라의 이동과 초점거리에 대한 전역 파라메타를 계산한다. (ii) 전역 파라메타, 블록의 위치와 움직임을 이용하여 평균 영상 깊이에 대한 상대적인 블록의 깊이를 계산한다. 다양한 동영상을 대상으로 특이점인 경우와 그렇지 않은 경우를 실험하였다. 결과로 얻어지는 상대적인 깊이 정보와 객체는 인간이 판단하는 경우와 동일함을 보였다.

고품질 및 고해상도 깊이 영상 구현을 위한 새로운 결합 보간법 (The new fusion interpolation for high resolution depth image)

  • 김지현;최진욱;류승철;김동현;손광훈
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2012년도 하계학술대회
    • /
    • pp.40-43
    • /
    • 2012
  • 3차원 영상 기술은 방송, 영화, 게임, 의료, 국방 등 다양한 기존 산업들과 융합하며 새로운 패러다임을 형성하고 있으며, 고품질 및 고해상도의 3차원 영상 획득에 대한 필요성이 강조되고 있다. 이에 따라, 최근에는 3차원 입체 영상을 제작 하는 방법 중 하나인 2D-plus-Depth 구조에 대한 연구가 활발히 진행되고 있다. 2D-plus-Depth 구조는 Charge-Coupled Device(CCD) 센서 등을 이용한 일반 카메라와 깊이 카메라를 결합한 형태로써 이 구조로부터 얻은 깊이 영상의 해상도를 상향 변환하기 위해서 Joint Bilateral Upsampling(JBU)[1], 컬러 영상의 정보를 활용한 보간법[2] 등의 방법들이 사용된다. 하지만 이 방법들은 깊이 영상을 높은 배율로 상향 변환할 경우 텍스처가 복사되거나 흐림 및 블록화 현상이 발생하는 문제점이 있다. 본 논문에서는 2D-plus-Depth 구조에서 얻은 고해상도 컬러 영상에서 보간 정보를 구하고 이 정보를 저해상도의 깊이 영상에 적용하여 상향 변환된 가이드 깊이 영상을 제작한다. 이 가이드 깊이 영상을 Bilateral Filtering[8]을 이용함으로써 고품질의 고해상도 깊이 영상을 획득한다. 실험 결과 제안하는 방법으로 해상도를 상향 변환을 할 경우에 기존의 보간법들에 비해 깊이 영상의 특성을 잘 보존함을 확인할 수 있고, 가이드 깊이 영상에 필터링을 처리한 결과가 JBU의 결과보다 향상됨을 확인할 수 있다.

  • PDF

랜덤워크 확률 모델을 이용한 깊이 영상 보간 방법 (Depth Interpolation Method using Random Walk Probability Model)

  • 이교윤;호요성
    • 한국통신학회논문지
    • /
    • 제36권12C호
    • /
    • pp.738-743
    • /
    • 2011
  • 고해상도 3차원 깊이 영상은 고품질의 3차원 방송을 위해 필요한 중요한 정보이다. 깊이 카메라는 정확한 깊이 정보를 실시간으로 얻을 수 있지만, 카메라 물리적 한계로 인해 저해상도의 깊이 영상만 이용한다. 본 논문에서는 저해상도의 깊이 영상과 색상 영상을 이용하여 색상 영상을 보간 하는 방법을 제안한다. 제안하는 방법은 랜덤워크 확률 모델을 이용하여 각 화소들이 초기 깊이값과 같을 확률값을 정의하여 가장 높은 확률을 가지는 초기 깊이값을 나머지 화소들에 복사한다. 제안한 방법은 인접한 화소들만을 이용하는 것이 아니라 경로를 따라 비용을 계산함으로써, 여러 화소에 걸친 색상의 변화율이 고려되어 물체의 경계 주변에서 색상 영역과 깊이 영상간의 경계가 일치하는 향상된 깊이 영상을 얻을 수 있다.

로스 텍스처 필터 기반 영상의 자동 깊이 생성 기법 (Automatic Depth Generation Using Laws' Texture Filter)

  • 조철용;김제동;장성은;최창열;김만배
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 추계학술대회
    • /
    • pp.87-90
    • /
    • 2009
  • 영상의 깊이 정보를 추출하는 것은 매우 어려운 연구이다. 다양한 유형의 영상 구조의 분석이 필요하지만 많은 경우에 주관적인 판단의 도움이 필요하다. 본 논문에서는 로스 텍스처 필터를 기반으로 정지 영상의 깊이를 자동으로 생성하는 방법을 제안한다. 로스 텍스처 필터는 단안 비전에서 3D 깊이를 얻기 위한 방법으로 활용되었는데, 실제 2D 영상에서 깊이를 예측하기 위해 텍스처 편차, 텍스처 기울기, 색상 등을 활용한다. 로스 필터는 $1{\times}5$ 벡터로부터 콘볼루션을 이용하여, 20여개의 $5{\times}5$ 콘볼루션 필터가 구해지는데, 영상에 필터를 적용하여 로스 에너지를 계산한다. 구해진 에너지를 깊이 맵으로 변환하고, 깊이 맵에서 특징 점을 구하고, 특징 점들로부터 델러노이 삼각화를 이용하여 삼각형 깊이 메쉬를 얻는다. 구해진 깊이 맵의 성능을 측정하기 위해 카메라 시점을 변경하면서 영상의 3D 구조를 분석하였으며, 입체영상을 생성하여 3D 입체 시청 결과를 분석하였다. 실험에서는 로스 텍스처 필터를 이용하는 깊이 생성 방법이 좋은 효과를 얻는 것을 확인하였다.

  • PDF

합성 촬영 집적 영상의 신호 모델 해석 방법 (Analysis method of signal model for synthetic aperture integral imaging)

  • 유훈
    • 한국정보통신학회논문지
    • /
    • 제14권11호
    • /
    • pp.2563-2568
    • /
    • 2010
  • 합성 촬영 집적 영상 (synthetic aperture integral imaging; SAII) 기술은 하나의 카메라를 이동하여 3D 물체에 대한 다시점 영상을 획득하여 깊이 정보의 3D 영상을 복원이 가능한 기술이다. 이 방법은 크게 3D 물체의 요소 영상을 픽업하는 과정과 픽업된 요소 영상을 이용하여 컴퓨터 기반으로 3D 깊이 영상들을 복원하는 두 과정으로 나눈다. 본 논문에서는 이 SAII에 대한 신호 모델을 설명하고, 이를 통하여 발생하는 잡음을 정의하고 해석하였다. SAII에 대한 신호해석을 통하여 다시점 영상을 얻기 위한 카메라 이동 거리를 줄임으로써 영상 잡음감소와 계산 속도 개선을 동시에 얻을 수 있음을 보고한다.

다시점 카메라 모델의 기하학적 특성을 이용한 가상시점 영상 생성 기법 (Virtual Viewpoint Image Synthesis Algorithm using Multi-view Geometry)

  • 김태준;장은영;허남호;김진웅;유지상
    • 한국통신학회논문지
    • /
    • 제34권12C호
    • /
    • pp.1154-1166
    • /
    • 2009
  • 본 논문에서는 다시점 동영상을 이용한 기저선(baseline)상의 가상시점 영상 생성과 기저선상 외의 가상시점 영상 생성을 위한 기법을 제안한다. 제안한 기법에서는 가상 시점을 생성하기 위하여 영상의 깊이(depth)정보와 고정된 카메라의 기하학적 특성을 이용한 3차원 워핑(warping) 방법을 적용한다. 영상의 실제 3차원 좌표는 영상의 깊이 정보와 카메라의 기하학적 특성을 이용하여 산출되고, 산출된 3차원 좌표는 임의 위치의 가상 카메라에 투영(projection)되어 2차원의 가상 시점 영상이 생성된다. 제안한 방법에 의해 생성된 기저선상의 중간시점 영상은 기존의 방법으로 생성된 중간시점 영상보다 PSNR이 0.5dB 이상 향상된 결과를 나타내었고, 기저선상 외의 가상 시점 영상에서 나타나는 많은 미처리 영역을 보다 효과적으로 처리하여 가상시점 영상을 생성할 수 있었다.

기지 패턴의 카메라 Calibration에 기반한 물체의 깊이 데이터 추출에 관한 연구 (A Study on Depth Data Extraction for Object Based on Camera Calibration of Known Patterns)

  • 조현우;서경호;김태효
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2001년도 하계 학술대회 논문집(KISPS SUMMER CONFERENCE 2001
    • /
    • pp.173-176
    • /
    • 2001
  • 본 논문에서는, 기지패턴에 대한 카메라 Calibration을 이용하여 물체의 깊이정보를 추출하기 위한 새로운 계측시스템을 구축하였다. 3차원 실세계좌표와 2차원 영상좌표계의 관계를 해석하였고, 이로부터 카메라의 Calibration 알고리즘을 확립하여 카메라의 내부 변수와 외부 변수를 구하였다. 3차원 공간의 계측면을 평면으로 가정하고 평면의 방정식과 좌표계 변환 방정식으로부터 뉴-턴 랩슨법을 이용하여 최소 값에 대응하는 근사치로 깊이정보를 추출하고 실시간 처리를 위해 이를 Look-up 테이블에 저장하였다. 실험시스템에서 슬릿 레이저 투광기를 물체에 조사하고 이로부터 x-z평면의 2D 영상을 획득하였다. 이 과정을 물체를 이동시키면서 연속으로 획득하여 3D 영상 정보를 얻었다. 3D 형상을 모니터에 표시하기 위해 OpenGL을 이용하여 계측된 3D 형상을 얻을 수 있었다. 계측 결과, 분해능에서 약 1%의 오차가 발생하였으며, 이는 선형 모-터의 진동성분과 계측시스템의 광학적 오차에 기인된 것이라 판단되었다. 이를 개선하기 위해 기구적 시스템의 안정과 정밀용 카메라를 사용하므로 해결할 수 있으리라 판단된다.

  • PDF

영상미학적 접근의 3D 애니메이션 카메라 워킹 연구 - 허버트 제틀의 이론을 중심으로 - (A study on the camera working of 3D animation based on applied media aesthetic approach - Based on the Herbert Gettl's theory -)

  • 주광명;오병근
    • 디자인학연구
    • /
    • 제18권3호
    • /
    • pp.209-218
    • /
    • 2005
  • 영상 제작의 창작과정에서 제작자들은 의식적으로 혹은 무의식적으로 다양한 미적표현의 선:l을 하게 된다. 이러한 선택을 위해 공감될 수 있는 보편적인 미학적 원리가 제시될 수 있다면 제작 과정의 시행착오를 줄일 수 있는 심미적 판단의 기준이 될 수 있을 것이다. 본 논문은 3D 애니메이션 제작환경에 맞는 카메라 기법의 미학적 기준을 정립하여 애니매이션 제작과정에서 최적의 화면 구성을 하기 위한 이론적 접근을 시도했다. 허버트 제틀(Herbert Zettl)의 영상 미학의 구성원리 중 카메라와 관련이 있는 힘과 구도의 2차원, 깊이와 입체의 3차원, 시간과 동작의 4차원 영역으로 나누어 고찰하였다. 이러한 이론접근을 위해 일반 영화영상을 위한 카메라와 3D 애니메이션에서 카메라 기법을 비교하여 분석하였다. 2차원 영역은 종횡비에 따른 여백 및 크기, 방향에 따른 힘의 논리, 힘의 상호작용과 샷(shot)의 크기를 중심으로, 3차원 영역은 심도와 관련한 Z-축의 축소와 확장, 깊이감 표현을 중심으로, 4차원 영역은 피사체와의 이동방향에 따른 시간, 주관적시간, 피사체 시점, 동작 등을 중심으로 3D 애니메이션 제작환경에 맞는 원리로 재구성하였다. 이러한 전통적 카메라 기법의 영상미학 원리들이 3D 애니메이션에서의 카메라를 이용한 화면 구성에 적용될 때 효율적 제작 진행을 위해 활용될 수 있다. 또한 이를 기반으로 다양한 조형언어들과의 상호 관련성을 연구한다면 3D애니메이션 제작을 위한 더욱 창의적인 화면구성 기법들이 정립될 수 있을 것이다.

  • PDF