• 제목/요약/키워드: 깊이 영상 보정

검색결과 87건 처리시간 0.026초

Zoom 영상 표현을 위한 영상 코딩 알고리듬 (An Image Coding Algorithm for the Representation of the Set of the Zoom Images)

  • 장보현;김도현;양영일
    • 대한전자공학회논문지SP
    • /
    • 제38권5호
    • /
    • pp.498-508
    • /
    • 2001
  • 본 논문에서는 zoom 영상 세트로부터 최적의 깊이와 텍스쳐 정보를 추출하는 효과적인 영상 코딩 알고리듬을 제안하였다. 제안된 알고리듬은 깊이 추출 단계와 텍스쳐 추출의 2단계로 구성되어 있다. 물체 공간에서 X-Y면을 삼각패치로 나누고 각 삼각패치 노드의 깊이 값은 깊이 추출 단계에서 결정한 후, 두 번째 단계에서 각 삼각패치의 텍스쳐를 추출한다. 깊이 추출 단계에서는 각 삼각패치의 노드를 중심으로 이루어진 사각형 윈도우 영역에 대하여 블록에 기반한 변이 보상 방법을 적용함으로 노드의 깊이를 결정한다. 텍스쳐 추출 단계에서는 아휜 변환에 기반한 변이 보상 모델을 이용하여 zoom 영상으로부터 삼각패치의 텍스쳐가 추출된다. 영상의 화질을 개선하기 위하여, 영상 평면에서 보정하는 대신 물체 공간에서 보정을 수행하였다.

  • PDF

Optical Flow와 Normalized Cut을 이용한 2차원 동영상의 3차원 동영상 변환 (Three-Dimensional Conversion of Two-Dimensional Movie Using Optical Flow and Normalized Cut)

  • 정재현;박길배;김주환;강진모;이병호
    • 한국광학회지
    • /
    • 제20권1호
    • /
    • pp.16-22
    • /
    • 2009
  • 본 논문에서는 2차원 동영상을 normalized cut과 optical flow를 이용하여 3차원 동영상으로 변환하는 방법을 제안하였다. 이를 통해 특정 디스플레이 장치와 특정 동영상 포맷에 국한되지 않는 2차원 동영상의 3차원 동영상 변환 방법을 제안하였다. 본 연구에서는 2차원 동영상의 3차원 변환을 위하여 먼저 영상을 객체로 분할하고, 분할된 객체의 깊이를 추정하는 방법을 사용하였다. Normalized cut은 영상분할의 한 방법으로, 본 연구에서는 연산속도 향상을 위하여 기존 방법에 watershed 알고리즘을 적용하였고, 정확도 향상을 위하여 가중치에 optical flow를 추가하였다. Normalized cut을 이용하여 분할된 영상의 깊이 정보를 추정하기 위하여 optical flow를 이용하였다. Optical flow의 차이를 통해 정의할 수 있는 가려진 영역의 분할 영상 변화를 통해 순서적 깊이 정보를 추정한다. 추정된 순서적 깊이를 보정하기 위해 optical flow의 절대적 크기를 이용해 운동시차로 상대적 깊이를 추정하였다. 최종적으로 추정된 깊이 정보는 순서적 깊이와 상대적 깊이의 곱을 평균 optical flow로 나누어, 순서적 깊이의 차이를 보정하였다. 제안한 방법의 검증을 위하여 2차원 동영상을 3차원 동영상으로 변환하여 깊이 정보가 추정됨을 확인하였다.

CGH를 위한 가상시점 깊이영상 합성 시스템 (Virtual View-point Depth Image Synthesis System for CGH)

  • 김택범;고민수;유지상
    • 한국정보통신학회논문지
    • /
    • 제16권7호
    • /
    • pp.1477-1486
    • /
    • 2012
  • 본 논문에서는 가상시점 깊이영상 생성 기법을 이용한 다양한 시점의 CGH(computer generated hologram) 생성 시스템을 제안한다. 제안한 시스템에서는 먼저 TOF(time of flight) 깊이 카메라를 이용하여 신뢰도 높은 기준시점 깊이영상을 획득하고 카메라 보정 과정을 통해 기준시점 카메라들의 카메라 파라미터를 추출한다. 가상시점 카메라의 위치가 정의되면 기준시점 카메라와의 거리와 위치를 고려하여 최적의 기준시점 카메라들을 선택한다. 가상시점 카메라와 가장 가까운 기준시점 카메라를 주 기준시점으로 결정하고 가상시점 깊이영상을 생성한다. 주 기준시점 카메라와 위치가 반대인 기준시점 카메라를 보조 기준시점으로 선택하여 가상시점 깊이영상을 생성한다. 주 기준시점을 통해 생성된 가상시점 깊이영상에 나타나는 가려짐 영역을 보조 기준시점으로 생성된 가상시점 깊이영상으로부터 찾아 보상한다. 보상이 되지 않고 남은 홀영역은 주변값 중 가장 작은 값으로 채워 최종 가상시점 깊이영상을 생성한다. 최종 가상시점 깊이 영상을 이용하여 CGH를 생성한다. 실험을 통해 기존의 기법보다 제안하는 가상시점 깊이영상 합성 시스템의 성능이 우수함을 확인하였다.

단일 프레임 영상에서 초점을 이용한 깊이정보 생성에 관한 연구 (A Study on Create Depth Map using Focus/Defocus in single frame)

  • 한현호;이강성;이상훈
    • 디지털융복합연구
    • /
    • 제10권4호
    • /
    • pp.191-197
    • /
    • 2012
  • 본 논문에서는 단일 프레임 영상에서 초점을 이용하여 초기 깊이정보를 추출한 후 입체 영상을 생성하는 방법을 제안하였다. 단일 프레임 영상에서 깊이를 추정하기 위해 원본 영상과 가우시안 필터를 중첩 적용하여 생성된 영상의 비교를 통해 영상의 초점 값을 추출하고 추출된 값을 기반으로 초기 깊이정보를 생성하도록 하였다. 생성된 초기 깊이정보를 Normalized cut을 이용한 객체 분할 결과에 할당하고 각 객체의 깊이를 객체 내 깊이 정보의 평균값으로 보정하여 동일 객체가 같은 깊이 값을 갖도록 하였다. 객체를 제외한 배경 영역은 객체를 제외한 배경 영역의 에지 정보를 이용하여 깊이를 생성하였다. 생성된 깊이를 DIBR(Depth Image Based Rendering)을 이용하여 입체 영상으로 변환하였고 기존 알고리즘을 통해 생성된 영상과 비교 분석하였다.

컬러 및 에지를 이용한 정지영상의 입체변환 (Edge and Color-based Conversion of 2D Images)

  • 김혜민;이동우;이관욱;김만배
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2011년도 하계학술대회
    • /
    • pp.345-347
    • /
    • 2011
  • 최근 3D 콘텐츠의 관심 증가는 Display 장치, 모바일 기기 등의 하드웨어적인 발전을 가져왔고, 이에 따른 입체 콘텐츠의 필요성이 대두되고 있다. 본 논문에서는 자동으로 2D영상을 3D입체영상으로 변환하는 기법을 제안한다. 영상에서 에지맵과 채도 영상을 추출하고 합성하여 깊이맵을 생성하고 필터를 통해 노이즈 제거 등 보정 작업하여 최종 깊이맵을 생성한다. 이 깊이맵을 이용해 2D영상의 시프트된 영상을 만들어 입체영상을 생성한다.

  • PDF

평면기반 컴퓨터 집적 영상 복원 기술의 신호모델을 이용한 3D 복원 영상 분석 (Analysis of 3D reconstructed images based on signal model of plane-based computational integral imaging reconstruction technique)

  • 신동학;유훈
    • 한국정보통신학회논문지
    • /
    • 제13권1호
    • /
    • pp.121-126
    • /
    • 2009
  • 평면기반 컴퓨터 집적 영상 복원 (CIIR)기술은 3D 물체에 대한 깊이 영상복원이 가능한 기술이다. 그러나 복원되는 깊이에 따라 영상에 잡음이 발생하게 되어 해상도를 저하시키는 문제점이 있다. 본 논문에서는 이 문제점을 극복하기 위해서 CIIR 기술에 대한 신호 모델을 설명하고, 이를 통하여 CIIR 기술에 발생하는 잡음과 이를 보정하는 방법을 소개한다. 컴퓨터적 실험을 통하여 2D Gaussian 영상의 복원 영상에 대한 잡음 특성을 조사하고, 보정 과정을 통하여 고해상도의 영상을 얻을 수 있음을 보였다.

깊이 영상을 이용한 수중 스테레오 영상의 가시성 개선 (Visibility Enhancement of Underwater Stereo Images Using Depth Image)

  • 신형철;김상훈;손광훈
    • 방송공학회논문지
    • /
    • 제17권4호
    • /
    • pp.684-694
    • /
    • 2012
  • 수중 환경에서 물과 부유물에 의한 빛의 감쇄와 산란은 수중 영상의 색상을 열화시키고 가시성을 저하시키는 주요 원인이 된다. 이러한 수중 산란광은 피사체와의 거리의 함수로 표현되므로 깊이 정보는 빛의 전달률을 계산하기 위한 중요한 정보를 제공한다. 본 논문에서는 깊이 영상을 이용하여 전달률을 측정하고 이를 기반으로 영상의 각 화소에 존재하는 산란에 의한 열화값을 제거함으로써 수중 스테레오 영상의 가시성을 개선하는 방법을 제안한다. 제안하는 방법은 제거해야 하는 열화값이 영상의 화소값 보다 크지 않도록 보정하여 가사성 개선 시 나타날 수 있는 부분적인 영상 왜곡을 방지한다. 또한 수중 스테레오 영상의 심각한 문제점 중의 하나인 색상 불균형을 효과적으로 보정하여 가시성 개선 후 좌, 우 영상의 동일성을 유지한다. 실험 결과는 다양한 환경의 수중 영상에 대하여 제안하는 가시성 개선 후 색대비가 영상에 따라 5%에서 14%이상 향상되었음을 보여준다.

2D/3D 변환을 위한 깊이정보 생성기법에 관한 연구 (A Study on 2D/3D image Conversion Method using Create Depth Map)

  • 한현호;이강성;이상훈
    • 한국산학기술학회논문지
    • /
    • 제12권4호
    • /
    • pp.1897-1903
    • /
    • 2011
  • 본 논문은 2D/3D 변환을 위한 객체 추출과 깊이정보(Depth-map) 생성기법에 관한 연구이다. 2D영상을 3D로 변환하기 위해서는 영상 객체 추출, 영상 거리 인식, 영상 생성, 재보정 단계를 거치게 되는데 본 논문에서는 영상 객체 추출과 영상 거리 인식에 해당하는 깊이정보를 생성하는 방법을 제안한다. 3D 영상으로의 변환은 2D 영상에서의 객체 추출과, 추출된 객체와 주변 배경을 구별하기 위한 거리감을 할당하는 깊이정보 생성이 중요하다. 보다 정확한 객체 추출과 깊이정보를 생성하기 위해 기존의 Optical flow에서 잡음을 제거한 방법을 제안하였다. 제안한 방법으로 2D 영상을 깊이정보가 포함된 영상으로 변환하여 영상의 깊이 정보가 추정됨을 알 수 있다.

키넥트 카메라를 이용한 실시간 가상 시점 영상 생성 기법 (Real-Time Virtual-View Image Synthesis Algorithm Using Kinect Camera)

  • 이규철;유지상
    • 한국통신학회논문지
    • /
    • 제38C권5호
    • /
    • pp.409-419
    • /
    • 2013
  • 키넥트 카메라는 마이크로소프트사에서 2010년 11월에 출시한 xbox360의 움직임 감지 카메라로 깊이 영상과 색상 영상을 획득할 수 있다. 하지만 적외선 패턴을 이용한 깊이 영상의 획득 방법의 한계로 인해 객체의 경계 주변으로 홀(hole) 및 잡음이 생기고 영상으로 재생 시 경계 주변에서 흔들림(flickering) 현상이 발생한다. 본 논문에서는 이러한 흔들림 현상을 보정하여 화질이 좋은 가상 시점 영상을 실시간으로 생성하는 기법을 제안한다. 제안하는 기법에서는 먼저 결합형 양방향 필터를 이용하여 경계 주변의 홀을 채운다. 경계 주변의 흔들림 현상은 화소를 탐색하여 처리하는 기법을 적용하여 보정한다. 향상된 깊이 영상과 색상 영상에 3D 워핑(3D warping) 기법을 적용하여 가상 시점 영상을 획득한다. 획득된 영상에서 가려짐 영역(occlusion region)으로 인하여 생기는 홀은 블록기반의 기울기 탐색 기법과 블록의 신뢰도를 이용하여 채우게 된다. 실험을 통해 제안하는 시스템이 가상 시점 영상을 실시간으로 합성하는 것을 확인하였다.

Sentinel-1 SAR 위성영상과 Water Cloud Model을 활용한 시공간 토양수분 산정 (Spatio-temporal soil moisture estimation using water cloud model and Sentinel-1 synthetic aperture radar images)

  • 정지훈;이용관;김세훈;장원진;김성준
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2022년도 학술발표회
    • /
    • pp.28-28
    • /
    • 2022
  • 본 연구는 용담댐유역을 포함한 금강 유역 상류 지역을 대상으로 Sentinel-1 SAR (Synthetic Aperture Radar) 위성영상을 기반으로 한 토양수분 산정을 목적으로 하였다. Sentinel-1 영상은 2019년에 대해 12일 간격으로 수집하였고, 영상의 전처리는 SNAP (SentiNel Application Platform)을 활용하여 기하 보정, 방사 보정 및 Speckle 보정을 수행하여 VH (Vertical transmit-Horizontal receive) 및 VV (Vertical transmit-Vertical receive) 편파 후방산란계수로 변환하였다. 토양수분 산정에는 Water Cloud Model (WCM)이 활용되었으며, 모형의 식생 서술자(Vegetation descriptor)는 RVI (Radar Vegetation Index)와 NDVI (Normalized Difference Vegetation Index)를 활용하였다. RVI는 Sentinel-1 영상의 VH 및 VV 편파자료를 이용해 산정하였으며, NDVI는 동기간에 대해 10일 간격으로 수집된 Sentinel-2 MSI (MultiSpectral Instrument) 위성영상을 활용하여 산정하였다. WCM의 검정 및 보정은 한국수자원공사에서 제공하는 10 cm 깊이의 TDR (Time Domain Reflectometry) 센서에서 실측된 6개 지점의 토양수분 자료를 수집하여 수행하였으며, 매개변수의 최적화는 비선형 최소제곱(Non-linear least square) 및 PSO (Particle Swarm Optimization) 알고리즘을 활용하였다. WCM을 통해 산정된 토양수분은 피어슨 상관계수(Pearson's correlation coefficient)와 평균제곱근오차(Root mean square error)를 활용하여 검증을 수행할 예정이다.

  • PDF