• 제목/요약/키워드: 깊이맵 생성

검색결과 83건 처리시간 0.03초

깊이맵 업샘플링을 이용한 객관적 메트릭과 3D 평가의 비교 (Comparison of Objective Metrics and 3D Evaluation Using Upsampled Depth Map)

  • 사이드 마흐모드포어;최창열;김만배
    • 방송공학회논문지
    • /
    • 제20권2호
    • /
    • pp.204-214
    • /
    • 2015
  • 업샘플링 깊이맵은 깊이 카메라로부터 획득된 깊이맵의 공간 해상도를 증가시키는 방법이다. 깊이맵의 성능은 입체영상, 멀티뷰의 3D 입체감과 밀접한 관계가 있다. PSNR 등의 객관적 메트릭으로 깊이맵의 업샘플링 성능을 평가하고, 생성된 입체영상은 주관적 평가를 통해서 입체감 및 시각적 피로도를 조사한다. 후자의 주관적 평가는 인적 물적 자원을 필요로 하는 반면에, 전자의 객관적 메트릭은 수학적 표현으로 정량적 수치값을 알려준다. 따라서 주관적 평가와 높은 상관관계를 가지는 객관적 메트릭이 주관적 평가를 대체할 수 있다면 많이 시간을 필요로 하는 주관적 평가가 불필요하다. 이를 위해 본 논문에서는 다양한 객관적 메트릭과 3D 주관적 평가 사이의 관계를 조사한 후에, 이용한 메트릭에 기반한 주관평가와 상관관계가 높은 객관적 메트릭을 제안한다. 업샘플링된 깊이맵의 성능을 측정하기 위해 다양한 참조영상 및 무참조영상 평가 메트릭들을 이용하였다. 주관적 평가는 DSCQS 입체영상 테스트로 수행되었다. 세 종류의 상관관계의 활용 및 분석을 통해서, SSIM과 Edge-PSNR이 주관적 평가를 대체할 수 있는 적합한 객관적 메트릭임을 실험을 통해서 검증하였다.

복합형 카메라 시스템을 이용한 자율주행 차량 플랫폼 (Autonomous Driving Platform using Hybrid Camera System)

  • 이은경
    • 한국전자통신학회논문지
    • /
    • 제18권6호
    • /
    • pp.1307-1312
    • /
    • 2023
  • 본 논문에서는 자율주행 인지 기술의 핵심 요소인 객체 인식과 거리 측정을 위해 서로 다른 초점거리를 가진 다시점 카메라와 라이다(LiDAR) 센서를 결합한 복합형 카메라 시스템을 제안한다. 제안한 복합형 카메라 시스템을 이용해 장면 안의 객체를 추출하고, 추출한 객체의 정확한 위치와 거리 정보를 생성한다. 빠른 계산 속도와 높은 정확도, 실시간 처리가 가능하다는 장점 때문에 자율주행 분야에서 많이 사용하고 있는 YOLO7 알고리즘을 이용해 장면 안의 객체를 추출한다. 그리고 객체의 위치와 거리 정보를 생성하기 위해 다시점 카메라를 이용해 깊이맵을 생성한다. 마지막으로 거리 정확도를 향상시키기 위해 라이다 센서에서 획득한 3차원 거리 정보와 생성한 깊이맵을 하나로 결합한다. 본 논문에서는 제안한 복합형 카메라 시스템을 기반으로 주행중인 주변 환경을 더욱 정확하게 인식함과 동시에 3차원 공간상의 정확한 위치와 거리 정보까지 생성할 수 있는 자율주행 차량 플랫폼을 제안하였으며, 이를 통해 자율주행 차량의 안전성과 효율성을 향상시킬 수 있을 것으로 기대한다.

그룹화된 객체별 깊이정보를 차등 적용한 2D/3D 동영상 변환 기법 (2D/3D Video Conversion Method using Differential Depth Information by Grouped Object)

  • 한성호;홍영표;이종용;이상훈
    • 한국산학기술학회:학술대회논문집
    • /
    • 한국산학기술학회 2011년도 추계학술논문집 2부
    • /
    • pp.445-448
    • /
    • 2011
  • 본 논문은 그룹화된 객체별 깊이정보를 차등 적용한 2D/3D 동영상 변환 기법에 관한 연구이다. 기존의 연구에서는 프레임의 움직임 정보와 기하학적 깊이 단서를 이용해 깊이정보를 추출하여 2D/3D 동영상 변환을 한다. 그러나 영상의 움직임 정보를 획득할 수 없는 영역의 경우 정확한 깊이정보를 얻을 수 없어 해당 영역의 3D 효과를 얻을 수 없는 문제점이 있다. 제안하는 기법에서는 객체 및 배경을 추출하고 움직임 정보와 기하학적 단서를 이용한 깊이정보를 그룹화된 객체별 차등 적용하여 움직임 정보가 없는 영역에서도 3D 효과를 얻을 수 있는 방법을 제안한다. 최종적으로 원본 영상과 생성된 깊이맵을 DIBR(Depth Image Based Rendering) 과정을 통해 3D 동영상을 생성한 결과 움직임 정보가 없는 영역에서도 3D 효과를 얻을 수 있었다.

  • PDF

학습기반의 객체분할과 Optical Flow를 활용한 2D 동영상의 3D 변환 (2D to 3D Conversion Using The Machine Learning-Based Segmentation And Optical Flow)

  • 이상학
    • 한국인터넷방송통신학회논문지
    • /
    • 제11권3호
    • /
    • pp.129-135
    • /
    • 2011
  • 본 논문에서는 2D 동영상을 3D 입체영상으로 변환하기 위해서 머신러닝에 의한 학습기반의 객체분할과 객체의 optical flow를 활용하는 방법을 제안한다. 성공적인 3D 변환을 가능하게 하는 객체분할을 위해서, 객체의 칼라 및 텍스쳐 정보는 학습을 통해 반영하고 움직임이 있는 영역 위주로 객체분할을 수행할 수 있도록 optical flow를 도입한 새로운 에너지함수를 설계하도록 한다. 분할된 객체들에 대해 optical flow 크기에 따른 깊이맵을 추출하여 입체영상에 필요한 좌우 영상을 합성하여 생성하도록 한다. 제안한 기법으로 인해 효과적인 객체분할과 깊이맵을 생성하여 2D 동영상에서 3D 입체동영상으로 변환됨을 실험결과들이 보여준다.

텍스처 분석 테이블을 이용한 3D 지형 객체 자동 생성 (Automatic 3D Map-Object Generation Using Texture Analysis Table)

  • 선영범;김태용;이원형
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(하)
    • /
    • pp.634-637
    • /
    • 2003
  • 본 논문은 지형중심 게임에서 깊이레벨에 기반한 텍스처 분석 테이블(TAT)을 이용하여 높이에 따라 정의된 지형 객체들을 효율적으로 생성 시킬 수 있는 알고리즘을 제안한다. 기존의 방법에서는 맵에디터 상에서 지형의 텍스처와 지형의 사실적 표현을 위해 나무나 바위 등의 지형 객체를 수작업으로 편집하였는데 제안한 알고리즘을 적용하면 깊이 단계별 최소의 지형 텍스처만을 사용하여 매우 다양한 종류의 지형 텍스처를 생성해 낼 수 있으며, TAT로부터 깊이 정보값을 활용하여 자연-객체들(Natural Object)을 자동으로 생성시킬 수 있다. 이로써 게임 지형을 제작하는데 불필요한 작업량을 줄일 수 있으며, 그만큼 인공-객체들(Artificial Obejct)을 생성하는데 많은 시간을 투입할 수 있다.

  • PDF

한 장의 영상으로부터 3차원 환경 모델의 생성 (The Generation of 3D Environment Model From a Single Image)

  • 류승택
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2004년도 춘계학술발표대회논문집
    • /
    • pp.696-699
    • /
    • 2004
  • 본 논문은 현실감 있는 영상 기반 환경 모델의 생성을 위해 영상 분할 기반 환경 모델링 방법을 제안한다. 입력 영상을 환경 특성에 따라 바닥면, 천정(하늘), 주변 물체들로 분할하고 분할된 바닥면이나 천정을 참조 평면으로 설정하고 주변 물체들의 깊이값을 계산함으로써 상세한 환경 모델을 얻을 수 있다. 영상 분할 환경 모델링 방법은 환경 맵에 적용하기 용이하며 환경의 특성에 따른 깊이값 추출 방법으로 손쉽게 환경 모델링이 가능하다. 또한, 시점이 이동되고 시차를 갖는 환경의 표현이 가능하다.

  • PDF

깊이 일관성을 보존하는 향상된 개체군기반 증가 학습을 이용한 고속 3차원 모델 추출 기법 (Fast 3D Model Extraction Algorithm with an Enhanced PBIL of Preserving Depth Consistency)

  • 이행석;장명호;한규필
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권1_2호
    • /
    • pp.59-66
    • /
    • 2004
  • 본 논문에서는 2차원 영상에서 3차원 깊이정보를 추출하기 위해서 진화연산 알고리즘을 적용한 고속 3차원 모델 추출 기법을 제안한다. 진화연산 알고리즘은 자연 선택과 개체군 유전학에 기반 한 생물학적 진화 과정을 통해 최적의 해를 찾는 효율적인 탐색 기법이다. 기존의 스테레오 정합 방법에서 생성되어진 2차원 깊이 정보인 변이 맵은 경계 부근에서 애매한 결과를 도출함으로써 변이의 세밀하고 정확한 정보를 잃어 실 영상과는 다소 차이를 갖는다. 본 논문에서는 소형 유전자 알고리즘을 스테레오 정합환경에 맞게 변형시키고, 생성된 변이 맵의 모호성을 해결하기 위해 이전 세대의 변이 맵으로부터 경계를 검출한 변이 경계정보에서 이웃한 화소의 변이 복잡도를 측정하여 복잡도에 따라 적응적 윈도우를 결정하여 정합에 사용하였다. 실험을 통해 제안한 방식이 이완 처리를 포함한 기존의 정합 방식보다 변이 맵 생성에 있어 보다 상세하고 매끄러운 변이 결과를 얻을 수 있었다.

가상 카메라와 깊이 맵을 활용하는 자유시점 입체 TIP 생성 (Free-viewpoint Stereoscopic TIP Generation Using Virtual Camera and Depth Map)

  • 이광훈;조철용;최창열;김만배
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 추계학술대회
    • /
    • pp.219-222
    • /
    • 2009
  • 자유시점 비디오는 단순히 수동적으로 비디오를 보는 것이 아니라 원하는 시점을 자유로이 선택하여 보는 능동형 비디오이다. 일반적으로 다양한 위치 및 다양한 각도에 위치하는 다수의 카메라로부터 촬영된 영상을 이용하여 제작하는데, 이 기술은 박물관 투어, 엔터테인먼트 등의 다양한 분야에서 활용된다. 본 논문에서는 자유시점 비디오의 새로운 분야로 한 장의 영상을 가상 카메라와 깊이맵을 이용하여 영상 내부를 네비게이션하는 자유시점 입체 Tour-Into-Picture (TIP)을 제안한다. 오래전부터 TIP가 연구되어 왔는데, 이 분야는 한 장의 사진 내부를 탐험하면서 애니메이션으로 볼 수 있게 하는 기술이다. 제안 방법은 전처리과정으로 전경 마스크, 배경영상, 및 깊이맵을 자동 및 수동 방법으로 구한다. 다음에는 영상 내부를 항해하면서 투영 영상들을 획득한다. 배경영상과 전객객체의 3D 모델링 데이터를 기반으로 가상 카메라의 3차원 공간 이동, yaw, pitch, rolling의 회전, look-around effect, 줌인 등의 다양한 카메라 기능을 활용하여 자유시점 비디오를 구현한다. 또한 깊이정보의 특성 및 구조에 따라 놀라운 시청효과를 전달하는 카메라 기능의 설정 방법을 소개한다. 소프트웨어는 OpenGL 및 MFC Visual C++ 기반으로 구축되었으며, 실험영상으로 조선시대의 작품인 신윤복의 단오풍정을 사용하였고, 입체 애니메이션으로 제작되어 보다 실감있는 콘텐츠를 제공한다.

  • PDF

편안한 3차원 비디오 시스템을 위한 영상 합성 오류 제거 (View Synthesis Error Removal for Comfortable 3D Video Systems)

  • 이천;호요성
    • 스마트미디어저널
    • /
    • 제1권3호
    • /
    • pp.36-42
    • /
    • 2012
  • 요즘 스마트폰과 스마트 TV와 같은 스마트 기기에 대한 관심이 높아짐에 따라 보다 다양한 기능을 포함하는 영상장치가 주목받고 있다. 특히, 스마트 TV는 3차원 영상을 서비스함에 따라 보다 고화질의 3차원 영상을 효율적으로 부호화하는 것이 중요하다. 최근 MPEG(moving picture experts group) 그룹에서는 다시점 영상과 깊이 영상을 동시에 압축하여 부호화하는 표준화 작업이 진행되고 있다. 제한된 수의 시점을 이용하여 편안한 3차원 입체 영상을 재현하기 위해서는, 충분한 수의 중간시점의 영상을 생성해야 한다. 깊이정보를 이용하여 3차원 워핑을 수행하면 가상시점의 영상을 합성할 수 있는데, 깊이값의 정확도에 따라 화질이 달라진다. 스테레오 정합 기술을 이용하여 깊이맵을 획득할 때 객체의 경계와 같은 깊이값 불연속 영역에서 깊이값 오류가 발생할 수 있다. 이러한 오류는 생성한 중간영상의 배경에 원치 않는 잡음을 생성한다. 본 논문에서는 편안한 3차원 비디오 재현을 위하여 깊이맵을 기반으로 중간시점의 영상을 생성할 때 발생하는 경계 잡음을 제거하는 방법을 제안한다. 중간시점의 영상을 합성할 때 비폐색 영역을 합성한 후 경계 잡음이 발생할 수 있는 영역을 구별한 다음, 잡음이 없는 참조영상으로 대체함으로써 경계 잡음을 제거할 수 있다. 실험 결과를 통해 배경 잡음이 사라진 자연스러운 합성영상을 생성했다.

  • PDF

OpenGL을 이용한 모델기반 3D 다시점 영상 객체 구현 (Model-based 3D Multiview Object Implementation by OpenGL)

  • 오원식;김동욱;김화성;유지상
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2006년도 학술대회
    • /
    • pp.59-62
    • /
    • 2006
  • 본 논문에서는 OpenGL Rendering을 이용한 모델기반 3D 다시점 영상의 객체 구현을 위한 구성과 각 모듈에 적용되는 알고리즘에 대해 중점적으로 연구하였다. 한 장의 텍스쳐 이미지와 깊이 맵(Depth Map)을 가지고 다시점 객체를 생성하기 위해, 먼저 깊이 정보의 전처리 과정을 거친다. 전처리 된 깊이 정보는 OpenGL상에서의 일정 간격의 꼭지점(Vertex) 정보로 샘플링 된다. 샘플링 된 꼭지점 정보는 깊이 정보를 z값으로 가지는 3차원 공간 좌표상의 점이다. 이 꼭지점 정보를 기반으로 텍스쳐 맵핑 (texture mapping)을 위한 폴리곤(polygon)을 구성하기 위해 딜루이니 삼각화(Delaunay Triangulations) 알고리즘이 적용되었다. 이렇게 구성된 폴리곤 위에 텍스쳐 이미지를 맵핑하여 OpenGL의 좌표 연산을 통해 시점을 자유롭게 조정할 수 있는 객체를 만들었다. 제한된 하나의 이미지와 깊이 정보만을 가지고 좀 더 넓은 범위의 시점을 가지는 다시점 객체를 생성하기 위해, 새로운 꼭지점을 생성하여 폴리곤을 확장시켜 기존보다 더 넓은 시점을 확보할 수 있었다. 또한 렌더링된 모델의 경계 영역 부분의 깊이정보 평활화를 통해 시각적인 개선을 이룰 수 있었다.

  • PDF