• 제목/요약/키워드: Omni-directional lens

검색결과 12건 처리시간 0.022초

영상합성을 위한 3D 공간 해석 및 조명환경의 재구성 (3D Analysis of Scene and Light Environment Reconstruction for Image Synthesis)

  • 황용호;홍현기
    • 한국게임학회 논문지
    • /
    • 제6권2호
    • /
    • pp.45-50
    • /
    • 2006
  • 실 세계 공간에 가상 물체를 사실적으로 합성하기 위해서는 공간 내에 존재하는 조명정보 등을 분석해야 한다. 본 논문에서는 카메라에 대한 사전 교정(calibration)없이 카메라 및 조명의 위치 등을 추정하는 새로운 조명공간 재구성 방법이 제안된다. 먼저, 어안렌즈(fisheye lens)로부터 얻어진 전방향(omni-directional) 다중 노출 영상을 이용해 HDR (High Dynamic Range) 래디언스 맵(radiance map)을 생성한다. 그리고 다수의 대응점으로부터 카메라의 위치를 추정한 다음, 방향벡터를 이용해 조명의 위치를 재구성한다. 또한 대상 공간 내 많은 영향을 미치는 전역 조명과 일부 지역에 국한되어 영향을 주는 방향성을 갖는 지역 조명으로 분류하여 조명 환경을 재구성한다. 재구성된 조명환경 내에서 분산광선추적(distributed ray tracing) 방법으로 렌더링한 결과로부터 사실적인 합성영상이 얻어짐을 확인하였다. 제안된 방법은 카메라의 사전 교정 등이 필요하지 않으며 조명공간을 자동으로 재구성할 수 있는 장점이 있다.

  • PDF

왜곡된 전 방향 영상에서의 좌표 변환 및 보정 (Coordinates Transformation and Correction Techniques of the Distorted Omni-directional Image)

  • 차선희;박용민;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 춘계종합학술대회
    • /
    • pp.816-819
    • /
    • 2005
  • 본 논문에서는 카타디옵트릭 카메라를 사용할 때 발생하는 공간 왜곡 문제를 해결하기 위해 3차원 포물면 좌표 변환 함수와 신경회로망을 이용한 좌표 변환 및 보정 기법을 제안한다. 본 연구에서 사용하는 포물면 거울을 이용한 카타디옵트릭 카메라는 360$^{\circ}$의 전 방향 영상을 얻을 수 있으나, 렌즈의 외형에 의해 영상이 왜곡되어 나타나는 특징을 가지고 있다. 따라서 3차원 공간상에서 왜곡 영상에서의 좌표를 실제 거리 좌표로 변환하기 위해 포물면 거울 초점과 이미지 상의 좌표를 포물면 거울 위로 투영시킨 좌표를 이용한 좌표 변환 함수를 사용한다. 이 과정에서 발생하는 오차를 BP(Back propagation) 신경망 알고리즘으로 수정한다.

  • PDF