• 제목/요약/키워드: 전방향 카메라

검색결과 40건 처리시간 0.02초

전방향 카메라를 사용한 원거리 추정을 위한 파라미터 추출 (Camera Parameter Extraction For Long Distance Estimation Using Omnidirectional Camera)

  • 이강산;전주일;강현수
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 추계학술대회
    • /
    • pp.227-230
    • /
    • 2009
  • 본 논문은 전방향 스테레오 카메라를 이용한 거리 측정을 위해 반드시 수행되어야 하는 전방향 카메라의 교정방법에 관해 기술한다. 전방향 스테레오 카메라의 교정에 있어서, 두 대의 전방향 카메라를 각각 독립적으로 교정하거나 두 대의 카메라의 베이스라인이 크지 않은 경우의 교정은 기존의 연구된 다양한 방법을 통해 가능하다. 그러나 전방향 스테레오 카메라를 이용하여 원거리를 측정하기 위해서는 베이스라인이 충분히 커야 하며, 충분히 큰 베이스라인은 두 대의 전방향 카메라를 동시에 교정하는 것이 매우 힘들다. 이는 두 대의 전방향 카메라에서 촬영된 교정을 위한 테스트패턴의 크기가 최소한 한 대의 전방향 카메라에서 매우 작은 크기로 나타나기 때문이다. 따라서 본 논문에서는 베이스라인이 큰 두 대의 전방향 카메라의 교정을 위한 방법을 제안하고 실험을 통해 입증한다.

  • PDF

큰 베이스라인을 가진 전방향 스테레오 카메라의 교정 방법 (Calibration Method for Omnidirectional Stereo Camera with Large Baseline)

  • 이강산;강현수
    • 한국콘텐츠학회논문지
    • /
    • 제10권6호
    • /
    • pp.10-17
    • /
    • 2010
  • 본 논문은 전방향 스테레오 카메라를 이용한 거리 측정을 위해 반드시 수행되어야 하는 전방향 카메라의 교정방법에 관해 기술한다. 전방향 스테레오 카메라의 교정에 있어서, 두 대의 전방향 카메라를 각각 독립적으로 교정하거나 두 대의 카메라의 베이스라인이 크지 않은 경우의 교정은 기존의 연구된 다양한 방법을 통해 가능하다. 그러나 전방향 스테레오 카메라를 이용하여 원거리를 측정하기 위해서는 베이스라인이 충분히 커야 하며, 충분히 큰 베이스라인은 두 대의 전방향 카메라를 동시에 교정하는 것이 매우 힘들다. 이는 두 대의 전방향 카메라에서 촬영된 교정을 위한 테스트패턴의 크기가 최소한 한 대의 전방향 카메라에서 매우 작은 크기로 나타나기 때문이다. 따라서 본 논문에서는 베이스라인이 큰 두 대의 전방향 카메라의 교정을 위한 방법을 제안하고 실험을 통해 검증한다.

사영된 컨투어를 이용한 전방향 카메라 모델의 검증 방법 (Verification Method of Omnidirectional Camera Model by Projected Contours)

  • 황용호;이재만;홍현기
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.994-999
    • /
    • 2007
  • 전방향(omnidirectional) 카메라 시스템은 보다 적은 수의 영상으로부터 주변 장면(scene)에 대한 많은 정보를 취득할 수 있는 장점이 있기 때문에 전방향 영상을 이용한 자동교정(self-calibration)과 3차원 재구성 등의 연구가 활발히 진행되고 있다. 본 논문에서는 기존에 제안된 교정 방법들을 이용하여 추정된 사영모델(projection model)의 정확성을 검증하기 위한 새로운 방법이 제안된다. 실 세계에서 다양하게 존재하는 직선 성분들은 전방향 영상에 컨투어(contour)의 형태로 사영되며, 사영모델과 컨투어의 양 끝점 좌표 값을 이용하여 그 궤적을 추정할 수 있다. 추정된 컨투어의 궤적과 영상에 존재하는 컨투어와의 거리 오차(distance error)로부터 전방향 카메라의 사영모델의 정확성을 검증할 수 있다. 제안된 방법의 성능을 평가하기 위해서 구 맵핑(spherical mapping)된 합성(synthetic) 영상과 어안렌즈(fisheye lens)로 취득한 실제 영상에 대해 제안된 알고리즘을 적용하여 사영모델의 정확성을 판단하였다.

  • PDF

Catadioptric 전방향 스테레오 영상시스템 및 3차원 좌표 복원 (Catadioptric Omnidirectional Stereo Imaging System and Reconstruction of 3-dimensional Coordinates)

  • 김순철;이수영
    • 한국산학기술학회논문지
    • /
    • 제16권6호
    • /
    • pp.4108-4114
    • /
    • 2015
  • 광학 반사체를 이용하여 카메라 영상을 얻는 방법을 catadioptric 영상법이라고 부른다. Catadioptric 영상법은 360도 모든 방향의 시각정보를 한 장의 영상면에 담기 위한 전방향 영상 획득시스템에 많이 사용된다. 대표적인 전방향 광학 반사체로서 그릇 모양의 3차원 쌍곡면형 거울이 있다. 본 논문에서는 쌍곡면형 반사체를 이용한 catadioptric 전방향 영상 시스템에 간단히 오목 렌즈를 추가함으로써 하나의 카메라로 시점이 다른 전방향 스테레오 영상을 얻는 방법에 관해 연구하였다. 시점이 다른 전방향 스테레오 영상 정합을 통해 대상 물체의 3차원 좌표를 복원할 수 있다. 본 전방향 스테레오 영상 시스템은 한 대의 카메라를 사용하므로 경제적이며, 스테레오 영상간에 카메라 내재 매개변수가 같으므로 정합이 쉽다는 장점이 있다. 본 논문에서는 3차원 좌표값 측정에 필요한 매개변수들을 3 단계 캘리브레이션을 이용하여 추출하였고, 실험을 통해 전방향 3차원 거리측정 성능을 검증하였다. 또한 거리측정 정밀도를 분석하여 본 스테레오 영상 시스템의 신뢰할 만한 측정범위를 제시하였다.

전방향 스테레오 영상 시스템

  • 이수영
    • 제어로봇시스템학회지
    • /
    • 제19권4호
    • /
    • pp.32-38
    • /
    • 2013
  • 전방향 영상 시스템은 한 장의 영상에 360도 모든 방향의 영상정보를 담을 수 있는 영상획득 시스템을 의미한다. 기하광학소자를 이용하여 사람의 눈이나 기존의 카메라로는 한 번에 볼 수 없는 매우 넓은 범위의 영상데이터를 효율적으로 얻을 수 있다. 또한 전방향 영상획득의 원리와 시점이 다른 두 영상, 즉 스테레오 영상획득의 원리를 적용한 전방향 스테레오 영상 시스템은 두 영상간의 정합을 통해 3차원 거리를 측정할 수 있다는 특징이 있다. 본 고에서는 전방향 스테레오 영상획득에 관해 기존에 제안된 연구결과들의 광학적 원리와 장단점을 조사, 비교하였다.

사영 컨투어를 이용한 전방향 카메라의 움직임 추정 방법 (Omnidirectional Camera Motion Estimation Using Projected Contours)

  • 황용호;이재만;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제44권5호
    • /
    • pp.35-44
    • /
    • 2007
  • 넓은 시야각을 갖는 전방향(omnidirectional) 카메라 시스템은 적은 수의 영상으로도 주변 장면에 대해 많은 정보를 취득할 수 있는 장점으로 카메라 교정(calibration), 공간의 3차원 재구성(reconstruction) 등에 널리 응용되고 있다. 실 세계에 존재하는 직선 성분들은 전방향 카메라 모델에 의해 컨투어로 사영(projection)되기 때문에, 영상간에 대응되는 컨투어 성분은 카메라의 회전 및 이동 등의 추정에 효과적으로 활용될 수 있다. 본 논문에서는 전방향 카메라의 변환 파라미터를 추정하기 위한 2단계 최소화 알고리즘이 제안된다. 제안된 알고리즘은 컨투어를 이루는 대응점에 대한 에피폴라(epipolar) 평면과 3차원 벡터간의 각도 오차함수 및 사영된 컨투어의 거리 오차를 단계별로 최소화하는 카메라 파라미터를 계산한다. 등거리(equidistance) 사영된 합성영상과 어안렌즈(fisheye lens)로 취득한 실제 영상을 대상으로 제안된 알고리즘이 카메라의 위치 정보를 정확하게 추정함을 확인하였다.

인라이어 분포를 이용한 전방향 카메라의 보정 (Calibration of Omnidirectional Camera by Considering Inlier Distribution)

  • 홍현기;황용호
    • 한국게임학회 논문지
    • /
    • 제7권4호
    • /
    • pp.63-70
    • /
    • 2007
  • 넓은 시야각을 갖는 전방향(omnidirectional) 카메라 시스템은 적은 수의 영상으로도 주변 장면에 대해 많은 정보를 취득할 수 있는 장점으로 감시, 3차원 해석 등의 분야에 널리 응용되고 있다. 본 논문에서는 어안(fisheye) 렌즈를 이용한 전방향 카메라로 입력된 영상으로부터 카메라의 이동 및 회전 파라미터를 자동으로 추정하는 새로운 자동보정 알고리즘이 제안되었다. 먼저, 카메라 위치를 임의의 각 도로 변환하여 얻어진 영상을 이용해 일차 매개변수로 표현된 카메라의 사영(projection)모델을 추정한다. 그리고 이후 다양하게 변환되는 카메라의 위치에 따라 에센셜(essential) 행렬을 구하며, 이 과정에서 대상 영상으로부터 적합한 인라이어(inlier) 집합을 구하기 위해 특징점이 영역 내에 분포 정도를 반영하는 표준편차(standard deviation)를 정량적(quantitative) 기준으로 이용한다. 다양한 실험을 통해 제안된 알고리즘이 전방향 카메라의 사영 모델과 회전, 이동 등의 변환 파라미터를 정확하게 추정함을 확인하였다.

  • PDF

투영곡선의 자동정합을 이용한 전방향 카메라 보정 (Using Contour Matching for Omnidirectional Camera Calibration)

  • 황용호;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제45권6호
    • /
    • pp.125-132
    • /
    • 2008
  • 감시 및 로보트 분야 등에서 다양하게 사용되는 전방향(omnidirectional) 카메라 시스템은 넓은 시야각을 제공한다. 전방향 카메라의 사영모델과 외부변수를 추정하는 대부분의 기존 연구에서는 사전에 설정된 영상 간의 대응관계를 가정한다. 본 논문에서는 두 장의 전방향 영상으로부터 투영곡선을 자동으로 정합하여 카메라의 외부변수를 추정하는 새로운 알고리즘이 제안된다. 먼저 두 영상에서 대응되는 특징점으로부터 에피폴라 구속조건을 계산하여 초기 카메라 변수를 계산한다. 검출된 특징점과 투영곡선을 대상으로 능동적(active) 정합방법으로 대응관계를 결정한다. 최종 단계에서 대응 투영곡선을 구성하는 양 끝점의 에피폴라(epipolar) 평면과 3차원 벡터의 각도 오차를 최소화하는 카메라 변수를 추정한다. 합성영상과 어안렌즈(fisheye lens)로 취득된 실제 영상을 대상으로 제안된 알고리즘이 기존 방법에 비해 카메라의 외부변수를 정확하게 추정함을 확인하였다.

변수화된 영상 보정을 통한 전방향 영상 생성 방법 (Omni-directional Image Generation Algorithm with Parametric Image Compensation)

  • 김유나;심동규
    • 방송공학회논문지
    • /
    • 제11권4호
    • /
    • pp.396-406
    • /
    • 2006
  • 본 논문에서는 변수화된 영상 보정을 통한 전방향 영상 (Omni-directional image) 생성 방법을 제안한다. 제안한 방법은 모든 방향의 영상을 포함하고 영상 합성 시에 발생하는 왜곡과 에러를 최소화하는 전방향 영상을 생성하기 위해, 원형 좌표계를 기반으로 평면 영상을 원형 영상으로 변환한다. 카메라로 획득한 각각의 영상은 카메라의 시스템과 외부 환경 조건에 따라 발생하는 비그네이팅 효과와 조명 변화를 포함하고 있으므로, 최적의 비그네이팅 및 조명 변수를 추출하여 자연스러운 전방향 영상 생성을 위한 영상 보정 과정을 수행한다. 실험 결과에서는 제안한 방법에 따라 생성된 전방향 영상을 확인하고 비그네이팅 효과 및 조명 변화를 고려하지 않은 방법과 제안한 방법의 성능을 비교, 분석하여 제안한 방법이 $1{\sim}4dB$ 정도 더 효과적임을 보인다.

차량 주위 전방향 촬영영상을 이용한 차선 검출 시스템 개발 (Development of Lane Detection System using Surrounding View Image of Vehicle)

  • 금창훈;조동찬;김회율
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2013년도 하계학술대회
    • /
    • pp.331-334
    • /
    • 2013
  • 본 논문에서는 차량에 부착된 4대의 어안렌즈 카메라 영상을 이용하여 차량 주위 전방향의 주변 정보를 포함하는 정합 영상을 생성하고, 생성된 정합 영상에서 차선을 검출하는 알고리즘을 제안한다. 기존의 전방 카메라만을 이용하여 차선을 검출하는 방법들은 안개와 같이 기상 환경이 안 좋은 경우 가시거리가 짧아져 정상적인 차선 검출이 어려운 문제가 있다. 이에 반해 4대의 어안렌즈 카메라로 차량의 주변을 촬영한 영상은 기상 환경에 영향을 적게 받아 안정적인 차선 검출에 용이하다. 어안렌즈 카메라로 촬영한 영상은 왜곡이 심하기 때문에 왜곡 보정을 수행한 후 차량 위에서 아래로 내려다본 시점으로 투영 변환하여 하나의 영상으로 정합한다. 정합영상에서 관심영역을 설정한 후 차선 후보 영역을 검출하고, 검출된 후보 영역들로 차선을 직선으로 모델링한다. 점선 차선 구간이나 차량 흔들림에 대응하기 위해 직선으로 모델링된 차선 정보의 차선 각도와 차량으로부터 거리 정보를 칼만 필터 기반 추적 및 보정하여 안정적으로 차선 검출을 수행한다. 실험 결과 제안하는 방법은 실선구간에서 99.57%, 점선구간에서는 90.48%의 검출 정확도를 가진다.

  • PDF