• 제목/요약/키워드: omnidirectional image

검색결과 58건 처리시간 0.031초

전방향센서(OISSA)를 이용한 조립물체사이의 상대오차의 측정 (Measurement of relative geomatric errors between mating parts by using an omnidirectional image sensing system (OISSA))

  • 김완수;조형석;김성권
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1996년도 한국자동제어학술회의논문집(국내학술편); 포항공과대학교, 포항; 24-26 Oct. 1996
    • /
    • pp.820-823
    • /
    • 1996
  • In contrast to parts of relatively simple shapes, it is important to match their cross-sectional shapes during mating parts of complicated shapes. It requires the 2.pi. information along their matching boundary to figure out their relative geometrical shapes. In this paper, we propose a method measuring a misalignment at the interface during mating parts with the complicated shapes by using the omnidirectional image sensing system(OLSSA). Also we carried out experiments in order to prove the method, and the results show the feasibility.

  • PDF

조립을 위한 새로운 전방향 시각장치의 설계 (Design of a new omnidirectional image sensing system for assembly (OISSA))

  • 김완수;조형석;김성권
    • 제어로봇시스템학회논문지
    • /
    • 제4권1호
    • /
    • pp.88-99
    • /
    • 1998
  • In assembly, misalignment must be detected and compensated for during the mating period, regardless of the complexity of the cross-sectional shape. To this end, we propose a novel omnidirectional image sensing system for assembling parts with complicated shapes(OISSA) and its feasibility for detecting the misalignment between mating parts is shown by a series of simulations. This system encompasses a camera with an optical unit attached to the front of the camera. The optical unit consists of a pair of plane mirrors and a pair of conic mirrors. Utilizing the proposed sensing system, a 2$\pi$ coaxial image of the misalignment along the mating boundary interface between mating parts can be immediately obtained without experiencing self-occlusion.

  • PDF

단일카메라 전방향 스테레오 비전 시스템을 이용한 거리측정 (Depth Measurement using an Omnidirectional Stereo Vision System with a Single Camera)

  • 이수영;김순철
    • 제어로봇시스템학회논문지
    • /
    • 제19권11호
    • /
    • pp.955-959
    • /
    • 2013
  • It is possible to obtain an omnidirectional stereo image via a single camera by using a catadioptric approach with a convex mirror and concave lens. In order to measure three-dimensional distance using the imaging system, the optical parameters of the system are required. In this paper, a calibration procedure to extract the parameters of the imaging system is described. Based on the parameters, experiments are carried out to verify the performance of the three-dimensional distance measurement of a single camera omnidirectional stereo imaging system.

인라이어 분포를 이용한 전방향 카메라의 보정 (Calibration of Omnidirectional Camera by Considering Inlier Distribution)

  • 홍현기;황용호
    • 한국게임학회 논문지
    • /
    • 제7권4호
    • /
    • pp.63-70
    • /
    • 2007
  • 넓은 시야각을 갖는 전방향(omnidirectional) 카메라 시스템은 적은 수의 영상으로도 주변 장면에 대해 많은 정보를 취득할 수 있는 장점으로 감시, 3차원 해석 등의 분야에 널리 응용되고 있다. 본 논문에서는 어안(fisheye) 렌즈를 이용한 전방향 카메라로 입력된 영상으로부터 카메라의 이동 및 회전 파라미터를 자동으로 추정하는 새로운 자동보정 알고리즘이 제안되었다. 먼저, 카메라 위치를 임의의 각 도로 변환하여 얻어진 영상을 이용해 일차 매개변수로 표현된 카메라의 사영(projection)모델을 추정한다. 그리고 이후 다양하게 변환되는 카메라의 위치에 따라 에센셜(essential) 행렬을 구하며, 이 과정에서 대상 영상으로부터 적합한 인라이어(inlier) 집합을 구하기 위해 특징점이 영역 내에 분포 정도를 반영하는 표준편차(standard deviation)를 정량적(quantitative) 기준으로 이용한다. 다양한 실험을 통해 제안된 알고리즘이 전방향 카메라의 사영 모델과 회전, 이동 등의 변환 파라미터를 정확하게 추정함을 확인하였다.

  • PDF

이동로봇을 위한 링 배열 구조광 영상 기반 거리측정 센서 및 자율주행 (Ring Array of Structured Light Image Based Ranging Sensor and Autonomous Navigation for Mobile Robot)

  • 신진;이수영
    • 제어로봇시스템학회논문지
    • /
    • 제18권6호
    • /
    • pp.571-578
    • /
    • 2012
  • In the paper, we proposed a ring type structured light image based embedded ranging sensor for a mobile robot. Since the proposed ranging sensor obtains omnidirectional object distance, it is useful for autonomous navigation of a mobile robot. By matching the local omnidirectional distance map with a given global object map, it is possible to get position and heading angle of mobile robot in the global coordinates. Experiments for matching and navigation were carried out to verify the performance of the proposed ranging sensor.

사영 컨투어를 이용한 전방향 카메라의 움직임 추정 방법 (Omnidirectional Camera Motion Estimation Using Projected Contours)

  • 황용호;이재만;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제44권5호
    • /
    • pp.35-44
    • /
    • 2007
  • 넓은 시야각을 갖는 전방향(omnidirectional) 카메라 시스템은 적은 수의 영상으로도 주변 장면에 대해 많은 정보를 취득할 수 있는 장점으로 카메라 교정(calibration), 공간의 3차원 재구성(reconstruction) 등에 널리 응용되고 있다. 실 세계에 존재하는 직선 성분들은 전방향 카메라 모델에 의해 컨투어로 사영(projection)되기 때문에, 영상간에 대응되는 컨투어 성분은 카메라의 회전 및 이동 등의 추정에 효과적으로 활용될 수 있다. 본 논문에서는 전방향 카메라의 변환 파라미터를 추정하기 위한 2단계 최소화 알고리즘이 제안된다. 제안된 알고리즘은 컨투어를 이루는 대응점에 대한 에피폴라(epipolar) 평면과 3차원 벡터간의 각도 오차함수 및 사영된 컨투어의 거리 오차를 단계별로 최소화하는 카메라 파라미터를 계산한다. 등거리(equidistance) 사영된 합성영상과 어안렌즈(fisheye lens)로 취득한 실제 영상을 대상으로 제안된 알고리즘이 카메라의 위치 정보를 정확하게 추정함을 확인하였다.

투영곡선의 자동정합을 이용한 전방향 카메라 보정 (Using Contour Matching for Omnidirectional Camera Calibration)

  • 황용호;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제45권6호
    • /
    • pp.125-132
    • /
    • 2008
  • 감시 및 로보트 분야 등에서 다양하게 사용되는 전방향(omnidirectional) 카메라 시스템은 넓은 시야각을 제공한다. 전방향 카메라의 사영모델과 외부변수를 추정하는 대부분의 기존 연구에서는 사전에 설정된 영상 간의 대응관계를 가정한다. 본 논문에서는 두 장의 전방향 영상으로부터 투영곡선을 자동으로 정합하여 카메라의 외부변수를 추정하는 새로운 알고리즘이 제안된다. 먼저 두 영상에서 대응되는 특징점으로부터 에피폴라 구속조건을 계산하여 초기 카메라 변수를 계산한다. 검출된 특징점과 투영곡선을 대상으로 능동적(active) 정합방법으로 대응관계를 결정한다. 최종 단계에서 대응 투영곡선을 구성하는 양 끝점의 에피폴라(epipolar) 평면과 3차원 벡터의 각도 오차를 최소화하는 카메라 변수를 추정한다. 합성영상과 어안렌즈(fisheye lens)로 취득된 실제 영상을 대상으로 제안된 알고리즘이 기존 방법에 비해 카메라의 외부변수를 정확하게 추정함을 확인하였다.

An Efficient Hardware Architecture of Coordinate Transformation for Panorama Unrolling of Catadioptric Omnidirectional Images

  • Lee, Seung-Ho
    • 전기전자학회논문지
    • /
    • 제15권1호
    • /
    • pp.10-14
    • /
    • 2011
  • In this paper, we present an efficient hardware architecture of unrolling image mapper of catadioptric omnidirectional imaging systems. The catadioptric omnidirectional imaging systems generate images of 360 degrees of view and need to be transformed into panorama images in rectangular coordinate. In most application, it has to perform the panorama unrolling in real-time and at low-cost, especially for high-resolution images. The proposed hardware architecture adopts a software/hardware cooperative structure and employs several optimization schemes using look-up-table(LUT) of coordinate conversion. To avoid the on-line division operation caused by the coordinate transformation algorithm, the proposed architecture has the LUT which has pre-computed division factors. And then, the amount of memory used by the LUT is reduced to 1/4 by using symmetrical characteristic compared with the conventional architecture. Experimental results show that the proposed hardware architecture achieves an effective real-time performance and lower implementation cost, and it can be applied to other kinds of catadioptric omnidirectional imaging systems.

Feature matching toy Omnidirectional Image based on Singular Value Decomposition

  • Kim, Do-Yoon;Lee, Young-Jin;Myung jin Chung
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2002년도 ICCAS
    • /
    • pp.98.2-98
    • /
    • 2002
  • $\textbullet$ Omnidirectional feature matching $\textbullet$ SVD-based matching algorithm $\textbullet$ Using SSD instead of the zero-mean correlation $\textbullet$ The similarity with the Gaussian weighted $\textbullet$ Low computational cost $\textbullet$ It describes the similarity of the matched pairs in omnidirectional images.

  • PDF

CNN을 이용한 전방위 영상의 워터마크 추출 방법 (Watermark Extraction Method of Omnidirectional Images Using CNN)

  • 문원준;서영호;김동욱
    • 방송공학회논문지
    • /
    • 제25권2호
    • /
    • pp.151-156
    • /
    • 2020
  • 본 논문에서는 전방위 영상에 대해 알고리즘 기반으로 워터마크를 추출했던 기존 방법의 정확도를 향상시키기 위해 합성곱 신경망(Convolutional Neural Network, CNN)을 이용한 워터마크 추출 방법을 제안한다. 이 CNN은 전방위 영상의 생성과정에서 발생하는 변형과 악의적인 공격에 대한 보정을 수행하여 워터마크를 추출하는 복원과정과, 추출한 워터마크가 어떤 워터마크인지를 분류하는 분류과정으로 구성된다. 이에 대해 다양한 공격에 대한 실험을 통해 기존 방법보다 추출되는 워터마크의 정확도가 더 높음을 확인한다.