• 제목/요약/키워드: fisheye images

검색결과 43건 처리시간 0.017초

Economical image stitching algorithm for portable panoramic image assistance in automotive application

  • Demiryurek, Ahmet;Kutluay, Emir
    • Advances in Automotive Engineering
    • /
    • 제1권1호
    • /
    • pp.143-152
    • /
    • 2018
  • In this study an economical image stitching algorithm for use in automotive industry is developed for retrofittable panoramic image assistance applications. The aim of this project is to develop a driving assistance system known as Panoramic Parking Assistance (PPA) which is cheap, retrofittable and compatible for every type of automobiles. PPA generates bird's eye view image using cameras installed on the automobiles. Image stitching requires to get bird's eye view position of the vehicle. Panoramic images are wide area images that cannot be available by taking one shot, attained by stitching the overlapping areas. To achieve correct stitching many algorithms are used. This study includes some type of these algorithms and presents a simple one that is economical and practical. Firstly, the mathematical model of a wide view of angle camera is provided. Then distorted image correction is performed. Stitching is implemented by using the SIFT and SURF algorithms. It has been seen that using such algorithms requires complex image processing knowledge and implementation of high quality digital processors, which would be impracticle and costly for automobile use. Thus a simpler algorithm has been developed to decrase the complexity. The proposed algorithm uses one matching point for every couple of images and has ease of use and does not need high power processors. To show the efficiency, images coming from four distinct cameras are stitched by using the algorithm developed for the study and usability for automotive application is analyzed.

모바일 장치를 위한 동작 추적형 이미지 브라우징 시스템 (Image Browsing in Mobile Devices Using User Motion Tracking)

  • 임성훈;황재인;최승문;김정현
    • 한국HCI학회논문지
    • /
    • 제3권1호
    • /
    • pp.49-56
    • /
    • 2008
  • 현재 대부분의 모바일 장치들엔 디지털 카메라가 설치되어 있으며 많은 양의 이미지 데이터들을 저장할 수 있다. 하지만, 이러한 경우 장치 속의 이미지들에 대한 브라우징을 하기 어려워지고, 그에 걸리는 시간도 증가하게 된다. 특히 모바일 장치의 경우 화면의 크기가 작으며, 일반 컴퓨터와 비교하여 부자연스럽고, 불편한 인터페이스를 갖고 있어 어려움을 더욱 증가 시킨다. 우리는 이를 해결하기 위해 3차원 가시화 방법과 모션 센싱을 이용한 인터페이스를 제안하고, 제안된 가시화 방법과 인터페이스의 조합을 통해 모바일 장치에서의 효과적인 이미지 브라우징 방법을 모색해 보았다. 또한 제안한 방법들을 기존의 방법과 비교하여 사용성 평가를 하였다.

  • PDF

어안 이미지 기반의 전방향 영상 SLAM을 이용한 충돌 회피 (Collision Avoidance Using Omni Vision SLAM Based on Fisheye Image)

  • 최윤원;최정원;임성규;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제22권3호
    • /
    • pp.210-216
    • /
    • 2016
  • This paper presents a novel collision avoidance technique for mobile robots based on omni-directional vision simultaneous localization and mapping (SLAM). This method estimates the avoidance path and speed of a robot from the location of an obstacle, which can be detected using the Lucas-Kanade Optical Flow in images obtained through fish-eye cameras mounted on the robots. The conventional methods suggest avoidance paths by constructing an arbitrary force field around the obstacle found in the complete map obtained through the SLAM. Robots can also avoid obstacles by using the speed command based on the robot modeling and curved movement path of the robot. The recent research has been improved by optimizing the algorithm for the actual robot. However, research related to a robot using omni-directional vision SLAM to acquire around information at once has been comparatively less studied. The robot with the proposed algorithm avoids obstacles according to the estimated avoidance path based on the map obtained through an omni-directional vision SLAM using a fisheye image, and returns to the original path. In particular, it avoids the obstacles with various speed and direction using acceleration components based on motion information obtained by analyzing around the obstacles. The experimental results confirm the reliability of an avoidance algorithm through comparison between position obtained by the proposed algorithm and the real position collected while avoiding the obstacles.

여러 개의 조명등을 이용한 이동 로봇의 위치 추정 (Localization of a Mobile Robot Using Multiple Ceiling Lights)

  • 한연주;박태형
    • 제어로봇시스템학회논문지
    • /
    • 제19권4호
    • /
    • pp.379-384
    • /
    • 2013
  • We propose a new global positioning method for the indoor mobile robots. The multiple indoor lights fixed in ceiling are used as the landmarks of positioning system. The ceiling images are acquired by the fisheye lens camera mounted on the moving robot. The position and orientation of the lights are extracted by binarization and labeling techniques. Also the boundary lines between ceiling and walls are extracted to identify the order of each light. The robot position is then calculated from the extracted position and known position of the lights. The proposed system can increase the accuracy and reduce the computation time comparing with the other positioning methods using natural landmark. Experimental results are presented to show the performance of the method.

Real-Time Cattle Action Recognition for Estrus Detection

  • Heo, Eui-Ju;Ahn, Sung-Jin;Choi, Kang-Sun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권4호
    • /
    • pp.2148-2161
    • /
    • 2019
  • In this paper, we present a real-time cattle action recognition algorithm to detect the estrus phase of cattle from a live video stream. In order to classify cattle movement, specifically, to detect the mounting action, the most observable sign of the estrus phase, a simple yet effective feature description exploiting motion history images (MHI) is designed. By learning the proposed features using the support vector machine framework, various representative cattle actions, such as mounting, walking, tail wagging, and foot stamping, can be recognized robustly in complex scenes. Thanks to low complexity of the proposed action recognition algorithm, multiple cattle in three enclosures can be monitored simultaneously using a single fisheye camera. Through extensive experiments with real video streams, we confirmed that the proposed algorithm outperforms a conventional human action recognition algorithm by 18% in terms of recognition accuracy even with much smaller dimensional feature description.

스케일 불변 특징을 이용한 이동 로봇의 위치 추정 및 매핑 (Mobile Robot Localization and Mapping using Scale-Invariant Features)

  • 이종실;신동범;권오상;이응혁;홍승홍
    • 전기전자학회논문지
    • /
    • 제9권1호
    • /
    • pp.7-18
    • /
    • 2005
  • 로봇이 자율주행을 하는데 있어 중요한 요소는 로봇 스스로 위치를 추정하고 동시에 주위 환경에 대한 지도를 작성하는 것이다 본 논문에서는 스케일 불변 특정을 이용한 비전 기반 위치 추정 및 매핑 알고리즘을 제안한다. 로봇에 어안렌즈가 부착된 카메라를 천정을 바라볼 수 있도록 부착하여 스케일 불변 특정을 갖는 고급의 영상 특정을 구하여 맹 빌딩과 위치 추정을 수행한다. 먼저, 전처리 과정으로 어안렌즈를 통해 입력된 영상을 카메라 보정을 행하여 축방향 왜곡을 제거하고 레이블링과 컨벡스헐을 적용하여 천정영역과 벽영역으로 분할한다 최초 맵 빌딩시에는 분할된 영역에 대해 특정점을 구하고 맵 데이터베이스에 저장한다. 맵 빌딩이 종료될 때까지 연속하여 입력되는 영상에 대해 특정점들을 구하고 이미 작성된 맵과 매칭되는 점들을 찾고 매칭되지 않은 점들에 대해서는 기존의 맴에 추가하는 과정을 반복한다. 위치 추정은 맵 빌딩과정에서 매칭되는 점들을 찾을 때 동시에 수행되어 진다. 그리고 임의의 위치에서 기존의 작성된 맵과 매칭되는 점들을 찾음으로서 위치 추정이 행해지며 동시에 기존의 맵 데이터베이스의 특정점들을 갱신하게 된다. 제안한 방법은 $50m^2$의 영역에 대해 맵 빌딩을 2 분내에 수행할 수 있었으며, 위치의 정확도는 ${\pm}13cm$, 위치에 대한 로봇의 자세(각도)는 ${\pm}3$도의 오차를 갖는다.

  • PDF

사영 컨투어를 이용한 전방향 카메라의 움직임 추정 방법 (Omnidirectional Camera Motion Estimation Using Projected Contours)

  • 황용호;이재만;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제44권5호
    • /
    • pp.35-44
    • /
    • 2007
  • 넓은 시야각을 갖는 전방향(omnidirectional) 카메라 시스템은 적은 수의 영상으로도 주변 장면에 대해 많은 정보를 취득할 수 있는 장점으로 카메라 교정(calibration), 공간의 3차원 재구성(reconstruction) 등에 널리 응용되고 있다. 실 세계에 존재하는 직선 성분들은 전방향 카메라 모델에 의해 컨투어로 사영(projection)되기 때문에, 영상간에 대응되는 컨투어 성분은 카메라의 회전 및 이동 등의 추정에 효과적으로 활용될 수 있다. 본 논문에서는 전방향 카메라의 변환 파라미터를 추정하기 위한 2단계 최소화 알고리즘이 제안된다. 제안된 알고리즘은 컨투어를 이루는 대응점에 대한 에피폴라(epipolar) 평면과 3차원 벡터간의 각도 오차함수 및 사영된 컨투어의 거리 오차를 단계별로 최소화하는 카메라 파라미터를 계산한다. 등거리(equidistance) 사영된 합성영상과 어안렌즈(fisheye lens)로 취득한 실제 영상을 대상으로 제안된 알고리즘이 카메라의 위치 정보를 정확하게 추정함을 확인하였다.

Search for Gravity Waves with n New All-sky Camera System

  • Kim, Yong-Ha;Chung, Jong-Kyun;Won, Yong-In;Lee, Bang-Yong
    • Ocean and Polar Research
    • /
    • 제24권3호
    • /
    • pp.263-266
    • /
    • 2002
  • Gravity waves have been searched for with a new all-sky camera system over Korean Peninsular. The all-sky camera consists of a 37mm/F4.5 Mamiya fisheye lens with a 180 dog field of view, interference filters and a 1024 by 1024 CCD camera. The all-sky camera has been tested near Daejeon city, and moved to Mt. Bohyun where the largest astronomical telescope is operated in Korea. A clear wave pattern was successfully detected in OH filter images over Mt. Bohyun on July 18, 2001, indicating that small scale coherent gravity waves perturbed OH airglow near the mesopause. Other wave features are since then observed with Na 589.8nm and OI 630.0nm filters. Since a Japanese all-sky camera network has already detected traveling ionospheric disturbances (TID) over the northeast-southwest range of Japanese islands, we hope our all-sky camera extends the coverage of the TID's observations to the west direction. We plan to operate our all-sky camera all year around to study seasonal variation of wave activities over the mid-latitude upper atmosphere.

효과적인 혼합현실 장면 생성을 위한 고속의 광원 추정 기법 (Fast Light Source Estimation Technique for Effective Synthesis of Mixed Reality Scene)

  • 신승미;서웅;임인성
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제22권3호
    • /
    • pp.89-99
    • /
    • 2016
  • 혼합현실 응용의 제작에 있어 중요한 요소 중의 하나는 현실 세계에서의 주변광 정보를 분석하여 효과적으로 영상 합성에 적용하는 것이다. 특히 대화식 응용을 구현하기 위해서는 동적으로 변화하는 주변광을 실시간 처리를 통하여 빠르게 렌더링 결과에 반영하는 것이 중요하다. 기존의 관련 방법들은 주로 사실적인 영상생성을 목표로 하기 때문에 너무 많은, 예를 들어, 2의 거듭제곱 수로 증가하는, 광원지점을 찾거나 대화식 응용에 적합하지 않은 복잡도를 가져 이에 적용하기가 적합하지 않다. 본 논문에서는 어안 렌즈를 장착한 카메라로부터 실시간으로 입력되는 동영상 이미지를 분석하여 주요 광원을 고속으로 찾아주는 광원 추정 방법을 제안한다. 기존의 방법과는 달리 사용자가 지정한 개수 정도의 주요 광원을 고속을 찾아주어, 퐁의 조명모델 기반의 직접 조명효과 생성뿐만 아니라, 면적 광원에 대한 광원 샘플링을 통한 부드러운 그림자 생성에도 활용할 수 있다.

가혹한 조건에 대응하기 위한 차량용 카메라의 개선된 영상복원 알고리즘 (Improved Image Restoration Algorithm about Vehicle Camera for Corresponding of Harsh Conditions)

  • 장영민;조상복;이종화
    • 전자공학회논문지
    • /
    • 제51권2호
    • /
    • pp.114-123
    • /
    • 2014
  • 자동차용 영상 사고기록장치(블랙박스)는 도로위의 일반적인 상황만을 촬영하게 된다. 또한, 급격한 조도변화의 상황에서는 주위의 환경을 제대로 인식하기 어렵고 렌즈 자체의 왜곡이 매우 심하기 때문에 사고 발생 시 명확한 증거로 사용하기 어렵다. 이러한 문제를 해결하기 위한 첫 번째 방법으로 정규화된 밝기 정보의 수표현자인 NLD(Normalized Luminance Descriptor)값과 정규화된 명암정보의 수표현자인 NCD(Normalized Contrast Descriptor)값을 정의하여 추출하고 두 값의 관계를 갖는 영상의 수표현자인 NIQ(Normalized Image Quality)값을 사용하여 급격한 조도변화에 대응하였다. 두 번째로, 어안렌즈가 디자인되는 방법을 기본으로 하는 FOV(Field Of View)모델을 이용하여 렌즈의 왜곡을 보정한다. 결과적으로 두 가지 영상왜곡은 각각 감마보정 및 렌즈왜곡보정의 영상처리 기법을 사용하여 병렬로 처리한 후 이를 하나의 영상으로 통합하는 알고리즘을 제안한다.