• 제목/요약/키워드: Omnidirectional camera

검색결과 37건 처리시간 0.031초

경비용 로봇을 위한 전방향 카메라 장치 설계 (Omnidirectional Camera System Design for a Security Robot)

  • 김길수;도용태
    • 대한임베디드공학회논문지
    • /
    • 제3권2호
    • /
    • pp.74-81
    • /
    • 2008
  • This paper describes a low-cost omnidirectional camera system designed for the intruder detection capability of a security robot. Moving targets on sequential images are detected first by an adaptive background subtraction technique, and the targets are identified as intruders if they fail to enter a password within a preset time. A warning message is then sent to the owner's mobile phone. The owner can check scene pictures posted by the system on the web. The system developed worked well in experiments including a situation when the indoor lighting was suddenly changed.

  • PDF

다중 카메라 시스템을 위한 전방위 Visual-LiDAR SLAM (Omni-directional Visual-LiDAR SLAM for Multi-Camera System)

  • 지샨 자비드;김곤우
    • 로봇학회논문지
    • /
    • 제17권3호
    • /
    • pp.353-358
    • /
    • 2022
  • Due to the limited field of view of the pinhole camera, there is a lack of stability and accuracy in camera pose estimation applications such as visual SLAM. Nowadays, multiple-camera setups and large field of cameras are used to solve such issues. However, a multiple-camera system increases the computation complexity of the algorithm. Therefore, in multiple camera-assisted visual simultaneous localization and mapping (vSLAM) the multi-view tracking algorithm is proposed that can be used to balance the budget of the features in tracking and local mapping. The proposed algorithm is based on PanoSLAM architecture with a panoramic camera model. To avoid the scale issue 3D LiDAR is fused with omnidirectional camera setup. The depth is directly estimated from 3D LiDAR and the remaining features are triangulated from pose information. To validate the method, we collected a dataset from the outdoor environment and performed extensive experiments. The accuracy was measured by the absolute trajectory error which shows comparable robustness in various environments.

능동 구조광 영상기반 전방향 거리측정 (Omnidirectional Distance Measurement based on Active Structured Light Image)

  • 신진;이수영;홍영진;서진호
    • 제어로봇시스템학회논문지
    • /
    • 제16권8호
    • /
    • pp.751-755
    • /
    • 2010
  • In this paper, we proposed an omnidirectional ranging system that is able to obtain $360^{\circ}$ all directional distances effectively based on structured light image. The omnidirectional ranging system consists of laser structured light source and a catadioptric omnidirectional camera with a curved mirror. The proposed integro-differential structured light image processing algorithm makes the ranging system robust against environmental illumination condition. The omnidirectional ranging system is useful for map-building and self-localization of a mobile robot.

사영된 컨투어를 이용한 전방향 카메라 모델의 검증 방법 (Verification Method of Omnidirectional Camera Model by Projected Contours)

  • 황용호;이재만;홍현기
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.994-999
    • /
    • 2007
  • 전방향(omnidirectional) 카메라 시스템은 보다 적은 수의 영상으로부터 주변 장면(scene)에 대한 많은 정보를 취득할 수 있는 장점이 있기 때문에 전방향 영상을 이용한 자동교정(self-calibration)과 3차원 재구성 등의 연구가 활발히 진행되고 있다. 본 논문에서는 기존에 제안된 교정 방법들을 이용하여 추정된 사영모델(projection model)의 정확성을 검증하기 위한 새로운 방법이 제안된다. 실 세계에서 다양하게 존재하는 직선 성분들은 전방향 영상에 컨투어(contour)의 형태로 사영되며, 사영모델과 컨투어의 양 끝점 좌표 값을 이용하여 그 궤적을 추정할 수 있다. 추정된 컨투어의 궤적과 영상에 존재하는 컨투어와의 거리 오차(distance error)로부터 전방향 카메라의 사영모델의 정확성을 검증할 수 있다. 제안된 방법의 성능을 평가하기 위해서 구 맵핑(spherical mapping)된 합성(synthetic) 영상과 어안렌즈(fisheye lens)로 취득한 실제 영상에 대해 제안된 알고리즘을 적용하여 사영모델의 정확성을 판단하였다.

  • PDF

조립을 위한 새로운 전방향 시각장치의 설계 (Design of a new omnidirectional image sensing system for assembly (OISSA))

  • 김완수;조형석;김성권
    • 제어로봇시스템학회논문지
    • /
    • 제4권1호
    • /
    • pp.88-99
    • /
    • 1998
  • In assembly, misalignment must be detected and compensated for during the mating period, regardless of the complexity of the cross-sectional shape. To this end, we propose a novel omnidirectional image sensing system for assembling parts with complicated shapes(OISSA) and its feasibility for detecting the misalignment between mating parts is shown by a series of simulations. This system encompasses a camera with an optical unit attached to the front of the camera. The optical unit consists of a pair of plane mirrors and a pair of conic mirrors. Utilizing the proposed sensing system, a 2$\pi$ coaxial image of the misalignment along the mating boundary interface between mating parts can be immediately obtained without experiencing self-occlusion.

  • PDF

Camera pose estimation framework for array-structured images

  • Shin, Min-Jung;Park, Woojune;Kim, Jung Hee;Kim, Joonsoo;Yun, Kuk-Jin;Kang, Suk-Ju
    • ETRI Journal
    • /
    • 제44권1호
    • /
    • pp.10-23
    • /
    • 2022
  • Despite the significant progress in camera pose estimation and structure-from-motion reconstruction from unstructured images, methods that exploit a priori information on camera arrangements have been overlooked. Conventional state-of-the-art methods do not exploit the geometric structure to recover accurate camera poses from a set of patch images in an array for mosaic-based imaging that creates a wide field-of-view image by sewing together a collection of regular images. We propose a camera pose estimation framework that exploits the array-structured image settings in each incremental reconstruction step. It consists of the two-way registration, the 3D point outlier elimination and the bundle adjustment with a constraint term for consistent rotation vectors to reduce reprojection errors during optimization. We demonstrate that by using individual images' connected structures at different camera pose estimation steps, we can estimate camera poses more accurately from all structured mosaic-based image sets, including omnidirectional scenes.

헤드마운티드 디스플레이를 활용한 전방위 카메라 기반 영상 렌더링 동기화 시스템 (Omnidirectional Camera-based Image Rendering Synchronization System Using Head Mounted Display)

  • 이승준;강석주
    • 전기학회논문지
    • /
    • 제67권6호
    • /
    • pp.782-788
    • /
    • 2018
  • This paper proposes a novel method for the omnidirectional camera-based image rendering synchronization system using head mounted display. There are two main processes in the proposed system. The first one is rendering 360-degree images which are remotely photographed to head mounted display. This method is based on transmission control protocol/internet protocol(TCP/IP), and the sequential images are rapidly captured and transmitted to the server using TCP/IP protocol with the byte array data format. Then, the server collects the byte array data, and make them into images. Finally, the observer can see them while wearing head mounted display. The second process is displaying the specific region by detecting the user's head rotation. After extracting the user's head Euler angles from head mounted display's inertial measurement units sensor, the proposed system display the region based on these angles. In the experimental results, rendering the original image at the same resolution in a given network environment causes loss of frame rate, and rendering at the same frame rate results in loss of resolution. Therefore, it is necessary to select optimal parameters considering environmental requirements.

Catadioptric 전방향 스테레오 영상시스템 및 3차원 좌표 복원 (Catadioptric Omnidirectional Stereo Imaging System and Reconstruction of 3-dimensional Coordinates)

  • 김순철;이수영
    • 한국산학기술학회논문지
    • /
    • 제16권6호
    • /
    • pp.4108-4114
    • /
    • 2015
  • 광학 반사체를 이용하여 카메라 영상을 얻는 방법을 catadioptric 영상법이라고 부른다. Catadioptric 영상법은 360도 모든 방향의 시각정보를 한 장의 영상면에 담기 위한 전방향 영상 획득시스템에 많이 사용된다. 대표적인 전방향 광학 반사체로서 그릇 모양의 3차원 쌍곡면형 거울이 있다. 본 논문에서는 쌍곡면형 반사체를 이용한 catadioptric 전방향 영상 시스템에 간단히 오목 렌즈를 추가함으로써 하나의 카메라로 시점이 다른 전방향 스테레오 영상을 얻는 방법에 관해 연구하였다. 시점이 다른 전방향 스테레오 영상 정합을 통해 대상 물체의 3차원 좌표를 복원할 수 있다. 본 전방향 스테레오 영상 시스템은 한 대의 카메라를 사용하므로 경제적이며, 스테레오 영상간에 카메라 내재 매개변수가 같으므로 정합이 쉽다는 장점이 있다. 본 논문에서는 3차원 좌표값 측정에 필요한 매개변수들을 3 단계 캘리브레이션을 이용하여 추출하였고, 실험을 통해 전방향 3차원 거리측정 성능을 검증하였다. 또한 거리측정 정밀도를 분석하여 본 스테레오 영상 시스템의 신뢰할 만한 측정범위를 제시하였다.

영상위치센서와 초음파센서를 사용한 전 방향 이동로봇의 자동주차 제어기 (Auto-parking Controller of Omnidirectional Mobile Robot Using Image Localization Sensor and Ultrasonic Sensors)

  • 윤힘찬;박태형
    • 제어로봇시스템학회논문지
    • /
    • 제21권6호
    • /
    • pp.571-576
    • /
    • 2015
  • This paper proposes an auto-parking controller for omnidirectional mobile robots. The controller uses the multi-sensor system including ultrasonic sensor and camera. The several ultrasonic sensors of robot detect the distance between robot and each wall of the parking lot. The camera detects the global position of robot by capturing the image of artificial landmarks. To improve the accuracy of position estimation, we applied the extended Kalman filter with adaptive fuzzy controller. Also we developed the fuzzy control system to reduce the settling time of parking. The experimental results are presented to verify the usefulness of the proposed controller.

전방위 감시와 영상추적이 가능한 화재감시시스템에 관한 연구 (The Study on the Fire Monitoring Dystem for Full-scale Surveillance and Video Tracking)

  • 백동현
    • 한국화재소방학회논문지
    • /
    • 제32권6호
    • /
    • pp.40-45
    • /
    • 2018
  • 전방위 감시카메라에는 어안렌즈를 이용하여 광대역감시가 가능하도록 물체감지알고리즘으로 물체를 단위별 레벨링한 다음 전방위 감시카메라와 추적(PTZ)카메라로 구성된 시스템으로 연동하여 현장실험한 것이다. 전방위 감시카메라가 움직이는 물체를 정확히 감지하며 사각표시를 하였고 추적카메라와 유기적으로 연동하며 확대 추적하였다. 감지카메라와 화염감지 및 온도에 대한 현장실험에서는 오토스캔 중 화염이 감지되면 멈추며, 해당 화점부분을 화면의 중심부분으로 이동시켜 온도가 표출되었다. 또한 화염이격거리별 검지에 필요한 발열량의 인정기준인 1 km 2,340 kcal를 초과한 1.5 km에서도 가능하였다. 거리에 따른 화염감지성능시험에서는 거리 1 km일 때 폭 56 cm ${\times}$ 높이 90 cm를 초과한 1.5 km에서도 가능하여 산불화재에도 적응성이 충분하였다. 향후 석유 가스비축시설 및 저유소에 설치하면 자체는 물론 주위 화재예방 및 침입감시 등의 안전에 매우 유용할 것으로 기대된다.