• 제목/요약/키워드: vision based navigation

검색결과 192건 처리시간 0.03초

위성항법시스템과 비전시스템 융합 기술 기반의 신뢰성있는 위치 측위에 관한 연구 (A Study of a Reliable Positioning Based on Technology Convergence of a Satellite Navigation System and a Vision System)

  • 박지호;권순;이충희;정우영
    • 대한전자공학회논문지TC
    • /
    • 제48권10호
    • /
    • pp.20-28
    • /
    • 2011
  • 이 논문은 위성항법시스템의 문제점인 위치오차와 실외음영지역을 해소하기 위하여 위성항법시스템과 비전시스템을 융합한 신뢰성있는 고정밀 측위 기술을 제안하였다. 동적단독측위에서 이동체는 이동 위치에 따라 사용할 수 있는 위성항법시스템의 수가 변화한다, 위치 측위를 위해서는 최소 4개 이상의 위성항법시스템으로부터 위치정보데이터를 수신 받아야 한다. 그러나 도심지역에서는 고층건물이나 장애물 또는 반사파에 의해 정확한 위치측위가 어렵다. 이러한 문제점을 해결하기 위하여 비전 시스템을 이용하였다. 위성항법시스템을 사용하기 열악한 도심지역의 특정 건물에 정확한 위치값을 결정해 놓는다. 그리고 비전시스템을 통해 특정 건물을 인식하고, 인식된 건물을 이용하여 위치오차를 보정해 준다. 이동체는 이동하면서 비전시스템을 이용하여 특정 건물을 인식하며 위치 데이터값을 만들어내고, 위치계산을 수정하여 안정되고 신뢰성있는 고정밀 위치측위를 할 수 있다.

수직 이착륙 무인 항공기용 영상보정항법 시스템 성능평가를 위한 검증환경 개발 (Development of a Test Environment for Performance Evaluation of the Vision-aided Navigation System for VTOL UAVs)

  • 박세빈;신현철;정철주
    • 한국항행학회논문지
    • /
    • 제27권6호
    • /
    • pp.788-797
    • /
    • 2023
  • 본 논문은 수직 이착륙 무인 항공시스템의 GPS (global positioning system) 불가 시 대체 항법 시스템으로의 영상보정항법 시스템을 시험하기 위한 검증환경 개발 내용을 소개한다. 개발 중인 영상보정항법 시스템의 시험 및 평가를 위해서는 가상 환경을 활용하는 것이 효율적이지만, 현재 국내에는 적합한 장비가 개발되어 있지 않다. 따라서 제안된 검증환경은 시험 대상 장비의 운용 환경을 모델링 및 시뮬레이션 하여 입력 신호를 생성하고, 출력 신호를 관측함으로써 대상 장비의 성능을 평가할 수 있도록 개발되었다. 연구 과정은 검증환경 요구도 생성, 검증환경 설계에서부터 구성품별 하드웨어 및 소프트웨어 설계, 제작까지 포괄적으로 기술되었다. 이를 바탕으로 제작된 검증환경을 개발 중인 영상기반 보정항법 알고리즘의 성능평가와 시뮬레이션 기반의 사전 비행시험 수행에 활용하였다.

무인항공기의 자동 착륙을 위한 LSM 및 CPA를 활용한 영상 기반 장애물 상태 추정 및 충돌 예측 (Vision-based Obstacle State Estimation and Collision Prediction using LSM and CPA for UAV Autonomous Landing)

  • 이성봉;박천만;김혜지;이동진
    • 한국항행학회논문지
    • /
    • 제25권6호
    • /
    • pp.485-492
    • /
    • 2021
  • 무인항공기의 영상 기반 자동 정밀 착륙 기술은 착륙 지점에 대한 정밀한 위치 추정 기술과 착륙 유도 기술이 요구된다. 또한, 안전한 착륙을 위하여 지상 장애물에 대한 착륙 지점의 안전성을 판단하고, 안전성이 확보된 경우에만 착륙을 유도하도록 설계되어야 한다. 본 논문은 자동 정밀 착륙을 수행하기 위하여 영상 기반의 항법과 착륙 지점의 안전성을 판단하기 위한 알고리즘을 제안한다. 영상 기반 항법을 수행하기 위해 CNN 기법을 활용하여 착륙 패드를 탐지하고, 탐지 정보를 활용하여 통합 항법 해를 도출한다. 또한, 위치 추정 성능을 향상시키기 위한 칼만필터를 설계 및 적용한다. 착륙 지점의 안전성을 판단하기 위하여 동일한 방식으로 장애물 탐지 및 위치 추정을 수행하고, LSM을 활용하여 장애물의 속도를 추정한다. 추정한 장애물의 상태를 활용하여 계산한 CPA를 기반으로 장애물과의 충돌 여부를 판단한다. 최종적으로 본 논문에서 제안된 알고리즘을 비행 실험을 통해 검증한다.

캠시프트와 KLT특징 추적 알고리즘을 융합한 모바일 로봇의 영상기반 사람추적 및 추종 (A vision based people tracking and following for mobile robots using CAMSHIFT and KLT feature tracker)

  • 이상진;원문철
    • 한국멀티미디어학회논문지
    • /
    • 제17권7호
    • /
    • pp.787-796
    • /
    • 2014
  • Many mobile robot navigation methods utilize laser scanners, ultrasonic sensors, vision camera, and so on for detecting obstacles and path following. However, human utilizes only vision(e.g. eye) information for navigation. In this paper, we study a mobile robot control method based on only the camera vision. The Gaussian Mixture Model and a shadow removal technology are used to divide the foreground and the background from the camera image. The mobile robot uses a combined CAMSHIFT and KLT feature tracker algorithms based on the information of the foreground to follow a person. The algorithm is verified by experiments where a person is tracked and followed by a robot in a hallway.

Integrated System for Autonomous Proximity Operations and Docking

  • Lee, Dae-Ro;Pernicka, Henry
    • International Journal of Aeronautical and Space Sciences
    • /
    • 제12권1호
    • /
    • pp.43-56
    • /
    • 2011
  • An integrated system composed of guidance, navigation and control (GNC) system for autonomous proximity operations and the docking of two spacecraft was developed. The position maneuvers were determined through the integration of the state-dependent Riccati equation formulated from nonlinear relative motion dynamics and relative navigation using rendezvous laser vision (Lidar) and a vision sensor system. In the vision sensor system, a switch between sensors was made along the approach phase in order to provide continuously effective navigation. As an extension of the rendezvous laser vision system, an automated terminal guidance scheme based on the Clohessy-Wiltshire state transition matrix was used to formulate a "V-bar hopping approach" reference trajectory. A proximity operations strategy was then adapted from the approach strategy used with the automated transfer vehicle. The attitude maneuvers, determined from a linear quadratic Gaussian-type control including quaternion based attitude estimation using star trackers or a vision sensor system, provided precise attitude control and robustness under uncertainties in the moments of inertia and external disturbances. These functions were then integrated into an autonomous GNC system that can perform proximity operations and meet all conditions for successful docking. A six-degree of freedom simulation was used to demonstrate the effectiveness of the integrated system.

센서 합성을 이용한 자율이동로봇의 주행 알고리즘 설계 (Design of Navigation Algorithm for Mobile Robot using Sensor fusion)

  • 김정훈;김영중;임묘택
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제53권10호
    • /
    • pp.703-713
    • /
    • 2004
  • This paper presents the new obstacle avoidance method that is composed of vision and sonar sensors, also a navigation algorithm is proposed. Sonar sensors provide poor information because the angular resolution of each sonar sensor is not exact. So they are not suitable to detect relative direction of obstacles. In addition, it is not easy to detect the obstacle by vision sensors because of an image disturbance. In This paper, the new obstacle direction measurement method that is composed of sonar sensors for exact distance information and vision sensors for abundance information. The modified splitting/merging algorithm is proposed, and it is robuster for an image disturbance than the edge detecting algorithm, and it is efficient for grouping of the obstacle. In order to verify our proposed algorithm, we compare the proposed algorithm with the edge detecting algorithm via experiments. The direction of obstacle and the relative distance are used for the inputs of the fuzzy controller. We design the angular velocity controllers for obstacle avoidance and for navigation to center in corridor, respectively. In order to verify stability and effectiveness of our proposed method, it is apply to a vision and sonar based mobile robot navigation system.

비전 기반 측위 보조 알고리즘의 성능 분석 (Performance Analysis of Vision-based Positioning Assistance Algorithm)

  • 박종수;이용;권재현
    • 한국측량학회지
    • /
    • 제37권3호
    • /
    • pp.101-108
    • /
    • 2019
  • 최근 컴퓨터 처리 속도의 향상과 영상 처리 기술의 발달로 인해 카메라에서 획득하는 정보를 기존의 GNSS(Global Navigation Satellite System), 추측 항법 기반의 측위 기술과 결합하여 안정적인 위치를 결정하기 위한 연구가 활발히 진행 중이다. 기존 연구에서는 단안 카메라를 이용한 연구가 주로 수행되었으나 이 경우 관심 객체의 절대좌표가 구축이 되어 있어야 한다는 한계점이 있다. 이러한 한계를 극복하기 위해 본 연구에서는 스테레오 영상으로부터 삼각측량법을 적용하여 카메라와 관심 객체간 거리를 추정하는 비전 기반 측위 보조 알고리즘을 개발하고 성능 분석을 수행하였다. 또한, 추정된 거리와 카메라 영상 획득 간격을 이용해 상대적인 속도를 계산하고 이를 기존에 개발된 GNSS/이동체 내부 센서 기반 측위 알고리즘과 결합하여 통합 측위 알고리즘을 구현하였다. 실제 주행 자료를 기반으로 통합측위 알고리즘에 대한 성능을 분석한 결과 기존에 개발된 GNSS/이동체 내부 센서 기반 측위 알고리즘에 비해 속도 정보를 항법해 보정에 활용하였을 때 약 4%의 미미한 위치 정확도 향상 효과를 확인하였다. 이는 영상으로부터 추정된 속도 정보의 정밀도가 낮고, 터널 등을 지날 때는 영상으로부터 적절한 정보를 추출할 수 없다는 한계가 있어 이를 보완한 추가 연구가 필요하다고 판단된다.

단일 카메라를 이용한 VFH기반의 실시간 주행 기술 개발 (VFH-based Navigation using Monocular Vision)

  • 박세현;황지혜;주진선;고은정;류정탁;김은이
    • 한국산업정보학회논문지
    • /
    • 제16권2호
    • /
    • pp.65-72
    • /
    • 2011
  • 본 논문에서는 단일 카메라로부터 주어진 영상을 실시간으로 장애물과 비장애물 영역으로 분류 한 후 VFH를 이용하여 안전한 경로를 선정하는 실시간 주행 시스템을 개발한다. 제안된 시스템은 배경 분류기, 점유 그리드맵 생성기와 VFH기반의 선정기로 구성된다. 배경 분류기는 입력된 $320{\times}240$ 영상의 색조와 명도 정보를 이용하여 실시간으로 배경파 장애물 영역을 분류한다. 점유 그리드맵 생성기는 이를 바탕으로 위험도에 따라 10개의 그레이 레벨을 가지는 $32{\times}24$의 점유 그리드맵을 생성한다. VFH를 이용하여 폴라 히스토그램을 작성한 후 밀도가 낮은 곳으로 주행 경로를 결정 한다. 제안된 기술의 효율성을 증명하기 위하여 다양한 형태의 장애물을 포함하는 실내 및 실외 환경에서 평가하였으며 센서 기반의 그 결과는 기존의 센서기반의 주행시스템과 비교 되었다. 그 결과 제안된 시스템은 88%의 정확도를 보였으며, 기존의 시스템보다 실시간으로 빠르고 안전한 주행을 수행할 수 있음이 증명되었다.

무인수상선의 단일 카메라를 이용한 VFH+ 기반 장애물 회피 기법 (VFH+ based Obstacle Avoidance using Monocular Vision of Unmanned Surface Vehicle)

  • 김태진;최진우;이영준;최현택
    • 한국해양공학회지
    • /
    • 제30권5호
    • /
    • pp.426-430
    • /
    • 2016
  • Recently, many unmanned surface vehicles (USVs) have been developed and researched for various fields such as the military, environment, and robotics. In order to perform purpose specific tasks, common autonomous navigation technologies are needed. Obstacle avoidance is important for safe autonomous navigation. This paper describes a vector field histogram+ (VFH+) based obstacle avoidance method that uses the monocular vision of an unmanned surface vehicle. After creating a polar histogram using VFH+, an open space without the histogram is selected in the moving direction. Instead of distance sensor data, monocular vision data are used for make the polar histogram, which includes obstacle information. An object on the water is recognized as an obstacle because this method is for USV. The results of a simulation with sea images showed that we can verify a change in the moving direction according to the position of objects.

A Study on Development of Visual Navigation System based on Neural Network Learning

  • Shin, Suk-Young;Lee, Jang-Hee;You, Yang-Jun;Kang, Hoon
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제2권1호
    • /
    • pp.1-8
    • /
    • 2002
  • It has been integrated into several navigation systems. This paper shows that system recognizes difficult indoor roads without any specific marks such as painted guide line or tape. In this method the robot navigates with visual sensors, which uses visual information to navigate itself along the read. The Neural Network System was used to learn driving pattern and decide where to move. In this paper, I will present a vision-based process for AMR(Autonomous Mobile Robot) that is able to navigate on the indoor read with simple computation. We used a single USB-type web camera to construct smaller and cheaper navigation system instead of expensive CCD camera.