• 제목/요약/키워드: 카메라 기반 주행

Search Result 164, Processing Time 0.031 seconds

Robot Navigation System based on Location Awareness using Surveillance Cameras (감시카메라를 이용한 위치인식 기반 로봇 경로주행 시스템)

  • Lee, Sun-min;Song, Hye-jin;Kim, Jin-ah;Moon, Nammee;Hong, Sangjin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.281-283
    • /
    • 2015
  • 최근 청소로봇이나 재활로봇 등과 같은 일상생활에서 활용 가능한 로봇 기술에 대한 연구가 활발한데 특히 실내외 경로주행시스템에 관한 연구 사례가 증가하고 있다. 본 논문에서는 제한된 실내공간에서 로봇을 이용하여 감시카메라를 활용한 위치 인식을 기반으로 경로를 자율적으로 주행 하는 시스템을 제안한다. 이 시스템은 서버, 로봇, App 세 가지 모듈로 구성되어 사용자로부터 App을 통해 받은 목적지 정보에 따라 서버가 경로를 생성하여 로봇에게 경로를 제공하고 로봇은 감시카메라의 로봇 위치 정보에 대해 서버와 지속적으로 통신하며 목적지까지 이동하는 방식으로 운영된다. 이동 로봇의 위치 정보를 파악해 정확성 높은 경로 주행 시스템을 목표로 하며 향후에 병원, 학교 등과 같은 실내 공간에서 활용가능하리라 기대한다.

Autonomous Driving Platform using Hybrid Camera System (복합형 카메라 시스템을 이용한 자율주행 차량 플랫폼)

  • Eun-Kyung Lee
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.18 no.6
    • /
    • pp.1307-1312
    • /
    • 2023
  • In this paper, we propose a hybrid camera system that combines cameras with different focal lengths and LiDAR (Light Detection and Ranging) sensors to address the core components of autonomous driving perception technology, which include object recognition and distance measurement. We extract objects within the scene and generate precise location and distance information for these objects using the proposed hybrid camera system. Initially, we employ the YOLO7 algorithm, widely utilized in the field of autonomous driving due to its advantages of fast computation, high accuracy, and real-time processing, for object recognition within the scene. Subsequently, we use multi-focal cameras to create depth maps to generate object positions and distance information. To enhance distance accuracy, we integrate the 3D distance information obtained from LiDAR sensors with the generated depth maps. In this paper, we introduce not only an autonomous vehicle platform capable of more accurately perceiving its surroundings during operation based on the proposed hybrid camera system, but also provide precise 3D spatial location and distance information. We anticipate that this will improve the safety and efficiency of autonomous vehicles.

자율주행 YT 개발을 위한 다중 센서 기반의 융합 인식기술

  • Kim, Tae-Geun;Lee, Seong-Ho
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2020.11a
    • /
    • pp.159-160
    • /
    • 2020
  • 카메라, 라이다, RTK-GNSS 등의 센서는 자율주행 YT 기술 개발을 위해 매우 주요한 요소이다. 본 연구에서는 항만 터미널의 무인화에 핵심 기술 중의 하나인 자율주행 YT에서 안전한 자율주행을 실현하기 위한 다중센서 기반의 융합인식 기술을 제안하고자 한다.

  • PDF

Real Time Monocular Navigation using VFH (단일 카메라를 이용한 VFH 기반의 실시간 주행 기술 개발)

  • Jo, Jang-won;Ju, Jin Sun;Ko, Eunjeong;Kim, Eun Yi
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.04a
    • /
    • pp.348-351
    • /
    • 2010
  • 본 논문에서는 단일 카메라로부터 주어진 영상을 실시간으로 장애물과 비장애물 영역으로 분류한 후 VFH 를 이용하여 안전한 경로를 선정하는 실시간 주행 시스템을 개발한다. 제안된 시스템은 점유 그리드맵 생성기와 VFH 기반의 선정기로 구성된다. 점유 그리드맵 생성기는 입력된 $320{\times}240$ 영상의 색조와 명도 정보를 이용하여 실시간으로 배경과 장애물 영역을 분류하고, 이를 바탕으로 위험도에 따라 10 개의 그레이 레벨을 가지는 $32{\times}24$ 의 점유 그리드맵을 생성한다. VFH를 이용하여 폴라 히스토그램을 작성한 후 밀도가 낮은 곳으로 주행 경로를 결정 한다. 제안된 기술의 효율성을 증명하기 위하여 다양한 형태의 장애물을 포함하는 실내 및 실외 환경에서 평가하였으며 센서 기반의 그 결과는 기존의 센서기반의 주행시스템과 비교 되었다. 그 결과 제안된 시스템은 88%의 정확도를 보였으며, 기존의 시스템보다 실시간으로 빠르고 안전한 주행을 수행할 수 있음이 증명되었다.

VFH-based Navigation using Monocular Vision (단일 카메라를 이용한 VFH기반의 실시간 주행 기술 개발)

  • Park, Se-Hyun;Hwang, Ji-Hye;Ju, Jin-Sun;Ko, Eun-Jeong;Ryu, Juang-Tak;Kim, Eun-Yi
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.16 no.2
    • /
    • pp.65-72
    • /
    • 2011
  • In this paper, a real-time monocular vision based navigation system is developed for the disabled people, where online background learning and vector field histogram are used for identifying obstacles and recognizing avoidable paths. The proposed system is performed by three steps: obstacle classification, occupancy grid map generation and VFH-based path recommendation. Firstly, the obstacles are discriminated from images by subtracting with background model which is learned in real time. Thereafter, based on the classification results, an occupancy map sized at $32{\times}24$ is produced, each cell of which represents its own risk by 10 gray levels. Finally, the polar histogram is drawn from the occupancy map, then the sectors corresponding to the valley are chosen as safe paths. To assess the effectiveness of the proposed system, it was tested with a variety of obstacles at indoors and outdoors, then it showed the a'ccuracy of 88%. Moreover, it showed the superior performance when comparing with sensor based navigation systems, which proved the feasibility of the proposed system in using assistive devices of disabled people.

An algorithm for autonomous driving on narrow and high-curvature roads based on AVM system. (좁고 곡률이 큰 도로에서의 자율주행을 위한 AVM 시스템 기반의 알고리즘)

  • Han, Kyung Yeop;Lee, Minho;Lee, SunWung;Ryu, Seokhoon;Lee, Young-Sup
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.924-926
    • /
    • 2017
  • 본 논문에서는 좁고 곡률이 큰 도로에서의 자율 주행을 위한 AVM 시스템 기반의 알고리즘을 제안한다. 기존의 전방을 주시하는 모노/스테레오 카메라를 이용한 차선 인식 방법을 이용한 자율주행 알고리즘은 모노/스테레오 카메라의 제한된 FOV (Field of View)로 인해 좁고 곡률이 큰 도로에서의 자율 주행에 한계가 있다. 제안하는 알고리즘은 AVM 시스템을 기반으로 하여 이 한계를 극복하고자 한다. AVM 시스템에서 얻은 영상을 차선의 색상 정보를 이용해 차선의 영역을 이진화 한다. 이진화 영상으로부터, 차량의 뒷바퀴 주변의 관심영역을 시작으로 재귀적 탐색법을 이용하여 좌, 우 차선을 검출한다. 검출된 좌, 우 차선의 중앙선을 차량의 경로로 삼고 조향각을 산출해 낸다. 제한하는 알고리즘을 실제 차량에 적용시킨 실험을 수행하였고, 운전면허 시험장의 코스를 차선의 이탈없이 주행 가능함을 실험적으로 확인하였다.

Information Fusion of Cameras and Laser Radars for Perception Systems of Autonomous Vehicles (영상 및 레이저레이더 정보융합을 통한 자율주행자동차의 주행환경인식 및 추적방법)

  • Lee, Minchae;Han, Jaehyun;Jang, Chulhoon;Sunwoo, Myoungho
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.23 no.1
    • /
    • pp.35-45
    • /
    • 2013
  • A autonomous vehicle requires improved and robust perception systems than conventional perception systems of intelligent vehicles. In particular, single sensor based perception systems have been widely studied by using cameras and laser radar sensors which are the most representative sensors for perception by providing object information such as distance information and object features. The distance information of the laser radar sensor is used for road environment perception of road structures, vehicles, and pedestrians. The image information of the camera is used for visual recognition such as lanes, crosswalks, and traffic signs. However, single sensor based perception systems suffer from false positives and true negatives which are caused by sensor limitations and road environments. Accordingly, information fusion systems are essentially required to ensure the robustness and stability of perception systems in harsh environments. This paper describes a perception system for autonomous vehicles, which performs information fusion to recognize road environments. Particularly, vision and laser radar sensors are fused together to detect lanes, crosswalks, and obstacles. The proposed perception system was validated on various roads and environmental conditions with an autonomous vehicle.

Implementation of Camera-Based Autonomous Driving Vehicle for Indoor Delivery using SLAM (SLAM을 이용한 카메라 기반의 실내 배송용 자율주행 차량 구현)

  • Kim, Yu-Jung;Kang, Jun-Woo;Yoon, Jung-Bin;Lee, Yu-Bin;Baek, Soo-Whang
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.17 no.4
    • /
    • pp.687-694
    • /
    • 2022
  • In this paper, we proposed an autonomous vehicle platform that delivers goods to a designated destination based on the SLAM (Simultaneous Localization and Mapping) map generated indoors by applying the Visual SLAM technology. To generate a SLAM map indoors, a depth camera for SLAM map generation was installed on the top of a small autonomous vehicle platform, and a tracking camera was installed for accurate location estimation in the SLAM map. In addition, a convolutional neural network (CNN) was used to recognize the label of the destination, and the driving algorithm was applied to accurately arrive at the destination. A prototype of an indoor delivery autonomous vehicle was manufactured, and the accuracy of the SLAM map was verified and a destination label recognition experiment was performed through CNN. As a result, the suitability of the autonomous driving vehicle implemented by increasing the label recognition success rate for indoor delivery purposes was verified.

A Recognition Algorithm for Vehicle Road Lanes and Obstacles Based on Single View Geometric Constitution (단일 시선 기하구조 기반 주행차선 및 장애물 인식 알고리듬)

  • 김정현;송성희;정용배;서경호;김태효
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.10a
    • /
    • pp.81-84
    • /
    • 2004
  • 본 논문에서는 1대의 CCD카메라로 주행 중 차선과 선행차량을 인식하고 선행차량까지의 거리를 실시간으로 계측하는 알고리즘을 제시하였다. 도로와 카메라간의 기하구조를 분석하여 사영행렬을 추출하였고, 주행 중 차간 거리를 실시간으로 계측하는데 이용하였다. 또한 차선 인식을 위해서 Hough Transform을 적용하여 처리시간을 단축하였다. 도로상의 장애물은 인식된 주행차선 내로 한정하였고 도로 영상에서 수평에지성분을 구한 후 히스토그램 투영을 적용하여 장애물을 검출하였다. 거리가 점차 멀어질수록 계측오차가 증가함을 볼 수 있었으나 기존의 방법에 비하여 주행 중에 운전자가 장애물을 판단하여 제동을 취할 수 있는 정도의 유효한 오차특성을 보였다.

  • PDF

Autonomous Driving Implementation Based on Lane Detection Using YOLOPv2 (YOLOPv2 를 활용한 차선 탐지 기반 자율주행 구현)

  • Joon-Hyuk Park;Jae-In Lee;Ye-Chan Jung;Si-Woo Lee;Jae-Wook Jeon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.1151-1152
    • /
    • 2023
  • 본 연구에서는 전동 차량의 자율주행 기능 구현을 위한 방법을 제시한다. 주요 구성 요소로는 카메라, PC, 아두이노, 모터드라이브, 가변저항 등이 사용되었다. 카메라를 통해 데이터를 수집한다. YOLOPv2 lane detection 딥러닝 모델을 사용하여 차선을 탐지하고, 후처리 과정을 통해 주행 경로를 정확히 인식한다. RANSAC 알고리즘을 활용하여 outlier 에 강건한 2 차 함수 회귀를 수행하고, 이를 바탕으로 주행 중 필요한 정보를 파악한다. 이러한 정보를 바탕으로 차량의 조향각을 조절하여 안전하고 효율적인 자율 주행을 구현하였다.