• Title/Summary/Keyword: 카메라 기반 주행

Search Result 165, Processing Time 0.031 seconds

Intelligent System based on Command Fusion and Fuzzy Logic Approaches - Application to mobile robot navigation (명령융합과 퍼지기반의 지능형 시스템-이동로봇주행적용)

  • Jin, Taeseok;Kim, Hyun-Deok
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.18 no.5
    • /
    • pp.1034-1041
    • /
    • 2014
  • This paper propose a fuzzy inference model for obstacle avoidance for a mobile robot with an active camera, which is intelligently searching the goal location in unknown environments using command fusion, based on situational command using an vision sensor. Instead of using "physical sensor fusion" method which generates the trajectory of a robot based upon the environment model and sensory data. In this paper, "command fusion" method is used to govern the robot motions. The navigation strategy is based on the combination of fuzzy rules tuned for both goal-approach and obstacle-avoidance. We describe experimental results obtained with the proposed method that demonstrate successful navigation using real vision data.

A Study on Sensor Modeling for Virtual Testing of ADS Based on MIL Simulation (MIL 시뮬레이션 기반 ADS 기능 검증을 위한 환경 센서 모델링에 관한 연구)

  • Shin, Seong-Geun;Baek, Yun-Seok;Park, Jong-Ki;Lee, Hyuck-Kee
    • The Journal of The Korea Institute of Intelligent Transport Systems
    • /
    • v.20 no.6
    • /
    • pp.331-345
    • /
    • 2021
  • Virtual testing is considered a major requirement for the safety verification of autonomous driving functions. For virtual testing, both the autonomous vehicle and the driving environment should be modeled appropriately. In particular, a realistic modeling of the perception sensor system such as the one having a camera and radar is important. However, research on modeling to consistently generate realistic perception results is lacking. Therefore, this paper presents a sensor modeling method to provide realistic object detection results in a MILS (Model in the Loop Simulation) environment. First, the key parameters for modeling are defined, and the object detection characteristics of actual cameras and radar sensors are analyzed. Then, the detection characteristics of a sensor modeled in a simulation environment, based on the analysis results, are validated through a correlation coefficient analysis that considers an actual sensor.

Lane Tracking of Autonomous Vehicles using PID Control (PID 제어를 이용한 자율주행자동차의 차선 추적)

  • Kim, Hyun-Sik;Jang, Jae-Young;Kim, Chan-Su;Jeon, Joongnam
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.325-328
    • /
    • 2019
  • 자율주행 자동차는 운전자가 개입하지 않고 차량에 부착된 다양한 센서를 통해 얻은 데이터를 기반으로 차량을 스스로 제어하며 설정한 목적지까지 주행한다. 본 논문에서는 단일 카메라와 영상을 사용한 차선 검출하고 추적하는 방법을 제안한다. 영상의 하단 부분만 분리하여 차선을 검출하기 위하여 외곽선 검출 과정을 거친 후 허프 변환을 통해 양 차선의 중심을 구한다. 이 값을 바탕으로 PID 제어로 차량의 차선을 유지한다. 모형 차량과 모형 트랙에서 차선 인식 후 차선을 추적하여 주행하는 동작을 시험하였다. PID 제어를 위헌 적정 각 항의 값을 구하였다. 시험 결과 차선 검출 알고리즘은 성공적으로 동작함을 확인할 수 있었다.

A Study on AI-based Autonomous Traffic Cone Tracking Algorithm for 1/5 scale Car Platform (인공지능기반 1/5 스케일 콘 추종 자율 주행 기법에 관한 연구)

  • Tae Min KIM;Seong Bin MA;Ui Jun SONG;Yu Bin WON;Jae Hyeok LEE;Kuk Won KO
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.283-284
    • /
    • 2023
  • 자율주행 경진대회에서 학생들의 장애물 후에 경로를 생성 능력을 검정하는 라바콘 추종 종목은 중요한 항목 중의 하나이다. 라바콘의 위치를 알기 위해서는 라이다 센서가 필요하다. 실내의 경우 저가의 2D 라이다 센서를 사용하여 콘의 위치 검출이 가능하지만, 실외의 경우에는 고가의 3D 라이다 센서 또는 고가의 3차원 카메라가 필요하다. 이러한 고가의 기자재는 실습의 대중화에 걸림돌이 되고 있으므로, 1개의 카메라와 인공지능을 이용한 라이다 콘의 검출하는 방법을 개발하였고, 이를 활용하여 경로 생성 및 제어를 수행하였다. 그 결과 0.4m 이내의 정밀도로 콘의 위치 추정과 주행을 성공적으로 수행하였다.

Educational Indoor Autonomous Mobile Robot System Using a LiDAR and a RGB-D Camera (라이다와 RGB-D 카메라를 이용하는 교육용 실내 자율 주행 로봇 시스템)

  • Lee, Soo-Young;Kim, Jae-Young;Cho, Se-Hyoung;Shin, Chang-yong
    • Journal of IKEEE
    • /
    • v.23 no.1
    • /
    • pp.44-52
    • /
    • 2019
  • We implement an educational indoor autonomous mobile robot system that integrates LiDAR sensing information with RGB-D camera image information and exploits the integrated information. This system uses the existing sensing method employing a LiDAR with a small number of scan channels to acquire LiDAR sensing information. To remedy the weakness of the existing LiDAR sensing method, we propose the 3D structure recognition technique using depth images from a RGB-D camera and the deep learning based object recognition algorithm and apply the proposed technique to the system.

Design of Household Trash Collection Robot using Deep Learning Object Recognition (딥러닝 객체 인식을 이용한 가정용 쓰레기 수거 로봇 설계)

  • Ju-hyeon Lee;Dong-myung Kim;Byeong-chan Choi;Woo-jin Kim;Kyu-ho Lee;Jae-wook Shin;Tae-sang Yun;Kwang Sik Youn;Ok-Kyoon Ha
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.113-114
    • /
    • 2023
  • 가정용 생활 쓰레기 수거 작업은 야간이나 이른 새벽에 이루어지고 있어 환경미화원의 안전사고와 수거 차량으로 인한 소음 문제가 빈번하게 발생한다. 본 논문에서는 딥러닝 기반의 영상 인식을 활용하여 종량제 봉투를 인식하고 수거가 가능한 생활 쓰레기 수거 로봇의 설계를 제시한다. 제시하는 생활 쓰레기 수거 로봇은 지정 구역을 자율주행하며 로봇에 장착된 카메라를 이용해 학습된 모델을 기반으로 가정용 쓰레기 종량제 봉투를 검출한다. 이를 통해 처리 대상으로 지정된 종량제 봉투와 로봇 팔 사이의 거리를 카메라를 활용하여 얻은 깊이 정보와 2차원 좌표를 토대로 목표 위치를 예측해 로봇 팔의 관절을 제어하여 봉투를 수거한다. 해당 로봇은 생활 쓰레기 수거 작업 과정에서 환경미화원을 보조하여 미화원의 안전 확보와 소음 저감을 위한 기기로 활용될 수 있다.

  • PDF

Autonomous driving drones using real-time face detection and motion recognition (실시간 얼굴 검출 및 모션 인식을 이용한 촬영용 자율 주행 드론)

  • Lee, Jay;Lee, Ju-Young;kim, Dong-Un;Jeon, Kyung Koo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.10a
    • /
    • pp.509-511
    • /
    • 2018
  • 셀프 카메라로 배경과 함꼐 사용자 자기 자신의 전신 샷을 찍을 수 있도록 도와주는 '셀카봉'이 등장하였지만 아직도 사용자부터 카메라까지 거리의 한계가 존재하기 때문에 셀프 카메라를 찍는 것에 불편함이 있다. 이러한 문제점을 해결하기 위해 드론을 이용하여 셀프 카메라를 찍을 수 있도록 하는 기술을 제안한다. Real-Time 영상처리를 이용해 웹과 드론이 서로 통신을 하여 Haar Cascade 알고리즘을 기반으로 사용자의 얼굴을 실시간으로 인식하고 PID 제어를 통해 드론을 자동으로 조종한다면 사용자의 제스쳐에 인식해 드론의 촬영 기능을 컨트롤 할 수 있도록 한다.

Development of a Fault Detection Algorithm for Multi-Autonomous Driving Perception Sensors Based on FIR Filters (FIR 필터 기반 다중 자율주행 인지 센서 결함 감지 알고리즘 개발)

  • Jae-lee Kim;Man-bok Park
    • The Journal of The Korea Institute of Intelligent Transport Systems
    • /
    • v.22 no.3
    • /
    • pp.175-189
    • /
    • 2023
  • Fault detection and diagnosis (FDI) algorithms are actively being researched for ensuring the integrity and reliability of environment perception sensors in autonomous vehicles. In this paper, a fault detection algorithm based on a multi-sensor perception system composed of radar, camera, and lidar is proposed to guarantee the safety of an autonomous vehicle's perception system. The algorithm utilizes reference generation filters and residual generation filters based on finite impulse response (FIR) filter estimates. By analyzing the residuals generated from the filtered sensor observations and the estimated state errors of individual objects, the algorithm detects faults in the environment perception sensors. The proposed algorithm was evaluated by comparing its performance with a Kalman filter-based algorithm through numerical simulations in a virtual environment. This research could help to ensure the safety and reliability of autonomous vehicles and to enhance the integrity of their environment perception sensors.

Implementation of Remote Image Surveillance for Mobile Robot Platform based on Embedded Processor (주행용 로봇 플랫폼을 위한 임베디드 프로세서 기반 원격영상감시 시스템 구현)

  • Han, Kyong-Ho;Yun, Hyo-Won
    • Journal of the Korean Institute of Illuminating and Electrical Installation Engineers
    • /
    • v.23 no.1
    • /
    • pp.125-131
    • /
    • 2009
  • In this paper, we proposed the remote visual monitoring system on mobile robot platform. The proposed system is composed of ARM9 core PXA255 processor, micro CMOS camera and wireless network and the captured visual image is transmitted via 803.11b/g wireless LAN(WLAN) for remote visual monitoring operations. Robot platform maneuvering command is transmitted via WLAN from host and the $640{\times}480$, $320{\times}240$ pixel fixed visual image is transmitted to host at the rate of $3{\sim}10$ frames per second. Experimental system is implemented on Linux OS base and tested for remote visual monitoring operation and verified the proposed objects.

Study of Adversarial Attack and Defense Deep Learning Model for Autonomous Driving (자율주행을 위한 적대적 공격 및 방어 딥러닝 모델 연구)

  • Kim, Chae-Hyeon;Lee, Jin-Kyu;Jung, Eun;Jung, Jae-Ho;Lee, Hyun-Jung;Lee, Gyu-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.803-805
    • /
    • 2022
  • 자율주행의 시대가 도래함에 따라, 딥러닝 모델에 대한 적대적 공격 위험이 함께 증가하고 있다. 카메라 기반 자율주행차량이 공격받을 경우 보행자나 표지판 등에 대한 오분류로 인해 심각한 사고로 이어질 수 있어, 자율주행 시스템에서의 적대적 공격에 대한 방어 및 보안 기술 연구가 필수적이다. 이에 본 논문에서는 GTSRB 표지판 데이터를 이용하여 각종 공격 및 방어 기법을 개발하고 제안한다. 시간 및 정확도 측면에서 성능을 비교함으로써, 자율주행에 최적인 모델을 탐구하고 더 나아가 해당 모델들의 완전자율주행을 위한 발전 방향을 제안한다.