• 제목/요약/키워드: 영상 주행기록계

검색결과 6건 처리시간 0.049초

동영상을 이용한 설계속도별 주행속도 산정 (The Estimation of Operating Speed Classified by Design Speed Using Moving Image)

  • 이종출;서동주;김진수;김성호
    • 한국공간정보시스템학회:학술대회논문집
    • /
    • 한국공간정보시스템학회 2005년도 GIS/RS 공동 춘계학술대회
    • /
    • pp.413-417
    • /
    • 2005
  • 본 연구에서는 설계속도별 연속류 흐름을 가진 대상도로를 선택하여, 대상도로의 비첨두 시간을 정하여, 동영상에 의한 촬영을 실시하여 구간 주행속도를 추출하는 연구를 수행하였다. 각 대상구간의 거리는 수치지도 및 측량, 주행기록계 등을 이용하여 측정하였고, 영상의 분석을 통하여 차량의 구간통과시간을 산정하여 설계속도별 주행속도를 추출하였다. 그에 대한 검증으로 차량의 DGPS를 장착하여 대상도로를 주행하면서 동영상에 의한 주행속도와 비교 검증을 실시하였다.

  • PDF

지면 특징점을 이용한 영상 주행기록계에 관한 연구 (A Study on the Visual Odometer using Ground Feature Point)

  • 이윤섭;노경곤;김진걸
    • 한국정밀공학회지
    • /
    • 제28권3호
    • /
    • pp.330-338
    • /
    • 2011
  • Odometry is the critical factor to estimate the location of the robot. In the mobile robot with wheels, odometry can be performed using the information from the encoder. However, the information of location in the encoder is inaccurate because of the errors caused by the wheel's alignment or slip. In general, visual odometer has been used to compensate for the kinetic errors of robot. In case of using the visual odometry under some robot system, the kinetic analysis is required for compensation of errors, which means that the conventional visual odometry cannot be easily applied to the implementation of the other type of the robot system. In this paper, the novel visual odometry, which employs only the single camera toward the ground, is proposed. The camera is mounted at the center of the bottom of the mobile robot. Feature points of the ground image are extracted by using median filter and color contrast filter. In addition, the linear and angular vectors of the mobile robot are calculated with feature points matching, and the visual odometry is performed by using these linear and angular vectors. The proposed odometry is verified through the experimental results of driving tests using the encoder and the new visual odometry.

딥러닝 기반 영상 주행기록계와 단안 깊이 추정 및 기술을 위한 벤치마크 (Benchmark for Deep Learning based Visual Odometry and Monocular Depth Estimation)

  • 최혁두
    • 로봇학회논문지
    • /
    • 제14권2호
    • /
    • pp.114-121
    • /
    • 2019
  • This paper presents a new benchmark system for visual odometry (VO) and monocular depth estimation (MDE). As deep learning has become a key technology in computer vision, many researchers are trying to apply deep learning to VO and MDE. Just a couple of years ago, they were independently studied in a supervised way, but now they are coupled and trained together in an unsupervised way. However, before designing fancy models and losses, we have to customize datasets to use them for training and testing. After training, the model has to be compared with the existing models, which is also a huge burden. The benchmark provides input dataset ready-to-use for VO and MDE research in 'tfrecords' format and output dataset that includes model checkpoints and inference results of the existing models. It also provides various tools for data formatting, training, and evaluation. In the experiments, the exsiting models were evaluated to verify their performances presented in the corresponding papers and we found that the evaluation result is inferior to the presented performances.

2차원 라이다와 상업용 영상-관성 기반 주행 거리 기록계를 이용한 3차원 점 구름 지도 작성 시스템 개발 (Development of 3D Point Cloud Mapping System Using 2D LiDAR and Commercial Visual-inertial Odometry Sensor)

  • 문종식;이병윤
    • 대한임베디드공학회논문지
    • /
    • 제16권3호
    • /
    • pp.107-111
    • /
    • 2021
  • A 3D point cloud map is an essential elements in various fields, including precise autonomous navigation system. However, generating a 3D point cloud map using a single sensor has limitations due to the price of expensive sensor. In order to solve this problem, we propose a precise 3D mapping system using low-cost sensor fusion. Generating a point cloud map requires the process of estimating the current position and attitude, and describing the surrounding environment. In this paper, we utilized a commercial visual-inertial odometry sensor to estimate the current position and attitude states. Based on the state value, the 2D LiDAR measurement values describe the surrounding environment to create a point cloud map. To analyze the performance of the proposed algorithm, we compared the performance of the proposed algorithm and the 3D LiDAR-based SLAM (simultaneous localization and mapping) algorithm. As a result, it was confirmed that a precise 3D point cloud map can be generated with the low-cost sensor fusion system proposed in this paper.

위험 운전 유형 분류 및 데이터 로거 개발 (Development of a Data-logger Classifying Dangerous Drive Behaviors)

  • 오주택;조준희;이상용;김영삼
    • 한국ITS학회 논문지
    • /
    • 제7권3호
    • /
    • pp.15-28
    • /
    • 2008
  • 교통사고의 여러 요인 중 대부분의 사고가 운전자의 특성과 운전행태가 교통사고에 가장 큰 영향을 미치고 있음을 2006년 경찰청 사고건수 자료를 통하여 파악 할 수 있다. 현재 교통사고 감소 및 안전운전에 대한 사회적 요구에 부응하기 위하여 디지털 주행기록계, 차량용 블랙박스 등이 출시되고 있으나 위험운전 유형에 대한 명확한 분류가 이루어지지 않아 그 효율성이 매우 떨어지고 있다. 이에 본 연구에서는 운전자로부터 발생할 수 있는 위험운전 유형을 발생 원인을 중심으로 7가지의 대분류와 이를 좀더 구체화한 16가지의 소분류로 재정의 하였다. 또한 재정의 된 위험운전 유형에 대한 분석을 위하여 차량거동상태에 따른 모든 차량데이터를 취득 분석할 수 있는 Data-logger를 개발하였다. 개발된 Data-logger는 시험차량으로부터 실시간으로 전송되는 가속, 감속, Yaw rate, 영상데이터 등을 이용하여 운전자로부터 발생 할 수 있는 위험운전 유형을 검출하여 실시간으로 위험운전에 대한 경보를 제공할 수 있는 시스템 및 향후 안전운전 관리 시스템을 구축할 수 있다.

  • PDF

인공지능 딥러링 학습 플랫폼에 관한 선행연구 고찰 (A Review on Deep Learning Platform for Artificial Intelligence)

  • 진찬용;신성윤;남수태
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2019년도 춘계학술대회
    • /
    • pp.169-170
    • /
    • 2019
  • 인공지능이 글로벌 경쟁력 원천 기술로 부각되면서 정부도 자율주행차, 드론, 로봇 등 미래 신산업의 기반 기술이 되는 인공지능을 전략적으로 육성하고 있다. 국내 인공지능 연구 및 서비스는 네이버와 카카오를 중심으로 출시되었으나 해외에 비하면 규모나 수준이 미약한 편이다. 최근, 딥러닝 (deep learning)은 최근 음성인식과 영상인식을 비롯한 다양한 패턴인식 분야에서 혁신적인 성능을 기록하면서 많은 연구가 진행되고 있다. 그 뿐만 아니라 딥러닝은 초창기부터 산업계의 큰 관심을 끌어 구글이나 마이크로소프트, 삼성전자 등 글로벌 정보기술 회사에서 상용제품에 딥러닝 기술을 성공적으로 적용하고 있고 계속 연구개발을 진행하고 있어 대중매체에서도 관심을 가지고 주목하고 있다. 이러한 선행연구를 바탕으로 주목 받고 있는 인공지능에 대해 살펴보도록 하겠다.

  • PDF