• 제목/요약/키워드: 카메라 기반 주행

검색결과 165건 처리시간 0.029초

자율주행을 위한 Self-Attention 기반 비지도 단안 카메라 영상 깊이 추정 (Unsupervised Monocular Depth Estimation Using Self-Attention for Autonomous Driving)

  • 황승준;박성준;백중환
    • 한국항행학회논문지
    • /
    • 제27권2호
    • /
    • pp.182-189
    • /
    • 2023
  • 깊이 추정은 차량, 로봇, 드론의 자율주행을 위한 3차원 지도 생성의 핵심 기술이다. 기존의 센서 기반 깊이 추정 방식은 정확도는 높지만 가격이 비싸고 해상도가 낮다. 반면 카메라 기반 깊이 추정 방식은 해상도가 높고 가격이 저렴하지만 정확도가 낮다. 본 연구에서는 무인항공기 카메라의 깊이 추정 성능 향상을 위해 Self-Attention 기반의 비지도 단안 카메라 영상 깊이 추정을 제안한다. 네트워크에 Self-Attention 연산을 적용하여 전역 특징 추출 성능을 향상시킨다. 또한 카메라 파라미터를 학습하는 네트워크를 추가하여 카메라 칼리브레이션이 안되어있는 이미지 데이터에서도 사용 가능하게 한다. 공간 데이터 생성을 위해 추정된 깊이와 카메라 포즈는 카메라 파라미터를 이용하여 포인트 클라우드로 변환되고, 포인트 클라우드는 Octree 구조의 점유 그리드를 사용하여 3D 맵으로 매핑된다. 제안된 네트워크는 합성 이미지와 Mid-Air 데이터 세트의 깊이 시퀀스를 사용하여 평가된다. 제안하는 네트워크는 이전 연구에 비해 7.69% 더 낮은 오류 값을 보여주었다.

주행 시 운전자의 운전작업 중 주의집중 모니터링에 대한 연구 동향 분석 (A Study on the Analysis of Research Trends on the Attention Monitoring of Drivers During Driving Tasks)

  • 한가을;김종배
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.383-386
    • /
    • 2021
  • 본 논문에서는 주행 중 운전자의 운전작업 중 전방 주의집중 여부를 모니터링하는 연구 방안들을 조사하고 최신 연구 동향을 분석하였으며, 자율주행자동차에서 운전자의 주의집중이 필요한 상황들에 대해 사전에 안내하는 방안을 제시하고자 한다. 연구 동향을 조사한 결과 대부분의 방법은 시각 자료 기반과 생체신호 기반으로 진행하고 있다. 연구분석 결과를 바탕으로 두 가지 방법 중 본 연구에서는 시각 자료 기반 연구 방법에 초점을 맞추어, 자동차에 설치된 카메라를 통해 수집된 영상에서 운전자의 운전작업 주의 여부를 식별하는 방법들에 대해서 분석을 진행하였다. 주행 영상에서 HoG(histogram of oriented gradients) 특징과 딥러닝 학습을 통해 운전자의 주의집중 여부를 모니터링하는 방법이 효과적임을 제시한다. 본 연구조사를 통해 분석된 운전자 모니터링 방안들을 자율주행 자동차에 적용하기 위한 운전자 주의 태만 경고시스템에 적용이 가능함을 제시한다.

LaneNet 차선 인식과 Fuzzy 모터 제어를 기반으로 한 주행 시스템 연구 (A Study on LaneNet Lane Detection and Fuzzy Motor Control-Based Driving System)

  • 유호연;홍석인
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.1175-1176
    • /
    • 2023
  • 전기차의 자율주행을 위해선 차선 인식과 모터 제어가 필요하다. 카메라로 입력된 영상에 허프 변환을 적용하고, 변환된 이진 이미지에 Enet 및 DeepLabv3+ 구조를 활용한 LaneNet 모델을 적용하여 차선을 학습시키고, Fuzzy 제어 기법을 활용하여 모터의 조향이 원활이 되도록 하였다. 기존의 Rule base 기법에 비하여 차선 인식 정확도가 월등히 향상되었으며, 주행 결과 Real-Time 주행환경 판단에 대한 여지를 남겼다.

협력주행 지원을 위한 2D 인프라 카메라 기반의 실시간 차량 중심 추정 방법 (Infrastructure 2D Camera-based Real-time Vehicle-centered Estimation Method for Cooperative Driving Support)

  • 조익현;박구만
    • 한국ITS학회 논문지
    • /
    • 제23권1호
    • /
    • pp.123-133
    • /
    • 2024
  • 기존의 자율주행 기술은 차량에 부착된 센서를 사용하여 환경을 감지하고 주행 계획을 수립하는 방식으로 개발되었으나, 악천후나 역광, 장애물로 인한 가려짐 등 특정 상황에서 성능이 저하되는 문제점이 있다. 이러한 문제점을 해결하기 위해 도로 인프라의 지원을 통해 자율주행 차량의 인지 범위를 확장하는 협력형 자율주행 기술이 주목받고 있으나, 단안 카메라에서는 국제 표준에서 요구하는 객체의 3D 중심점을 실시간으로 분석해내기 어렵다는 문제점이 있다. 이에 본 논문에서는 도로 인프라의 고정된 화각과 사전에 측정된 기하학적 정보를 활용하여 객체를 검출하고 실시간으로 차량의 중심점을 추정하는 방법을 제안하였다. GPS 위치 측정 장비를 활용하여 객체의 중심점을 효과적으로 추정할 수 있음을 확인하였으며, 제안된 방법은 차량 및 도로 인프라 간의 협력형 자율주행 기술에 적용 가능하여, 협력형 자율주행 인프라의 보급 및 확산에 기여할 수 있을 것으로 기대된다.

대학 캠퍼스용 로봇차량의 자율주행을 위한 실험환경 구축 (Experimental Setup for Autonomous Navigation of Robotic Vehicle for University Campus)

  • 조성택;박영준;정슬
    • 한국지능시스템학회논문지
    • /
    • 제26권2호
    • /
    • pp.105-112
    • /
    • 2016
  • 본 논문은 대학 캠퍼스를 주행하는 차량의 자율주행을 위한 실험환경 구축에 대해 논한다. 이 차량은 대학이나 공원과 같은 특별한 장소에서 사용되고 근거리를 이동하기 위해 2인이 탑승한다. 정문에서 본부까지 자율주행을 수행하기 위한 실험환경을 구축한다. 초기 단계로 카메라로 바닥의 색깔을 구별하여 선을 검출한다. 빨간색과 노란색의 경계선을 검출하여 로봇차량이 추종할 수 있도록 하였다. 일부 구간의 자율 주행 실험을 통해 가능성을 검증하였다.

동적환경에서 무선 AP를 이용한 모바일 로봇의 목표 탐색 알고리즘 (Target Object Search Algorithm for Mobile Robot Using Wireless AP in Dynamic Environment)

  • 조정우;배기민;원일용
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2016년도 추계학술발표대회
    • /
    • pp.775-778
    • /
    • 2016
  • 로봇 주행 기술은 전통적인 로봇요소 기술 외에도 여러 기술로 대상 응용서비스에 따라 IT 기술과 적극적인 융합을 통해 다양한 주행방법과 주행성능이 향상되고 있다. 본 논문에서는 대표적인 실내 모바일 로봇인 로봇 청소기를 대상으로 기존의 방법인 적외선과 카메라 방법이 아닌 보통 가정에도 쉽게 존재하는 AP를 이용해 목표를 설정하여 포섭구조 이론을 기반으로 동적인 환경에서도 충전 스테이션 까지 자율 주행이 가능한 로봇 알고리즘을 설계하였다. 그 결과 동적인 환경을 설정하여 로봇이 AP를 찾아가는 것을 확인하였고 주행 경로와 경과 시간을 표로 도출하여 다른 경우를 예측할 수 있게 하였다. 향후 행동 기반 로봇과 다양한 센서를 이용하여 로봇의 위치와 목표점 사이의 최단거리 경로를 구하여 주행하는 것이 목표이다.

3차원 장면 복원을 위한 강건한 실시간 시각 주행 거리 측정 (Robust Real-Time Visual Odometry Estimation for 3D Scene Reconstruction)

  • 김주희;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권4호
    • /
    • pp.187-194
    • /
    • 2015
  • 본 논문에서는 RGB-D 입력 영상들로부터 3차원 공간을 움직이는 카메라의 실시간 포즈를 효과적으로 추적할 수 있는 시각 주행 거리측정기를 제안한다. 본 논문에서 제안하는 시각 주행 거리 측정기에서는 컬러 영상과 깊이 영상의 풍부한 정보를 충분히 활용하면서도 실시간 계산량을 줄이기 위해, 특징 기반의 저밀도 주행 거리 계산 방법을 사용한다. 본 시스템에서는 보다 정확한 주행 거리 추정치를 얻기 위해, 카메라 이동 이전과 이동 이후의 영상에서 추출한 특징들을 정합한 뒤, 정합된 특징들에 대한 추가적인 정상 집합 정제 과정과 주행 거리 정제 작업을 반복한다. 또한, 정제 후 잔여 정상 집합의 크기가 충분치 않은 경우에도 잔여 정상 집합의 크기에 비례해 최종 주행 거리를 결정함으로써, 추적 성공률을 크게 향상시켰다. TUM 대학의 벤치마크 데이터 집합을 이용한 실험과 3차원 장면 복원 응용 시스템의 구현을 통해, 본 논문에서 제안하는 시각 주행 거리 측정 방법의 높은 성능을 확인할 수 있었다.

특징점 병합과 카메라 외부 파라미터 추정 결과를 고려한 B-snake기반 차선 검출 (B-snake Based Lane Detection with Feature Merging and Extrinsic Camera Parameter Estimation)

  • 하상헌;김경환
    • 전자공학회논문지
    • /
    • 제50권1호
    • /
    • pp.215-224
    • /
    • 2013
  • 본 논문은 주행중 차량에 장착된 카메라의 자세 변화를 카메라 외부 파라미터의 변화로 간주하고, 이의 추정을 통하여 도로의 요철과 전방 도로의 기울기 변화 등에 강건한 차선 검출 알고리즘을 제안한다. 제안하는 알고리즘에서 차선은 실세계 좌표에서 좌우가 평행하고 고정된 폭을 가진다 가정하며, 카메라 움직임을 고려한 연속된 영상들의 병합된 특징맵에서 B-snake를 이용하여 차선 검출과 카메라 외부 파라미터 추정이 동시에 수행된다. 실험을 통하여 카메라 외부 파라미터에 영향을 주는 주행 도로 환경의 변화에 강건한 차선 검출 결과를 확인하였으며, 추정된 카메라 외부 파라미터의 정확성은 전방 차량에 대한 레이더 실측 거리와의 비교를 통해 확인했다.

YOLOv8 알고리즘 기반의 주행 가능한 도로 영역 인식과 실시간 추적 기법에 관한 연구 (Research on Drivable Road Area Recognition and Real-Time Tracking Techniques Based on YOLOv8 Algorithm)

  • 서정희
    • 한국전자통신학회논문지
    • /
    • 제19권3호
    • /
    • pp.563-570
    • /
    • 2024
  • 본 논문은 운전자의 운행 보조 역할로 주행 가능한 차선 영역을 인식하고 추적하는 방법을 제안한다. 주요 주제는 차량 내부의 앞 유리 중앙에 설치된 카메라를 통해 실시간으로 획득한 영상을 기반으로 컴퓨터 비전과 딥 러닝 기술을 활용하여 주행 가능한 도로 영역을 예측하는 심층 기반 네트워크를 설계한다. 본 연구는 YOLOv8 알고리즘을 이용하여 카메라에서 직접 획득한 데이터로 훈련한 새로운 모델을 개발하는 것을 목표한다. 실제 도로에서 자신의 차량의 정확한 위치를 실제 영상과 일치하게 시각화하여 주행 가능한 차선 영역을 표시 및 추적함으로써 운전자 운행의 보조하는 역할을 기대한다. 실험 결과, 대부분 주행 가능한 도로 영역의 추적이 가능했으나 밤에 비가 심하게 오는 경우와 같은 악천후에서 차선이 정확하게 인식되지 않는 경우가 발생하여 이를 해결하기 위한 모델의 성능 개선이 필요하다.

스테레오 비전 및 End-to-End Learning 기반 자율주행 시스템 (An Autonomous Driving System Based on Stereo-Vision and End-to-End Learning)

  • 윤예중 ;송지환;변형섭 ;박배성 ;김종현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.1171-1172
    • /
    • 2023
  • 자율주행 기술에서 스테레오 비전과 End-to-End Driving은 많이 사용되는 기술이며 본 연구에서는 이를 신호등 인식과 주행에 적용하였다. 신호등 인식은 좌우 카메라로부터 적색 원을 인식한 후 스테레오 비전을 통해 신호등과의 거리를 추정한다. 주행 시스템은 End-to-End Learning 기반으로 이루어지며, 출력값인 가변저항을 조향각으로 변환하여 제어할 수 있다. 또한 감마 보정을 통한 데이터 증강을 통해 빛에 대해 민감하지 않게 모델을 학습하였다. 추후 신호등 인식 시 HSV 필터가 빛에 민감한 점과 주행 시 가변저항 값이 일정하지 않은 점이 해결된다면 더욱 안정적인 시스템을 구축할 수 있을 것으로 기대된다.