• 제목/요약/키워드: Vision Based Navigation

검색결과 195건 처리시간 0.03초

카메라-라이다 융합 모델의 오류 유발을 위한 스케일링 공격 방법 (Scaling Attack Method for Misalignment Error of Camera-LiDAR Calibration Model)

  • 임이지;최대선
    • 정보보호학회논문지
    • /
    • 제33권6호
    • /
    • pp.1099-1110
    • /
    • 2023
  • 자율주행 및 robot navigation의 인식 시스템은 성능 향상을 위해 다중 센서를 융합(Multi-Sensor Fusion)을 한 후, 객체 인식 및 추적, 차선 감지 등의 비전 작업을 한다. 현재 카메라와 라이다 센서의 융합을 기반으로 한 딥러닝 모델에 대한 연구가 활발히 이루어지고 있다. 그러나 딥러닝 모델은 입력 데이터의 변조를 통한 적대적 공격에 취약하다. 기존의 다중 센서 기반 자율주행 인식 시스템에 대한 공격은 객체 인식 모델의 신뢰 점수를 낮춰 장애물 오검출을 유도하는 데에 초점이 맞춰져 있다. 그러나 타겟 모델에만 공격이 가능하다는 한계가 있다. 센서 융합단계에 대한 공격의 경우 융합 이후의 비전 작업에 대한 오류를 연쇄적으로 유발할 수 있으며, 이러한 위험성에 대한 고려가 필요하다. 또한 시각적으로 판단하기 어려운 라이다의 포인트 클라우드 데이터에 대한 공격을 진행하여 공격 여부를 판단하기 어렵도록 한다. 본 연구에서는 이미지 스케일링 기반 카메라-라이다 융합 모델(camera-LiDAR calibration model)인 LCCNet 의 정확도를 저하시키는 공격 방법을 제안한다. 제안 방법은 입력 라이다의 포인트에 스케일링 공격을 하고자 한다. 스케일링 알고리즘과 크기별 공격 성능 실험을 진행한 결과 평균 77% 이상의 융합 오류를 유발하였다.

Performance of AMI-CORBA for Field Robot Application

  • Syahroni Nanang;Choi Jae-Weon
    • 한국정밀공학회:학술대회논문집
    • /
    • 한국정밀공학회 2005년도 추계학술대회 논문집
    • /
    • pp.384-389
    • /
    • 2005
  • The objective on this project is to develop a cooperative Field Robot (FR), by using a customize Open Control Platform (OCP) as design and development process. An OCP is a CORBA-based solution for networked control system, which facilitates the transitioning of control designs to embedded targets. In order to achieve the cooperation surveillance system, two FRs are distributed by navigation messages (GPS and sensor data) using CORBA event-channel communication, while graphical information from IR night vision camera is distributed using CORBA Asynchronous Method Invocation (AMI). The QoS features of AMI in the network are to provide the additional delivery method for distributing an IR camera Images will be evaluate in this experiment. In this paper also presents an empirical performance evaluation from the variable chunk sizes were compared with the number of clients and message latency, some of the measurement data's are summarized in the following paragraph. In the AMI buffers size measurement, when the chuck sizes were change, the message latency is significantly change according to it frame size. The smaller frame size between 256 bytes to 512 bytes is more efficient fur the message size below 2Mbytes, but it average performance in the large of message size a bigger frame size is more efficient. For the several destination, the same experiment using 512 bytes to 2 Mbytes frame with 2 to 5 destinations are presented. For the message size bigger than 2Mbytes, the AMI are still able to meet requirement far more than 5 clients simultaneously.

  • PDF

언어-기반 제로-샷 물체 목표 탐색 이동 작업들을 위한 인공지능 기저 모델들의 활용 (Utilizing AI Foundation Models for Language-Driven Zero-Shot Object Navigation Tasks)

  • 최정현;백호준;박찬솔;김인철
    • 로봇학회논문지
    • /
    • 제19권3호
    • /
    • pp.293-310
    • /
    • 2024
  • In this paper, we propose an agent model for Language-Driven Zero-Shot Object Navigation (L-ZSON) tasks, which takes in a freeform language description of an unseen target object and navigates to find out the target object in an inexperienced environment. In general, an L-ZSON agent should able to visually ground the target object by understanding the freeform language description of it and recognizing the corresponding visual object in camera images. Moreover, the L-ZSON agent should be also able to build a rich spatial context map over the unknown environment and decide efficient exploration actions based on the map until the target object is present in the field of view. To address these challenging issues, we proposes AML (Agent Model for L-ZSON), a novel L-ZSON agent model to make effective use of AI foundation models such as Large Language Model (LLM) and Vision-Language model (VLM). In order to tackle the visual grounding issue of the target object description, our agent model employs GLEE, a VLM pretrained for locating and identifying arbitrary objects in images and videos in the open world scenario. To meet the exploration policy issue, the proposed agent model leverages the commonsense knowledge of LLM to make sequential navigational decisions. By conducting various quantitative and qualitative experiments with RoboTHOR, the 3D simulation platform and PASTURE, the L-ZSON benchmark dataset, we show the superior performance of the proposed agent model.

스켈레톤 조인트 매핑을 이용한 딥 러닝 기반 행동 인식 (Deep Learning-based Action Recognition using Skeleton Joints Mapping)

  • 타스님;백중환
    • 한국항행학회논문지
    • /
    • 제24권2호
    • /
    • pp.155-162
    • /
    • 2020
  • 최근 컴퓨터 비전과 딥러닝 기술의 발전으로 비디오 분석, 영상 감시, 인터렉티브 멀티미디어 및 인간 기계 상호작용 응용을 위해 인간 행동 인식에 관한 연구가 활발히 진행되고 있다. 많은 연구자에 의해 RGB 영상, 깊이 영상, 스켈레톤 및 관성 데이터를 사용하여 인간 행동 인식 및 분류를 위해 다양한 기술이 도입되었다. 그러나 스켈레톤 기반 행동 인식은 여전히 인간 기계 상호작용 분야에서 도전적인 연구 주제이다. 본 논문에서는 동적 이미지라 불리는 시공간 이미지를 생성하기 위해 동작의 종단간 스켈레톤 조인트 매핑 기법을 제안한다. 행동 클래스 간의 분류를 수행하기 위해 효율적인 심층 컨볼루션 신경망이 고안된다. 제안된 기법의 성능을 평가하기 위해 공개적으로 액세스 가능한 UTD-MHAD 스켈레톤 데이터 세트를 사용하였다. 실험 결과 제안된 시스템이 97.45 %의 높은 정확도로 기존 방법보다 성능이 우수함을 보였다.

GPU를 이용한 영상기반 고속 해무제거 기술 (Digital Image based Real-time Sea Fog Removal Technique using GPU)

  • 최운식;이윤혁;서영호;최현준
    • 한국정보통신학회논문지
    • /
    • 제20권12호
    • /
    • pp.2355-2362
    • /
    • 2016
  • 해무 제거는 컴퓨터 비전과 영상처리 분야에서 상당히 중요하게 다루고 있는 분야이다. 해무 혹은 안개제거 기술은 자동 제어 시스템, CCTV, 영상인식 등과 같은 여러 분야에서 사용되고 있다. 이와 같이 컬러 영상의 해무 제거 기술이 다양하게 연구되고 있고 특히 Dark Channel Prior (DCP) 기술을 이용한 방법이 가장 활발하게 이용되고 있다. 본 논문에서는 DCP 알고리즘을 적용하여 해무를 빠르고 효율적으로 제거하는 기술을 소개한다. 이 기술은 GPU를 기반으로 구현한다. 병렬 프로그래밍과 최적화 과정을 거쳐 약 250배 정도의 연산속도를 빠르게 개선하였다. 이를 위해 기존의 프로그램 일부분을 몇 가지 과정을 거쳐 병렬화와 최적화 과정을 수행하였다. 제안한 GPU 프로그래밍 알고리즘과 구현결과는 선박의 안전항해, 지형조사, 지능형 자동차 등과 같은 분야에 적용될 수 있을 것으로 기대된다.

스테레오 카메라의 양안 시차를 이용한 거리 계측의 고속 연산 알고리즘 (An Efficient Algorithm for 3-D Range Measurement using Disparity of Stereoscopic Camera)

  • 김재한
    • 한국정보통신학회논문지
    • /
    • 제5권6호
    • /
    • pp.1163-1168
    • /
    • 2001
  • 거리 계측 시스템은 물체까지의 거리를 삼차원 좌표계에서 측정하는 장치이다. 군용 장비나 건설, 항해, 검사 조립, 로봇 비전 등에 널리 사용되는 무접촉식 원격 거리 계측(ranging) 시스템은 자동화 응용에 매우 중요하다. 계측 방식은 active와 passive방식으로 구분되는데, active방식은 laser나 microwave, 초음파 등의 time of flight를 이용하거나 레이저 조사(illumination)에 대한 카메라 영상을 해석하는 등의 다양한 방식이 있으나 장치가 복잡하며, passive 방식은 stereo camera의 양안영상을 이용하거나 focus특성을 이용하는 방식 등이 있으나 대부분 연산시간이 많이 요구된다. 본 연구에서는 수동식 스테레오 카메라에서 양안시차를 산출하여 triangulation으로 목표전의 거리를 측정하는 방식에서, 연산 시간이 많이 소요되는 과정을 고속으로 처리하는 새로운 방식을 제안하였다. 즉, 목표점에서의 양안 edge 영상을 구하고, 이 영상의 projection profile을 cross correlation하여, 시차를 고속으로 산출해 거리를 구하는 알고리즘을 제안하였으며, 이 방식의 효율성을 실험 결과를 통하여 보였다.

  • PDF

수중 영상 소나의 번들 조정과 3차원 복원을 위한 운동 추정의 모호성에 관한 연구 (Bundle Adjustment and 3D Reconstruction Method for Underwater Sonar Image)

  • 신영식;이영준;최현택;김아영
    • 로봇학회논문지
    • /
    • 제11권2호
    • /
    • pp.51-59
    • /
    • 2016
  • In this paper we present (1) analysis of imaging sonar measurement for two-view relative pose estimation of an autonomous vehicle and (2) bundle adjustment and 3D reconstruction method using imaging sonar. Sonar has been a popular sensor for underwater application due to its robustness to water turbidity and visibility in water medium. While vision based motion estimation has been applied to many ground vehicles for motion estimation and 3D reconstruction, imaging sonar addresses challenges in relative sensor frame motion. We focus on the fact that the sonar measurement inherently poses ambiguity in its measurement. This paper illustrates the source of the ambiguity in sonar measurements and summarizes assumptions for sonar based robot navigation. For validation, we synthetically generated underwater seafloor with varying complexity to analyze the error in the motion estimation.

2차원 라이다와 상업용 영상-관성 기반 주행 거리 기록계를 이용한 3차원 점 구름 지도 작성 시스템 개발 (Development of 3D Point Cloud Mapping System Using 2D LiDAR and Commercial Visual-inertial Odometry Sensor)

  • 문종식;이병윤
    • 대한임베디드공학회논문지
    • /
    • 제16권3호
    • /
    • pp.107-111
    • /
    • 2021
  • A 3D point cloud map is an essential elements in various fields, including precise autonomous navigation system. However, generating a 3D point cloud map using a single sensor has limitations due to the price of expensive sensor. In order to solve this problem, we propose a precise 3D mapping system using low-cost sensor fusion. Generating a point cloud map requires the process of estimating the current position and attitude, and describing the surrounding environment. In this paper, we utilized a commercial visual-inertial odometry sensor to estimate the current position and attitude states. Based on the state value, the 2D LiDAR measurement values describe the surrounding environment to create a point cloud map. To analyze the performance of the proposed algorithm, we compared the performance of the proposed algorithm and the 3D LiDAR-based SLAM (simultaneous localization and mapping) algorithm. As a result, it was confirmed that a precise 3D point cloud map can be generated with the low-cost sensor fusion system proposed in this paper.

DSM과 다시점 거리영상의 3차원 등록을 이용한 무인이동차량의 위치 추정: 가상환경에서의 적용 (Localization of Unmanned Ground Vehicle using 3D Registration of DSM and Multiview Range Images: Application in Virtual Environment)

  • 박순용;최성인;장재석;정순기;김준;채정숙
    • 제어로봇시스템학회논문지
    • /
    • 제15권7호
    • /
    • pp.700-710
    • /
    • 2009
  • A computer vision technique of estimating the location of an unmanned ground vehicle is proposed. Identifying the location of the unmaned vehicle is very important task for automatic navigation of the vehicle. Conventional positioning sensors may fail to work properly in some real situations due to internal and external interferences. Given a DSM(Digital Surface Map), location of the vehicle can be estimated by the registration of the DSM and multiview range images obtained at the vehicle. Registration of the DSM and range images yields the 3D transformation from the coordinates of the range sensor to the reference coordinates of the DSM. To estimate the vehicle position, we first register a range image to the DSM coarsely and then refine the result. For coarse registration, we employ a fast random sample matching method. After the initial position is estimated and refined, all subsequent range images are registered by applying a pair-wise registration technique between range images. To reduce the accumulation error of pair-wise registration, we periodically refine the registration between range images and the DSM. Virtual environment is established to perform several experiments using a virtual vehicle. Range images are created based on the DSM by modeling a real 3D sensor. The vehicle moves along three different path while acquiring range images. Experimental results show that registration error is about under 1.3m in average.

컴퓨터 비젼을 이용한 선박 교통량 측정 및 항적 평가 (The Vessels Traffic Measurement and Real-time Track Assessment using Computer Vision)

  • 주기세;정중식;김철승;정재용
    • 해양환경안전학회지
    • /
    • 제17권2호
    • /
    • pp.131-136
    • /
    • 2011
  • 컴퓨터 비젼을 이용한 항행선박의 항적을 계산하고 교통량을 측정하는 방법은 해양사고의 예방관점에서 사고발생 가능성 여부를 예측해 볼 수 있는 유용한 방법이다. 본 연구에서는 컴퓨터 비젼을 이용하여 영상축소, 미분연산자, 최대 최소값 등을 이용하여 선박을 인식한 후 실세계 상에서의 좌표 값을 계산하여 실시간 항적을 전자 해도에 표시함으로서 해상 구조물과의 충돌여부를 직접 육안으로 확인 할 수 있는 알고리즘을 개발하였다. 본 연구에서 개발된 알고리즘은 영역 정보를 기반으로 개발되었기 때문에 점 정보에 의존하고 있는 기존 레이더 시스템의 단점을 보완하는 장점을 지니고 있다.