• Title/Summary/Keyword: Robot Vision

검색결과 878건 처리시간 0.026초

센서 융합을 이용한 이동 로봇의 물체 검출 방법 (Object Detection Method on Vision Robot using Sensor Fusion)

  • 김상훈
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.249-254
    • /
    • 2007
  • 본 논문에서는 초음파 및 적외선 센서와 무선 카메라를 장착한 소형 이동 로봇의 물체 검출 방법을 제시한다. 전방 물체의 존재 여부를 판단하기 위해, 초음파 센서는 초음파 발생 신호의 귀환시간, 적외선 센서는 감지한 적외선 아날로그신호의 양, 카메라는 영상 데이터 중 물체의 특징 등을 추출하여 그 결과를 융합함으로써 물체의 유무 또는 이동 로봇과 물체와의 거리를 판단하여 로봇의 움직임을 제어하는데 사용한다. 초음파와 적외선 센서는 물체의 유무와 물체의 대략의 거리를 예측하는 1차 센서로 사용되며 거리 계산결과와 실제 거리 값과의 오차는 5%이내이다. 영상처리에 의해 2차의 섬세한 물체 검출 및 추적을 수행하여 최종적으로 센서 융합에 의한 물체 검출율을 개선하였다. 영상처리방법은 물체와 배경 및 유사잡음들과의 강인한 분리를 위하여 고유색상정보와 움직임 정보 등의 사전정보를 활용하였으며, 형태의 변화가 수반되는 경우에도 유연한 대처능력을 갖도록 하기 위해 시그니처를 이용한 영역분할 방법을 통해 모든 후보영역내의 물체의 존재를 확인하고 목표 물체영역만을 검출하였다. 세가지 센서에 의한 대상 물체 검출 결과의 합은 최종적인 검출을 결정하는데 확률적 근거로 활용되며 각 개별 센서를 사용한 경우보다 최소 7% 이상의 검출율이 개선되었다.

카메라-라이다 융합 모델의 오류 유발을 위한 스케일링 공격 방법 (Scaling Attack Method for Misalignment Error of Camera-LiDAR Calibration Model)

  • 임이지;최대선
    • 정보보호학회논문지
    • /
    • 제33권6호
    • /
    • pp.1099-1110
    • /
    • 2023
  • 자율주행 및 robot navigation의 인식 시스템은 성능 향상을 위해 다중 센서를 융합(Multi-Sensor Fusion)을 한 후, 객체 인식 및 추적, 차선 감지 등의 비전 작업을 한다. 현재 카메라와 라이다 센서의 융합을 기반으로 한 딥러닝 모델에 대한 연구가 활발히 이루어지고 있다. 그러나 딥러닝 모델은 입력 데이터의 변조를 통한 적대적 공격에 취약하다. 기존의 다중 센서 기반 자율주행 인식 시스템에 대한 공격은 객체 인식 모델의 신뢰 점수를 낮춰 장애물 오검출을 유도하는 데에 초점이 맞춰져 있다. 그러나 타겟 모델에만 공격이 가능하다는 한계가 있다. 센서 융합단계에 대한 공격의 경우 융합 이후의 비전 작업에 대한 오류를 연쇄적으로 유발할 수 있으며, 이러한 위험성에 대한 고려가 필요하다. 또한 시각적으로 판단하기 어려운 라이다의 포인트 클라우드 데이터에 대한 공격을 진행하여 공격 여부를 판단하기 어렵도록 한다. 본 연구에서는 이미지 스케일링 기반 카메라-라이다 융합 모델(camera-LiDAR calibration model)인 LCCNet 의 정확도를 저하시키는 공격 방법을 제안한다. 제안 방법은 입력 라이다의 포인트에 스케일링 공격을 하고자 한다. 스케일링 알고리즘과 크기별 공격 성능 실험을 진행한 결과 평균 77% 이상의 융합 오류를 유발하였다.

레이저 센서에서 두 개의 특징점을 이용한 이동로봇의 항법 (Two Feature Points Based Laser Scanner for Mobile Robot Navigation)

  • 김주완;심덕선
    • 한국항행학회논문지
    • /
    • 제18권2호
    • /
    • pp.134-141
    • /
    • 2014
  • 이동로봇의 주행에는 주로 바퀴 엔코더, 비전, 초음파, 레이저 센서가 많이 사용된다. 바퀴의 엔코더는 추측항법으로 시간에 따라 오차가 누적되기 때문에 단독 사용으로는 정확한 로봇의 위치를 계산할 수가 없다. 비전 센서는 풍부한 정보를 제공하지만 정보추출에 시간이 많이 소요되고, 초음파 센서는 거리정보의 정확도가 떨어지기 때문에 항행에 사용하기에는 어려움이 있다. 반면 레이저 센서는 비교적 정확한 거리정보를 제공하여 주므로 주행 센서로 사용하기 적합하다. 본 논문에서는 레이저 거리계에서 각도를 추출하는 방법을 제안하고 칼만 필터를 사용하여 레이저 거리계에서 추출한 거리 및 각도와 바퀴 엔코더에서 추출한 거리 및 각도에 대한 정합을 수행한다. 일반적으로 레이저 거리계 사용시 특징점 하나를 사용한 경우에 그 특징점이 변하거나 새로운 특징점으로 이동할 때 오차가 커질 수가 있다. 이를 보완하기 위해 이동 로봇의 주행 시 레이저 스캐너에서 두 개의 특징점들을 사용하는 방법을 사용하여 이동 로봇의 항법 성능이 향상됨을 보인다.

드론과 지상로봇 간의 협업을 위한 광학흐름 기반 마커 추적방법 (Optical Flow-Based Marker Tracking Algorithm for Collaboration Between Drone and Ground Vehicle)

  • 백종환;김상훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권3호
    • /
    • pp.107-112
    • /
    • 2018
  • 본 논문에서는 드론과 지상 로봇 간 효과적인 협업을 위하여 광학 흐름 기술 기반의 특징점 추적 알고리즘을 제안하였다. 드론의 비행 중 빠른 움직임에 의하여 많은 문제점이 발생하여 지상물체를 성공적으로 인식하기 위해 직관적이면서도 식별자를 가지고 있는 마커를 사용했다. 특징점 추출이 우수한 FAST알고리즘과 움직임 감지가 우수한 루카스-카나데 광학흐름 알고리즘의 장점들을 혼합하여 기존 특징점-특징량 기반 객체 추적 방법보다 개선된 속도의 실험결과를 보여준다. 또한 제안한 마커의 검출방법에 적절한 이진화 방법을 제안하여 주어진 마커에서의 검출 정확도를 개선하였으며, 추적속도는 유사한 환경의 기존연구보다 40% 이상 개선됨을 확인하였다. 또한 비행드론의 경량화와 속도개선에 문제가 없도록 최소형 고성능의 임베디드 환경을 선택하였으며, 제한된 개발환경에서도 물체검출과 추적 등 복잡한 연산이 가능하도록 동작환경에 대하여 연구하였다. 향후에는 다른 환경에서 빠르게 움직이는 두 로봇 간의 협업의 정확도를 향상시키기 위해 지능적 비전기능에 대해 추가할 예정이다.

생체 기반 시각정보처리 동작인식 모델링 (A Bio-Inspired Modeling of Visual Information Processing for Action Recognition)

  • 김진옥
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권8호
    • /
    • pp.299-308
    • /
    • 2014
  • 신체 동작, 얼굴 표정과 같이 아주 복잡한 생체 패턴을 인식하고 분류하는 인간의 능력을 모방한 정보처리 컴퓨팅 관련 연구가 최근 다수 등장하고 있다. 특히 컴퓨터비전 분야에서는 인간의 뛰어난 인지 능력 중 상황정보 없이 시각시퀀스에서 동작을 분류하는 기능을 통해 시공간적 패턴 코딩과 빠른 인식 방법을 이해하고자 한다. 본 연구는 비디오 시퀀스상의 동작인식에 생물학적 시각인지과정의 영향을 받은 생체 기반 컴퓨터비전 모델을 제시하였다. 제안 모델은 이미지 시퀀스에서 동작을 검출하고 시각 패턴을 판별하는 데 생체 시각처리과정의 신경망 구조 단계를 반영하였다. 실험을 통해 생체 기반 동작인식 모델이 인간 시각인지 처리의 여러 가지 속성을 고려했을 뿐 아니라 기존 동작인식시스템에 비해 시간 정합성이 뛰어나며 시간 변화에 강건한 분류 능력을 보임을 알 수 있다. 제안 모델은 지능형 로봇 에이전트와 같은 생체 기반 시각정보처리 시스템 구축에 기여할 수 있다.

왜곡보정 영상에서의 그리드 패턴 코너의 자동 검출 방법의 설계 및 구현 (Design and Implementation of Automatic Detection Method of Corners of Grid Pattern from Distortion Corrected Image)

  • 천승환;장종욱;장시웅
    • 한국정보통신학회논문지
    • /
    • 제17권11호
    • /
    • pp.2645-2652
    • /
    • 2013
  • 자동차를 위한 전방향(omni-directional) 감시 시스템, 로봇의 시각 역할 등 다양한 비전 시스템에서 카메라가 장착되어 사용되고 있다. AVM(Around View Monitoring) 시스템에서 그리드 패턴의 코너를 검출하기 위해서는 광각 카메라에서 획득한 비선형적인 방사 왜곡을 가진 영상의 왜곡 보정 작업을 수행한 후 왜곡이 보정된 영상 내부의 그리드 패턴 각 코너들을 자동으로 검출하여야 한다. 기존 AVM 시스템에 사용되는 직선과 코너 검출 방법에는 Sub-Pixel, 허프 변환 등이 있으나, Sub-Pixel 방법은 자동검출이 어렵고, 허프변환은 정확도에 문제가 있다. 따라서, 본 논문에서는 왜곡 보정 영상을 입력 영상으로 받아 그리드 패턴의 코너를 자동으로 정확하게 검출하는 방법을 설계하고 구현하여 성능을 평가함으로써 AVM 시스템에서 코너를 검출하는 부분에 적용시킬 수 있음을 보였다.

DSM과 다시점 거리영상의 3차원 등록을 이용한 무인이동차량의 위치 추정: 가상환경에서의 적용 (Localization of Unmanned Ground Vehicle using 3D Registration of DSM and Multiview Range Images: Application in Virtual Environment)

  • 박순용;최성인;장재석;정순기;김준;채정숙
    • 제어로봇시스템학회논문지
    • /
    • 제15권7호
    • /
    • pp.700-710
    • /
    • 2009
  • A computer vision technique of estimating the location of an unmanned ground vehicle is proposed. Identifying the location of the unmaned vehicle is very important task for automatic navigation of the vehicle. Conventional positioning sensors may fail to work properly in some real situations due to internal and external interferences. Given a DSM(Digital Surface Map), location of the vehicle can be estimated by the registration of the DSM and multiview range images obtained at the vehicle. Registration of the DSM and range images yields the 3D transformation from the coordinates of the range sensor to the reference coordinates of the DSM. To estimate the vehicle position, we first register a range image to the DSM coarsely and then refine the result. For coarse registration, we employ a fast random sample matching method. After the initial position is estimated and refined, all subsequent range images are registered by applying a pair-wise registration technique between range images. To reduce the accumulation error of pair-wise registration, we periodically refine the registration between range images and the DSM. Virtual environment is established to perform several experiments using a virtual vehicle. Range images are created based on the DSM by modeling a real 3D sensor. The vehicle moves along three different path while acquiring range images. Experimental results show that registration error is about under 1.3m in average.

휴먼 보행 동작 구조 분석을 위한 통계적 모델링 방법 (Statistical Modeling Methods for Analyzing Human Gait Structure)

  • 신봉기
    • 스마트미디어저널
    • /
    • 제1권2호
    • /
    • pp.12-22
    • /
    • 2012
  • 최근 비디오 감시, 로봇 시각 휴대폰 등 무수히 많은 카메라가 생활 속에 파고들면서 휴먼 동작 인식은 컴퓨터 시각 분야의 새로운 붐을 일으키고 있다. 자체로 그다지 흥미 있는 동작은 아니지만 걸음걸이 또는 보행은 가장 보편적으로 많이 관찰되는, 의심할 여지없이 사람의 대표적인 동작이다. 그리 오래되지 않은 과거에 보행자 인식의 관점에서 반짝 연구가 있었지만 관심의 길이가 짧은 만큼 보행 동작에 관한 체계적인 분석과 이해 없이 이루어졌었다. 본 연구에서는 일련의 점진적인 모델을 이용하여 보행 동작의 구조를 체계적으로 분석하고자 한다. 입력 영상 신호의 다양한 변형과 불완전성을 극복할 수 있는 동적 베이스망 기반의 보행자 모델과 보행 모델을 제시한다. 그리고 이변량 폰 미제스 분포의 조건부 밀도 함수를 기반으로 마르코프 체인의 이산 상태 공간을 연속 공간으로 확장하는 방법을 제안한다. 제안된 모형화 프레임워크를 이용한 일련의 시험, 분석에서 보행자를 91.67% 인식하며 보행 동작을 보행 방향과 보행 자세의 두 가지 독립적인 성분으로 분리 해석할 수 있었다.

  • PDF

컬러 클러스터링 기법을 이용한 공간지능화의 다중이동물체 추척 기법 (A Study on Multi-Object Tracking Method using Color Clustering in ISpace)

  • 진태석;김현덕
    • 한국정보통신학회논문지
    • /
    • 제11권11호
    • /
    • pp.2179-2184
    • /
    • 2007
  • 본 논문에서는 인간과 환경사이의 물리적 또는 심리적 인터액션을 통한 인간중심의 적절한 서비스를 제공하는 공간지능화(iSpace: Intelligent Space) 구현하고자 네트웍 센서 인식공간을 소개하고 있다. 영상 데이터 처리 및 정보 네트웍 기능을 갖는 다수의 컬러 CCD 카메라를 iSpace 공간에 분산 배치하였다. iSpace내의 정보획득을 위한 네트웍 센서를 분산 지능형 네트웍 디바이스(DIND: Distributed Intelligent Network Devices)라고 명명하고 있으며, 각 DIND는 일종의 클라이언트 역할을 수행하도록 하였으며, DIND는 카메라 센서를 이용하는 이른바 카메라 네트워크를 구성한 것으로 이를 통해 실내 환경을 인식하고 모델링 하며 공간 내 거주자의 의도를 인식하기 위한 시스템을 구축하였다.

자율주행 차량의 돌발사고 방지를 위한 V2I 기반의 사고 방지체계 연구 (A Research on V2I-based Accident Prevention System for the Prevention of Unexpected Accident of Autonomous Vehicle)

  • 한상용;김명준;강동완;백선우;신희석;김정하
    • 한국ITS학회 논문지
    • /
    • 제20권3호
    • /
    • pp.86-99
    • /
    • 2021
  • 본 연구는 V2I통신을 이용하여 교차로 등의 사각지대로 인해 발생할 수 있는 충돌 사고를 예방하기 위한 충돌 방지체계를 제안한다. 교차로의 인프라에 위치한 Vision센서와 LiDAR센서가 물체를 인식하고 사고 위험이 있는 차량에게 경고함으로써 사고를 미연에 방지한다. 딥러닝 기반의 YOLOv4를 이용하여 교차로에 진입하는 물체를 인식하고 LiDAR 센서와의 Calibration을 통해 대상 물체와의 맨하탄 거리값을 이용하여 충돌 예상시간과 제동거리에 대한 가중치를 계산하고 안전거리를 확보한다. 차량-인프라간 통신은 ROS통신을 이용하였으며 충돌 경고 외에도 진입 물체의 Class, 거리, 진행속도 등의 다양한 정보를 차량에 전달함으로써 사고를 미연에 방지하고자 하였다.