• 제목/요약/키워드: 비전 센서

검색결과 294건 처리시간 0.021초

멀티센서 시스템을 이용한 3차원 형상의 기상측정에 관한 연구 (A Study on the 3-dimensional feature measurement system for OMM using multiple-sensors)

  • 권양훈;윤길상;조명우
    • 한국공작기계학회:학술대회논문집
    • /
    • 한국공작기계학회 2002년도 추계학술대회 논문집
    • /
    • pp.158-163
    • /
    • 2002
  • This paper presents a multiple sensor system for rapid and high-precision coordinate data acquisition in the OMM (On-machine measurement) process. In this research, three sensors (touch probe, laser, and vision sensor) are integrated to obtain more accurate measuring results. The touch-type probe has high accuracy, but is time-consuming. Vision sensor can acquire many point data rapidly over a spatial range but its accuracy is less than other sensors. Also, it is not possible to acquire data for invisible areas. Laser sensor has medium accuracy and measuring speed among the sensors, and can acquire data for sharp or rounded edge and the features with very small holes and/or grooves. However, it has range- constraints to use because of its system structure. In this research, a new optimum sensor integration method for OMM is proposed by integrating the multiple-sensor to accomplish mote effective inspection planning. To verify the effectiveness of the proposed method, simulation and experimental works are performed, and the results are analyzed.

  • PDF

자기장 센서를 사용한 AR 게임에서의 평면 추적 정확도 개선 (Improvement of Plane Tracking Accuracy in AR Game Using Magnetic Field Sensor)

  • 이원준;박종승
    • 한국게임학회 논문지
    • /
    • 제19권5호
    • /
    • pp.91-102
    • /
    • 2019
  • 본 논문에서는 ARCore를 사용한 비전 기반 스마트폰용 AR 게임 개발을 하는데 있어 평면 추적의 정확도 개선 방법을 제안한다. ARCore에서는 SLAM과 스마트폰의 IMU를 혼합하여 사용하는 VIO 방식이다. IMU를 사용하는데 있어 가속도계와 자이로스코프의 단점으로 인해 한번 인식된 평면을 계속하여 추적하는데 있어 오차가 발생한다. 이를 위해 기존 센서뿐만 아니라 자기장계 센서를 추가하여 자세 측정의 오차를 최소화하고 이를 평면 추적에도 활용될 수 있도록 하는 방법을 제안한다. 제안 방법을 통해 평면 추적에 있어서 ARCore의 경우보다 스마트폰 자세 추정의 오차를 줄일 수 있는 것을 확인하였다.

차선 인접 에지 검출에 강인한 필터를 이용한 비전 센서 기반 차선 검출 시스템 (Lane Detection System Based on Vision Sensors Using a Robust Filter for Inner Edge Detection)

  • 신주석;정제한;김민규
    • 센서학회지
    • /
    • 제28권3호
    • /
    • pp.164-170
    • /
    • 2019
  • In this paper, a lane detection and tracking algorithm based on vision sensors and employing a robust filter for inner edge detection is proposed for developing a lane departure warning system (LDWS). The lateral offset value was precisely calculated by applying the proposed filter for inner edge detection in the region of interest. The proposed algorithm was subsequently compared with an existing algorithm having lateral offset-based warning alarm occurrence time, and an average error of approximately 15ms was observed. Tests were also conducted to verify whether a warning alarm is generated when a driver departs from a lane, and an average accuracy of approximately 94% was observed. Additionally, the proposed LDWS was implemented as an embedded system, mounted on a test vehicle, and was made to travel for approximately 100km for obtaining experimental results. Obtained results indicate that the average lane detection rates at day time and night time are approximately 97% and 96%, respectively. Furthermore, the processing time of the embedded system is found to be approximately 12fps.

도로의 높낮이 변화와 초목이 존재하는 환경에서의 비전 센서 기반 (Vision-sensor-based Drivable Area Detection Technique for Environments with Changes in Road Elevation and Vegetation)

  • 이상재;현종길;권연수;심재훈;문병인
    • 센서학회지
    • /
    • 제28권2호
    • /
    • pp.94-100
    • /
    • 2019
  • Drivable area detection is a major task in advanced driver assistance systems. For drivable area detection, several studies have proposed vision-sensor-based approaches. However, conventional drivable area detection methods that use vision sensors are not suitable for environments with changes in road elevation. In addition, if the boundary between the road and vegetation is not clear, judging a vegetation area as a drivable area becomes a problem. Therefore, this study proposes an accurate method of detecting drivable areas in environments in which road elevations change and vegetation exists. Experimental results show that when compared to the conventional method, the proposed method improves the average accuracy and recall of drivable area detection on the KITTI vision benchmark suite by 3.42%p and 8.37%p, respectively. In addition, when the proposed vegetation area removal method is applied, the average accuracy and recall are further improved by 6.43%p and 9.68%p, respectively.

카메라-라이다 융합 모델의 오류 유발을 위한 스케일링 공격 방법 (Scaling Attack Method for Misalignment Error of Camera-LiDAR Calibration Model)

  • 임이지;최대선
    • 정보보호학회논문지
    • /
    • 제33권6호
    • /
    • pp.1099-1110
    • /
    • 2023
  • 자율주행 및 robot navigation의 인식 시스템은 성능 향상을 위해 다중 센서를 융합(Multi-Sensor Fusion)을 한 후, 객체 인식 및 추적, 차선 감지 등의 비전 작업을 한다. 현재 카메라와 라이다 센서의 융합을 기반으로 한 딥러닝 모델에 대한 연구가 활발히 이루어지고 있다. 그러나 딥러닝 모델은 입력 데이터의 변조를 통한 적대적 공격에 취약하다. 기존의 다중 센서 기반 자율주행 인식 시스템에 대한 공격은 객체 인식 모델의 신뢰 점수를 낮춰 장애물 오검출을 유도하는 데에 초점이 맞춰져 있다. 그러나 타겟 모델에만 공격이 가능하다는 한계가 있다. 센서 융합단계에 대한 공격의 경우 융합 이후의 비전 작업에 대한 오류를 연쇄적으로 유발할 수 있으며, 이러한 위험성에 대한 고려가 필요하다. 또한 시각적으로 판단하기 어려운 라이다의 포인트 클라우드 데이터에 대한 공격을 진행하여 공격 여부를 판단하기 어렵도록 한다. 본 연구에서는 이미지 스케일링 기반 카메라-라이다 융합 모델(camera-LiDAR calibration model)인 LCCNet 의 정확도를 저하시키는 공격 방법을 제안한다. 제안 방법은 입력 라이다의 포인트에 스케일링 공격을 하고자 한다. 스케일링 알고리즘과 크기별 공격 성능 실험을 진행한 결과 평균 77% 이상의 융합 오류를 유발하였다.

영상 기반 머신툴 프리세터 개발 (Development of a Vision Based Machine Tool Presetter)

  • 정하형;김태연;박진하;유준
    • 한국산업정보학회논문지
    • /
    • 제19권3호
    • /
    • pp.49-56
    • /
    • 2014
  • 툴 프리세터는 수치제어 공작기계용 공구의 테이퍼부를 기준으로 하여 날끝 치수를 사전에 정렬하기 위한 장치로서 여기에는 접촉과 비접촉, 두 가지 방식이 있다. 광학센서 기반 비접촉 방식은 측정의 유연성과 편리함의 이점을 가지고 있다. 본 논문에서는 선형 스케일러와 머신 비전을 도입한 산업용 툴 프리세터 장비 개발을 다룬다. 측정 전에 대상 공구를 기구부에 고정시키고 광학부를 정렬한다. 공구 영상을 취득한 후 제시된 영상처리 알고리즘은선형 스케일러로부터 광학부의 이동 거리를 조합하여 공구의 정밀한 치수를 계산해낸다. 실험 결과, 본 장비의 정밀도가 ${\pm}20um$ 범위내에 있음을 검증하였다.

스테레오 비전 기반 이동 로봇의 실시간 지도 작성 기법 (Real-Time Mapping of Mobile Robot on Stereo Vision)

  • 한철훈;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.60-65
    • /
    • 2010
  • 본 논문은 모바일 로봇에 장착된 스테레오 카메라의 영상에서 주변 환경에 대한 지도를 작성하기 위해 특징 검출 및 매칭 그리고 2D 지도 작성의 결과를 기술한다. 영상의 특징을 추출하는 방법은 실시간으로 프로세싱하기 위해서 빠른 연산이 가능한 에지 검출과 차 영상을 이용한 특징을 스테레오 매칭 기법을 통해 상관계수를 구할 수 있다. 이동 로봇의 위치를 추정하기 위해 ZigBee를 이용한 비컨과 로봇에 장착된 엔코더를 칼만 필터를 통해 추정한다. 또한 방위를 측정할 수 있는 자이로 센서를 병합하여 모바일 로봇이 이동하면서 지도를 작성할 수 있게 한다. 이는 이동 로봇의 SLAM 기술과 더불어 지능형 로봇이 인간 생활에서 효과적으로 적용될 수 있는 기반이 될 것이다.

미지 환경에서의 깊이지도를 이용한 쿼드로터 착륙방식 성능 비교 (Performance Comparison of Depth Map Based Landing Methods for a Quadrotor in Unknown Environment)

  • 최종혁;박종호;임재성
    • 한국항공우주학회지
    • /
    • 제50권9호
    • /
    • pp.639-646
    • /
    • 2022
  • 본 논문은 사전에 알려지지 않은 환경에서 깊이지도를 이용하여 정보를 획득하고, 이를 기반으로 쿼드로터의 착륙 선택 알고리즘 성능을 분석한다. 무인항공기의 유도 및 제어시스템은 궤적 계획 유도시스템과 위치 및 자세 제어기로 구성된다. 아래를 향하는 짐벌 시스템에 부착된 스테레오 비전 센서가 획득한 깊이 정보를 이용하여 착륙 지점을 선정한다. 평탄도 정보는 사전 정의된 깊이지도 영역의 최대 깊이 차이 및 UAV와의 거리를 고려하여 산출한다. 본 논문에서는 3가지 착륙 방법을 제안하며 다양한 성능지수들을 활용하여 성능을 비교한다. 성능지수로는 UAV 이동 거리, 지도 정확도, 장애물 대응 시간 등을 고려한다.

색상패턴 추적을 이용한 실시간 증강영상 시스템 (A Real-time Augmented Video System using Chroma-Pattern Tracking)

  • 박성춘;남승진;오주현;박창섭
    • 방송공학회논문지
    • /
    • 제7권1호
    • /
    • pp.2-9
    • /
    • 2002
  • 최근에 TV 방송에서 가상스튜디오나 가상캐릭터와 같은 가상현실(VR: Virtual Reality) 기술이 자주 사용되고 있으며 증강현실 (AR: Augmented Reality) 기술에 대한 관심도 높아지고 있다. 본 논문에서는 증강현실 기술을 방송에 응용한 가상스크린 시스템에 대해 소개한다. 가상스크린 시스템은 움직이는 색상패턴 패널을 추적하여 실시간으로 그 위에 동영상을 합성하는 증강영상 시스템이다. KBS 기술연구소에서는 가상스크린 시스템을 개발하고 'K-비전'이라 이름지었다. 이 시스템은 사용자가 들고 움직이는 패널에 동영상이나 그래픽 영상 등을 보여줄 수 있는데, 보여지는 모든 영상은 카메라의 움직임과 패널의 움직임에 따라 정확하게 입혀진다. 패널 추적을 위하여 블럽 분석(blob analysis)이나 특징 추적(feature tracking)과 같은 영상처리 기술을 이용한다. K-비전은 모든 타입의 카메라와 사용 가능하며. 특별한 부가장치가 필요하지 않다. 센서를 부착하지 않아도 되고. 캘리브레이션(calibration) 과정 또한 필요하지 않다. K-비전은 선거개표 방송. 다큐멘터리, 오락 프로그램 등 생방송 프로그램에서 활용한다.

다중 평면의 3차원 모서리를 이용한 레이저 거리센서 및 카메라의 정밀 보정 (An Accurate Extrinsic Calibration of Laser Range Finder and Vision Camera Using 3D Edges of Multiple Planes)

  • 최성인;박순용
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권4호
    • /
    • pp.177-186
    • /
    • 2015
  • 레이저 거리센서와 비전 카메라의 정보를 융합하기 위해서는 두 센서 사이의 상대적인 위치관계를 설명하는 외부 파라미터를 정확하게 보정하는 것이 필수적이다. 본 논문에서는 레이저 거리센서와 카메라 좌표계 간의 외부 파라미터를 기존에 알려진 방법보다 쉬우면서도 정확하게 획득할 수 있는 새로운 보정 방법을 제안하고자 한다. 본 논문에서 제안한 방법의 접근법은 레이저 거리센서로 획득한 3차원 구조물의 모서리 정보를 영상으로 투영하였을 때 반드시 하나의 직선상에 존재해야 한다는 것을 제약조건으로 한다. 이러한 제약조건을 만족하는 3차원 기하모델을 제시하고 이 모델의 에너지 함수를 최소화하기 위한 수치적 해법을 소개한다. 또한 높은 정밀도의 보정을 위하여 레이저 거리정보 및 카메라 영상의 획득 과정에 대해서도 상세히 설명한다. 실험을 통해 제안된 방법의 성능이 기존의 방법에 비하여 보다 높은 정밀도를 보임을 확인할 수 있었다.