• Title/Summary/Keyword: 비전 센서

Search Result 294, Processing Time 0.03 seconds

Stereo Vision System for Intelligent Robot (지능형 로봇 스테레오 비전 처리 기술)

  • Cho, J.I.;Choi, S.M.;Jang, J.H.;Hwang, D.H.
    • Electronics and Telecommunications Trends
    • /
    • v.22 no.2 s.104
    • /
    • pp.38-47
    • /
    • 2007
  • 지능형 로봇에 사용되는 필수적인 여러 센서들 중 시각센서는 로봇 지각의 중추적인 역할을 담당한다. 로봇 시장의 확대와 함께 이러한 시각 센서를 기반으로 인간과 로봇과의 자연스러운 상호작용에 대한 연구가 활발히 진행되고 있으며 최근에 학교와 연구소를 중심으로 대상체의 삼차원 거리 영상 정보를 함께 얻을 수 있는 스테레오 비전 처리 기술 개발이 활발히 진행되고 있다. 본 고에서는 스테레오 비전 처리에 대한 국내외연구 개발 동향에 대해 살펴보고 ETRI에서 개발중인 지능형 로봇의 스테레오 비전 처리 기술에 대하여 소개한다.

A Study on Machine Vision System Module based on high speed realtime triggering (초고속 실시간 트리거에 의한 머신 비전 시스템 모듈에 관한 연구)

  • Lee, Myeongsoo;Kim, Dongmin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.1118-1119
    • /
    • 2017
  • 머신 비전 시스템은 영상 처리와 영상 분석을 함께 사용하여 공장의 조립라인 등 다양한 분야에서 응용 되고 있는 시스템이다. 하지만 기존의 시스템은 고가의 초고속 카메라와 다양한 센서를 동시에 이용하는 문제로 시스템 구축 및 확장성 등의 불편함을 야기하고 있다. 이에 본 연구에서는 초고속 실시간 트리거를 이용한 저가형 이미지 센서 기반의 머신 비전 시스템을 구성하고자 한다.

Vehicular Cooperative Navigation Based on H-SPAWN Using GNSS, Vision, and Radar Sensors (GNSS, 비전 및 레이더를 이용한 H-SPAWN 알고리즘 기반 자동차 협력 항법시스템)

  • Ko, Hyunwoo;Kong, Seung-Hyun
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.40 no.11
    • /
    • pp.2252-2260
    • /
    • 2015
  • In this paper, we propose a vehicular cooperative navigation system using GNSS, vision sensor and radar sensor that are frequently used in mass-produced cars. The proposed cooperative vehicular navigation system is a variant of the Hybrid-Sum Product Algorithm over Wireless Network (H-SPAWN), where we use vision and radar sensors instead of radio ranging(i.e.,UWB). The performance is compared and analyzed with respect to the sensors, especially the position estimation error decreased about fifty percent when using radar compared to vision and radio ranging. In conclusion, the proposed system with these popular sensors can improve position accuracy compared to conventional cooperative navigation system(i.e.,H-SPAWN) and decrease implementation costs.

Real-Time Vision Sensor-based Unexpected Fall Risk Detector Using Depth Information (깊이 정보를 이용한 실시간 비전 센서 기반 낙상 위험 검출기)

  • Lee, Young-Sook;Chung, Wan-Young
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2011.05a
    • /
    • pp.476-477
    • /
    • 2011
  • 본 논문에서는 홈 헬스케어 환경에서 위험 동작이 발생할 경우 이를 검지하는 방법으로, 물체 검출을 위해 입력받은 영상으로 부터 배경모델을 생성하여 이를 이용해 관심 물체를 검출한다. 검출된 물체 영역 내에서 중심점의 주변 탐색을 통해 관심 물체를 추적하며, 관심 물체의 모멘트 분석 정보와 깊이 정보를 활용하여 정상 동작이 아닌 낙상과 같은 비정상적인 위험 동작이 발생되었을 경우 검출할 수 있다. 기존 비전 센서 기반 방법들은 2차원 영상 정보를 이용하기 때문에 다양한 낙상 동작에 대해 낮은 검출율을 보이고 있다. 이에 대한 개선책으로 깊이정보를 활용하여 검출함으로써 신뢰성있는 검출율을 보여주는 실시간 비전 센서 기반을 둔 위험 낙상 검출기를 제안한다.

  • PDF

Quantity Measurement by CAFFE Model and Distance and Width Measurement by Stereo Vision (CAFFE 모델을 이용한 수량 측정 및 스테레오 비전을 이용한 거리 및 너비측정)

  • Kim, Won-Seob;Kim, Eung-Kon
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.14 no.4
    • /
    • pp.679-684
    • /
    • 2019
  • We propose a method to measure the number of specific species of class using CAFFE model and a method to measure length and width of object using stereo vision. To obtain the width of an object, the location coordinates of objects appearing on the left and right sensor is compared and the distance from the sensor to the object is obtained. Then the length of the object in the image by using the distance and the approximate value of the actual length of the object is calculated.

Localization and Mapping System using Single Camera and PSD Sensors (단일 카메라와 PSD 센서를 이용한 로봇 위치추적 및 맵핑 시스템)

  • Yoo, Sung-Goo;Chong, Kil-To
    • Proceedings of the KIEE Conference
    • /
    • 2008.10b
    • /
    • pp.339-340
    • /
    • 2008
  • 로봇의 현재 위지 추적은 무인 로봇 자동 항법시스템의 중요 기술로 센서 데이터로부터 로봇의 위치를 결정하고 환경맵을 구성하는 것이다. 기존 방법으로는 초음파, 레이저 등의 거리 측정 센서를 이용해 로봇의 전역 위치를 찾는 방법과 스테레오 비전을 통한 방법이 개발되었다. 거리 측정 센서만으로 로봇위치 추적 알고리즘은 계산량이 감소하고 비용이 적게 들지만 센서오차율 및 환경장애에 따른 오류가 크다. 이에 반해 스테레오 비전 시스템은 3차원 공간영역을 정확히 측정할 수 있지만 계산량이 많아 고사양의 시스템을 요구하고 알고리즘 구현에 어려움이 있다. 따라서 본 논문에서는 단일 카메라 영상과 PSD(position sensitive device) 센서를 사용하여 로봇의 현재 위치를 추적하고 환경맵을 구성하여 자율이동이 가능한 시스템을 제안한다.

  • PDF

Implementation of Real-time Logistics Identification System using Vision Sensors (비전 센서를 사용하는 실시간 물류 파악 시스템 구현)

  • Kim, Dong-Hwi;Park, Min-Hyurk;Park, Sung-Jae;Park, Jung Kyu
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2022.10a
    • /
    • pp.172-174
    • /
    • 2022
  • Logistics processing companies in Korea are mostly handling various types of products in and out. In order to process various types of products, the sorting business is performed by hand. In this paper, we propose a real-time QR code detection method using a vision sensor to achieve high efficiency with a small amount of manpower. The limiting system uses a vision sensor to process QR code recognition of logistics in real time. The proposed system can quickly identify a large number of QR codes through multiple recognition rather than QR code recognition, which is a single part of logistics. In the study, the system was actually implemented and verified, and multiple QR recognition was confirmed in the image through the vision center.

  • PDF

Collision Avoidance for Indoor Mobile Robotics using Stereo Vision Sensor (스테레오 비전 센서를 이용한 실내 모바일 로봇 충돌 회피)

  • Kwon, Ki-Hyeon;Nam, Si-Byung;Lee, Se-Hun
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.14 no.5
    • /
    • pp.2400-2405
    • /
    • 2013
  • We detect the obstacle for the UGV(unmanned ground vehicle) from the compound image which is generated by stereo vision sensor masking the depth image and color image. Stereo vision sensor can gathers the distance information by stereo camera. The obstacle information from the depth compound image can be send to mobile robot and the robot can localize the indoor area. And, we test the performance of the mobile robot in terms of distance between the obstacle and the robot's position and also test the color, depth and compound image respectively. Moreover, we test the performance in terms of number of frame per second which is processed by operating machine. From the result, compound image shows the improved performance in distance and number of frames.

Navigation of an Autonomous Mobile Robot with Vision and IR Sensors Using Fuzzy Rules (비전과 IR 센서를 갖는 이동로봇의 퍼지 규칙을 이용한 자율 주행)

  • Heo, Jun-Young;Kang, Geun-Taek;Lee, Won-Chang
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.17 no.7
    • /
    • pp.901-906
    • /
    • 2007
  • Algorithms of path planning and obstacle avoidance are essential to autonomous mobile robots that are working in unknown environments in the real time. This paper presents a new navigation algorithm for an autonomous mobile robot with vision and IR sensors using fuzzy rules. Temporary targets are set up by distance variation method and then the algorithms of trajectory planning and obstacle avoidance are designed using fuzzy rules. In this approach, several digital image processing technique is employed to detect edge of obstacles and the distances between the mobile robot and the obstacles are measured. An autonomous mobile robot with single vision and IR sensors is built up for experiments. We also show that the autonomous mobile robot with the proposed algorithm is navigating very well in complex unknown environments.