• 제목/요약/키워드: 비전 센서

검색결과 295건 처리시간 0.023초

비전센서를 사용하는 이동로봇의 골격지도를 이용한 지역경로계획 알고리즘 (Skeleton-Based Local-Path Planning for a Mobile Robot with a Vision System)

  • 권지욱;양동훈;홍석교
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2006년도 제37회 하계학술대회 논문집 D
    • /
    • pp.1958-1959
    • /
    • 2006
  • This paper proposes a local path-planning algorithm that enables a mobile robot with vision sensor in a local area.The proposed method based on projective geometry and a wavefront method finds local-paths to avoid collisions using 3-D walls or obstacles map generated using projective geometry. Simulation results show the feasibility of the proposed method

  • PDF

비전 시스템에 의한 풍력발전기의 Yaw방향 추정 (The Estimation of Yaw Direction of Wind Turbine Using Vision System)

  • 정명희;정준익;노도환
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2006년 학술대회 논문집 정보 및 제어부문
    • /
    • pp.199-201
    • /
    • 2006
  • 풍력발전기에 있어서 블레이드의 Yaw방향 제어는 끊임없이 변화하는 풍향에 대해 효율의 극대화와 블레이드의 강도 및 진동측면에서 대단히 중요하다. 기존의 블레이드 Yaw 방향 측정은 접촉 및 비접촉 센서가 이용되어왔다. 본 논문에서는 풍력발전기의 원격모니터링 시스템에서 기본적으로 설치되는 카메라를 이용하여 블레이드의 Yaw방향을 측정하는 방법을 제안한다. 블레이드가 풍향에 따라 회전할 때 영상 누적을 행하고, 누적영상에 대해 경계점을 추정하여 타원의 궤적을 추정한다. 추정된 경계점들을 이용하고 최소자승법을 적용하여 타원방정식을 추정하고, 장축과 단축을 연산한다. 장축과 단축의 변화를 이용하여 카메라의 촬영방향의 기준점으로부터 Yaw방향의 변화를 정량적인 값으로 산출하여 이를 바탕으로 Yaw회전각을 추정한다. Yaw 방향 추정의 검증을 위해 블레이드 속도와 Yaw 방향의 제어가 가능한 모형풍력발전기를 제작하고 실험을 통하여 제안한 추정알고리즘의 유효성을 검증한다.

  • PDF

지능형 도시공간정보 통합 플랫폼 개발 전략 연구 (A Study on the Development Strategy for Integrated Urban Spatial Information Management Platform)

  • 홍상기
    • 한국GIS학회:학술대회논문집
    • /
    • 한국GIS학회 2008년도 공동추계학술대회
    • /
    • pp.119-126
    • /
    • 2008
  • 도시공간정보 통합플랫폼은 도시의 체계적이고 과학적인 관리, 특히 지상 및 지하시설물 관리에 필요한 센서 및 미들웨어 기술, 유무선 네트워크, GIS-USN 연계 등의 요소기술이 집적된 지능형 도시운영 기반환경으로 정의된다. 도시공간정보 통합플랫폼은 상수도, 하수도, 가스, 난방, 송유, 전력, 통신의 7대 지하시설물과 교량, 육교, 터널 등 도시 지상시설물 등 도로기반시설물 관리를 지능화 할 수 있는 기반 환경을 제공하는 역할을 수행해야 한다. 본 연구에서는 지능형 도시공간정보 통합플랫폼 개발을 위해 플랫폼의 비전을 설정하고 개방형 분산처리 레퍼런스 모델(RM-ODP, Reference Model for Open Distributed Processing)의 적용을 통해 개발전략을 도출하였다.

  • PDF

힘/모멘트/비전센서를 사용한 챔퍼가 없는 부품의 삽입작업에 관한 연구 (A Study on the Peg-in-hole of chamferless Parts using Force/Moment/Vision Sensor)

  • 백승협;임동진
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2001년도 합동 추계학술대회 논문집 정보 및 제어부문
    • /
    • pp.119-122
    • /
    • 2001
  • This paper discusses the peg-in-hole task of chamferless parts using force/moment/vision sensors. The directional error occurring during the task are categorized into two cases according to the degree of initial errors, And different Mechanical analysis has been accomplished for each cases. This paper proposes an algorithm which enables to reduce intial directional error using digital Images acquired from hand-eyed vision sensor, And to continue the task even with the large directional error by adjusting the error using digital image processing. The effectiveness of the algorithm has been demonstrated through experimentation using 5-axis robot equipped with a developed controller force/moment sensor and color digital camera on its hand.

  • PDF

차선이탈 경보시스템을 위한 실시간 영상처리 하드웨어 구현 (A Real-Time Onboard image Processing System for Lane Departure Warning)

  • 이운근
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 하계학술대회 논문집 D
    • /
    • pp.2507-2509
    • /
    • 2004
  • 지능형 안전자동차에 비전센서를 채택하여 이의 응용시스템을 개발하기 위해서는 궁극적으로 많은 양의 영상데이터를 시스템의 제어목적에 부합하도록 실시간으로 처리하기 위한 노력과 구현하고자 하는 영상처리시스템을 정적인 실내환경과 달리 열악한 환경의 차량에 탑재가 용이하게 하기 위한 소형화의 노력이 요구된다. 본 논문에서 구현된 실시간 영상처리 하드웨어는 에지 연산 등의 반복된 전처리는 FPGA에서 처리하고, 상위단계의 영상처리는 RISC에서 수행하는 구조이다. 구현된 영상처리 하드웨어는 에지정보 기반의 차선정보추출 및 차선이탈 경보알고리즘을 적용하여 그 성능을 평가하였으며, 초당 25프레임 이상의 영상처리를 수행할 수 있는 연산속도를 보여 성공적인 결과를 얻을 수 있었다.

  • PDF

레이저 용접물 결함 평가에 대한 화상처리의 이용 (Application of Image Processing on the Laser Welded Defects Estimation)

  • 이정익;고병갑
    • 한국공작기계학회논문집
    • /
    • 제16권4호
    • /
    • pp.22-28
    • /
    • 2007
  • The welded defects are usually called user's unsatisfaction for appearance and functional usage. For checking these defects effectively without time loss, setup of weldability estimation system is an important for detecting whole specimen quality. In this study, after catching a rawdata on welded specimen profiles and treating vision processing with these data, the qualitative defects are estimated from getting these information by laser vision camera at first. At the same time, the weldability estimation for whole specimen is produced. For user friendly, the weldability estimation results are shown each profiles, final reports and visual graphics method. So, user can easily determined weldability. By applying these system to welding fabrication, these technologies are contribution to on-line setup of weldability estimation system.

레이더, 비전, 라이더 융합 기반 자율주행 환경 인지 센서 고장 진단 (Radar, Vision, Lidar Fusion-based Environment Sensor Fault Detection Algorithm for Automated Vehicles)

  • 최승리;정용환;이명수;이경수
    • 자동차안전학회지
    • /
    • 제9권4호
    • /
    • pp.32-37
    • /
    • 2017
  • For automated vehicles, the integrity and fault tolerance of environment perception sensor have been an important issue. This paper presents radar, vision, lidar(laser radar) fusion-based fault detection algorithm for autonomous vehicles. In this paper, characteristics of each sensor are shown. And the error of states of moving targets estimated by each sensor is analyzed to present the method to detect fault of environment sensors by characteristic of this error. Each estimation of moving targets isperformed by EKF/IMM method. To guarantee the reliability of fault detection algorithm of environment sensor, various driving data in several types of road is analyzed.

교통 신호등과 비전 센서의 위치 관계 분석을 통한 이미지에서 교통 신호등 검출 방법 (Traffic Light Detection Method in Image Using Geometric Analysis Between Traffic Light and Vision Sensor)

  • 최창환;유국열;박용완
    • 대한임베디드공학회논문지
    • /
    • 제10권2호
    • /
    • pp.101-108
    • /
    • 2015
  • In this paper, a robust traffic light detection method is proposed by using vision sensor and DGPS(Difference Global Positioning System). The conventional vision-based detection methods are very sensitive to illumination change, for instance, low visibility at night time or highly reflection by bright light. To solve these limitations in visual sensor, DGPS is incorporated to determine the location and shape of traffic lights which are available from traffic light database. Furthermore the geometric relationship between traffic light and vision sensor is used to locate the traffic light in the image by using DGPS information. The empirical results show that the proposed method improves by 51% in detection rate for night time with marginal improvement in daytime environment.

파형부재의 플라즈마 아크용접을 위한 자동 용접선 추적 (Automatic Seam Tracking for Plasma Arc Welding of a Corrugation Panel)

  • 양주웅;박영준
    • 대한기계학회:학술대회논문집
    • /
    • 대한기계학회 2003년도 추계학술대회
    • /
    • pp.1506-1511
    • /
    • 2003
  • This paper describes an automatic weld seam tracking method of plasma arc welding system designed for the corrugation panel that consists of a linear section and a curved section with various curvatures. Due to the complexity of the panel shape, it is difficult to find a seam and operate a torch manually in the welding process. So, the laser vision sensor for seam tracking is designed for sensing the seam position and controlling a torch automatically. To achieve precise seam tracking, the design of sensor head, image simulation, and calibration are carried out. Through a series of experiment result, compensation algorithm is added and real time error compensation is achieved. The experiment result shows that this vision sensor works effectively. It will provide more precise welding performance and convenience to the operator.

  • PDF

자율이동로봇MAIRO의 전방향 이미지센서와 스테레오 비전 시스템을 이용한 2차원 지도 생성 (2D Map generation Using Omnidirectional Image sensor and Stereo Vision for MobileRobot MAIRO)

  • 김경호;이형규;손영준;송재근
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2002년도 합동 추계학술대회 논문집 정보 및 제어부문
    • /
    • pp.495-500
    • /
    • 2002
  • Recently, a service robot industry outstands as an up and coming industry of the next generation. Specially, there are so many research in self-steering movement(SSM). In order to implement SSM, robot must effectively recognize all around, detect objects and make a surrounding map with sensors. So, many robots have a sonar and a infrared sensor, etc. But, in these sensors, We only know informations about between the robot and the object as well as resolution faculty is of inferior quality. In this paper, we will introduce new algorithm that recognizes objects around robot and makes a two dimension surrounding map with a omni-direction vision camera and two stereo vision cameras.

  • PDF