• 제목/요약/키워드: Camera Vision

검색결과 1,376건 처리시간 0.034초

컬러 정보를 이용한 무인항공기에서 실시간 이동 객체의 카메라 추적 (The Camera Tracking of Real-Time Moving Object on UAV Using the Color Information)

  • 홍승범
    • 한국항공운항학회지
    • /
    • 제18권2호
    • /
    • pp.16-22
    • /
    • 2010
  • This paper proposes the real-time moving object tracking system UAV using color information. Case of object tracking, it have studied to recognizing the moving object or moving multiple objects on the fixed camera. And it has recognized the object in the complex background environment. But, this paper implements the moving object tracking system using the pan/tilt function of the camera after the object's region extraction. To do this tracking system, firstly, it detects the moving object of RGB/HSI color model and obtains the object coordination in acquired image using the compact boundary box. Secondly, the camera origin coordination aligns to object's top&left coordination in compact boundary box. And it tracks the moving object using the pan/tilt function of camera. It is implemented by the Labview 8.6 and NI Vision Builder AI of National Instrument co. It shows the good performance of camera trace in laboratory environment.

다빈치 기반 스마트 카메라 S/W 설계 및 구현 (Design and Inplementation of S/W for a Davinci-based Smart Camera)

  • 유희재;정선태;정수환
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2008년도 춘계 종합학술대회 논문집
    • /
    • pp.116-120
    • /
    • 2008
  • 스마트 카메라는 종래의 획득한 영상을 압축하여 전송하는 네트워크 카메라 기능에 더하여, 획득한 영상을 해석하여 상황을 인지하고 이에 따른 실시간 조치가 가능한 지능 비젼 기능을 추가적으로 갖춘 카메라이다. 지능 비젼 알고리즘들은 연산량이 많다. 따라서 싱글 CPU로 영상을 압축하고 전송하는 일 뿐만 아니라 지능 비젼 처리까지 모두 실시간으로 처리하기에는 무리가 있다. Texas Instruments 사가 제공하는 다빈치 프로세서는 ARM 코어와 DSP 코어의 듀얼 코어이며 네트워킹 인터페이스 및 비디오 획득 인터페이스를 비롯하여 디지털 비디오 응용 임베디드 제품 개발에 필요한 다양한 I/O을 지원하는 인기 있는 ASSP(Application Specific Standard Product)이다. 본 논문에서는 다빈치 프로세서 기반 스마트 카메라의 S/W 를 설계하고 구현한 결과를 기술한다. 얼굴 검출 응용을 예로 구현하였고 동작이 잘 수행됨을 확인하였다. 향후 보다 광범위하고 실시간으로 동작되는 비젼 기능이 지원되는 스마트 카메라 개발을 위해 보다 효율적인 비젼 응용 S/W 구조와 알고리즘의 최적화에 대한 연구가 필요하다.

  • PDF

Embedded Platform을 기반으로 하는 Vision Box 설계 (Design Vision Box base on Embedded Platform)

  • 김판규;황태문;박상수;이종혁
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 추계종합학술대회
    • /
    • pp.1103-1106
    • /
    • 2005
  • 본 연구의 목적은 카메라를 통하여 획득한 이미지 정보를 캡쳐 후, 이를 분석하여 물체의 동작을 인식하는 Vision Box를 설계하는데 목적이 있다. 본 연구는 고객 즉, 사용자의 요구조건을 최대한 반영하여 구현하고자 하였다. 구현하고자 하는 Vision Box 시스템은 특별한 외부의 부가적인 센서를 사용하지 않고 카메라를 통하여 들어오는 화상 정보만을 분석하여 물체를 식별할 수 있도록 하였다. 그리고 PLC와의 통신과 원격지에서 Vision Box를 제어할 수 있는 방법도 지원할 수 있도록 하였다. 본 연구에서 제안한 Vision Box의 성능을 자동차 엔진패턴 검사를 통하여 검증할 수 있었으며 제안한 Vision Box 시스템이 다양한 산업분야에 적용될 수 있을 것이라 생각된다.

  • PDF

(sLa-Camera-pLb)경로에서의 최소 시간 알고리즘 (An Algorithm of the Minimal Time on the (sLa-Camera-pLb)path)

  • 김순호;김치수
    • 디지털융복합연구
    • /
    • 제13권10호
    • /
    • pp.337-342
    • /
    • 2015
  • SMT장비는 전자 부품을 흡착하여 PCB상에 정확히 실장 하는 장비이다. 이를 위해서는 중간 위치에 설치된 카메라 앞에서 정지하여 비전 검사를 한 후 실장 위치로 이동한다. 그 이동 경로의 타입은 16가지가 되며, 그 중에서 (sLa-Camera-pLb)경로에 대해 가장 빠른 시간에 실장 할 수 있는 알고리즘을 본 논문에서는 제시한다. 이를 위해서는 카메라 위치에서 정지하지 않고 이동하면서 비전 검사할 때 수많은 궤적 중 어떤 궤적이 가장 빠른 시간에 검사 후 실장 할 수 있는 경로인지를 찾는 알고리즘을 제시한다. 그 결과 카메라 앞에서 정지하여 검사 후 이동하는 방식보다 16%의 시간 단축 효과가 있음을 시뮬레이션을 통해 입증하였다.

겐트리 구동시간의 최소화 방안 (Method to Minimize the Moving Time of the Gantry)

  • 김순호;김치수
    • 한국산학기술학회논문지
    • /
    • 제15권11호
    • /
    • pp.6863-6869
    • /
    • 2014
  • SMT장비는 전자부품을 흡착하여 PCB위에 정확히 실장을 하는 장비이다. 이때 부품의 정확한 실장을 위해 비전 카메라로 부품을 인식하여 보정치를 찾고, 이 보정치를 참조하여 PCB 상의 원하는 정확한 위치에 실장 할 수 있다. 일반적으로 비전 카메라로 부품을 인식하기 위해서 카메라 앞에 정지하여 비전검사를 한 후 실장 위치로 이동한다. 그러나 카메라 앞에서 정지하지 않고 그대로 통과하면서 비전 검사를 한다면 정지하는 시간을 단축함으로써 생산성이 향상 될 것이다. 본 논문에서는 카메라 앞에서 정지하지 않고 지나가면서 비전 검사를 할 때 겐트리 구동의 여러 경로 중 가장 빠른 시간에 이동할 수 있는 방법을 제시한다. 카메라 위치를 지나가는 방식에서 거리만 고려하는 것이 아니라 카메라 위치를 지나가는 속도까지 고려한 겐트리 구동 궤적에 대하여 연구하였고, 본 논문에서 제시하는 방식으로 움직이면 시간 이득이 약 5%의 향상되는 것으로 확인되었다.

Controller for Single Line Tracking Autonomous Guidance Vehicle Using Machine Vision

  • Shin, Beom-Soo;Choi, Young-Dae;Ying, Yibin
    • Agricultural and Biosystems Engineering
    • /
    • 제6권2호
    • /
    • pp.47-53
    • /
    • 2005
  • AMachine vision is a promising tool for the autonomous guidance of farm machinery. Conventional CCD camera for the machine vision needs a desktop PC to install a frame grabber, however, a web camera is ready to use when plugged in the USB port. A web camera with a notebook PC can replace existing camera system. Autonomous steering control system of this research was intended to be used for combine harvester. If the web camera can recognize cut/uncut edge of crop, which will be the reference for steering control, then the position of the machine can be determined in terms of lateral offset and heading angle. In this research, a white line was used as a cut/uncut edge of crop for steering control. Image processing algorithm including capturing image in the web camera was developed to determine the desired travel path. An experimental vehicle was constructed to evaluate the system performance. Since the vehicle adopted differential drive steering mechanism, it is steered by the difference of rotation speed between left and right wheels. According to the position of vehicle, the steering algorithm was developed as well. Evaluation tests showed that the experimental vehicle could travel within an RMS error of 0.8cm along the desired path at the ground speed of $9\sim41cm/s$. Even when the vehicle started with initial offsets or tilted heading angle, it could move quickly to track the desired path after traveling $1.52\sim3.5m$. For turning section, i.e., the curved path with curvature of 3 m, the vehicle completed its turning securely.

  • PDF

카메라영상에 의한 DGPS-GIS기반 차선변경 지원시스템의 평가 및 신뢰성 검증 (Assessment and Reliability Validation of Lane Departure Assistance System Based on DGPS-GIS Using Camera Vision)

  • 문상찬;이순걸;김민우;주다니
    • 한국자동차공학회논문집
    • /
    • 제22권6호
    • /
    • pp.49-58
    • /
    • 2014
  • This paper proposes a new assessment and reliability validation method of Lane Departure Assistance System based on DGPS-GIS by measuring lanes with camera vision. Assessment of lane departure is performed with yaw speed measurement and determination method for false alarm of ISO 17361 and performance validation is executed after generating departure warning boundary line by considering deviation error of LDAS using DGPS. Distance between the wheel and the lane is obtained through line abstraction using Hough transformation of the lane image with camera vision. Evaluation validation is obtained by comparing this value with the distance obtained with LDAS. The experimental result shows that the error of the extracted distance of the LDAS is within 5 cm. Also it proves performance of LDAS based on DGPS-GIS and assures effectiveness of the proposed validation method for system reliability using camera vision.

비전시스템에 의한 열간 선재 단면 측정 (Measurement of Hot WireRod Cross-Section by Vision System)

  • 박중조;탁영봉
    • 제어로봇시스템학회논문지
    • /
    • 제6권12호
    • /
    • pp.1106-1112
    • /
    • 2000
  • In this paper, we present a vision system which measures the cross-section of a hot wire-rod in the steel plant. We developed a mobile vision system capable of accurate measurement, which is strong to vibration and jolt when moving. Our system uses green laser light sources and CCD cameras as a sensor, where laser sheet beams form a cross-section contour on the surface of the hot wire-rod and the reflected light from the wire-rode is imaged on the CCD cameras. We use four lasers and four cameras to obtain the image with the complete cross-section contour without an occlusion region. We also perform camera calibrations to obtain each cameras physical parameters by using a single calibration pattern sheet. In our measuring algorithm, distorted four-camera images are corrected by using the camera calibration information and added to generate an image with the complete cross-section contour of the wire-rod. Then, from this image, the cross-section contour of the wire-rod is extracted by preprocessing and segmentation, and its height, width and area are measured.

  • PDF

비전 센서를 갖는 이동 로봇의 복도 주행 시 직진 속도 제어 (Linear Velocity Control of the Mobile Robot with the Vision System at Corridor Navigation)

  • 권지욱;홍석교;좌동경
    • 제어로봇시스템학회논문지
    • /
    • 제13권9호
    • /
    • pp.896-902
    • /
    • 2007
  • This paper proposes a vision-based kinematic control method for mobile robots with camera-on-board. In the previous literature on the control of mobile robots using camera vision information, the forward velocity is set to be a constant, and only the rotational velocity of the robot is controlled. More efficient motion, however, is needed by controlling the forward velocity, depending on the position in the corridor. Thus, both forward and rotational velocities are controlled in the proposed method such that the mobile robots can move faster when the comer of the corridor is far away, and it slows down as it approaches the dead end of the corridor. In this way, the smooth turning motion along the corridor is possible. To this end, visual information using the camera is used to obtain the perspective lines and the distance from the current robot position to the dead end. Then, the vanishing point and the pseudo desired position are obtained, and the forward and rotational velocities are controlled by the LOS(Line Of Sight) guidance law. Both numerical and experimental results are included to demonstrate the validity of the proposed method.