• 제목/요약/키워드: pan-tilt unit

검색결과 13건 처리시간 0.02초

통합형 구조의 감시정찰 영상장비에서 자북의 위치 정확도 개선에 관한 연구 (A Study on Improving the Position Accuracy of the Magnetic North used in Surveillance Imaging Equipments)

  • 신영돈;이재천
    • 전자공학회논문지
    • /
    • 제50권4호
    • /
    • pp.219-228
    • /
    • 2013
  • 감시정찰용 영상장비는 표적의 형상을 실시간으로 관측하거나, 표적의 위치를 정밀하게 측정하여 신뢰성 있는 위치정보를 제공하는 장비로서 정보 지식 기반의 현대 무기체계에서 필수적인 장비로 발전하고 있다. 운용 방식도 고정형, 차량형, 복합형 등으로 운용되고 있고, 또한 운용 개념에 따라 다양한 센서들이 여러 형태의 기구 구조로 제작되어 장/탈착이 용이한 분리형 일체형 기구 구조로 형상화된 통합형 형태로 제작되고 있다. 통합형 구조에 사용되는 다양한 센서들의 핵심부품 들은 자성을 띠고 있기 때문에 위치 측정에 사용되는 디지털 나침반에 영향을 준다. 따라서 정확한 기준점 산출에 부정적인 영향을 미칠 수 있다. 이러한 물리적 자성의 영향을 줄이기 위해 차폐제 사용이 제안되었지만, 선호도가 높은 통합형 구조에서는 장비의 무게, 휴대성 때문에 차폐제의 활용이 제약을 받는다. 본 논문에서는 통합형 구조에서 디지털 나침반을 사용할 경우의 정확한 위치측정 알고리즘에 관하여 연구하였다. 구체적으로, 부품의 장착 위치에 따른 선행 모델링을 통해 차폐제를 사용하지 않은 경우의 사례에 대해 연구하였다. 또한 시스템이 PAN & Tilt와 같이 이용된다는 점에도 착안하여, 수동으로 수행하는 기존의 정치 방식을 자동으로 수행할 수 있는 알고리즘을 제안하였다. 결과적으로 기존의 방위각 중심의 6지점 정치를 방위각과 고각에 따라 12지점을 측정함으로써 측정 범위는 넓히고, 측정시간은 줄이고, 운용자가 측정 중 발생 할 수 있는 영향성을 최소화 할 수 있는 기법임을 확인하였다.

객체 추적 카메라 제어를 위한 고속의 움직임 검출 및 추적 알고리즘 (A Fast Motion Detection and Tracking Algorithm for Automatic Control of an Object Tracking Camera)

  • 강동구;나종범
    • 방송공학회논문지
    • /
    • 제7권2호
    • /
    • pp.181-191
    • /
    • 2002
  • 능동 감시 카메라에서 얻어진 연속 영상에는 카메라의 움직임에 의해 발생하는 전역 움직임과 이동 물체의 국부 움직임이 동시에 존재한다. 따라서 이동 물체의 자동 추적을 위한 영상 기반의 실시간 감시 시스템의 구현을 위해 이동 물체의 국부 움직임만을 검출하고 추적할 수 있는 효과적인 알고리즘이 요구된다. 이 논문에서는 연속 영상의 차영상을 이용하는 빠르고 효율적인 움직임 검출 및 추적 알고리즘을 제안한다. 이 알고리즘은 우선 물체의 속도를 고려하여 이전 영상을 선택하고. 현재 영상과 선택된 이전 영상에 존재하는 전역 움직임을 빠르고 정확하게 추정하기 위해 신뢰성 있는 소수의 정합 블록만을 선택하여 사용한다. 마지막으로 현재 영상과 전역 움직임이 보상된 이전 영상의 차영상을 얻고, 현재 영상과 차영상의 상관 관계를 이용하여 차영상에 존재하는 강한 잡음을 효과적으로 제거하여 이동 물체 영역을 추출한다. 팬틸트 유닛과 AMD 800MHz 프로세서가 내장된 PC로 구성된 능동 카메라 시스템에 제안한 알고리즘을 적용하였다. 이 시스템은 320$\times$240 크기의 영상을 처리하며 수평 수직 방향의 $\pm$20 탐색 영역에서 전역 움직임을 추정할 때 약 50 frames/sec 의 속도로 움직임 검출이 가능하므로 빠른 이동 물체의 실시간 추적에 적합하다.

간단한 기구부와 결합한 공간증강현실 시스템의 샘플 기반 제어 방법 (Sampling-based Control of SAR System Mounted on A Simple Manipulator)

  • 이아현;이주호;이주행
    • 한국CDE학회논문집
    • /
    • 제19권4호
    • /
    • pp.356-367
    • /
    • 2014
  • A robotic sapatial augmented reality (RSAR) system, which combines robotic components with projector-based AR technique, is unique in its ability to expand the user interaction area by dynamically changing the position and orientation of a projector-camera unit (PCU). For a moving PCU mounted on a conventional robotic device, we can compute its extrinsic parameters using a robot kinematics method assuming a link and joint geometry is available. In a RSAR system based on user-created robot (UCR), however, it is difficult to calibrate or measure the geometric configuration, which limits to apply a conventional kinematics method. In this paper, we propose a data-driven kinematics control method for a UCR-based RSAR system. The proposed method utilized a pre-sampled data set of camera calibration acquired at sufficient instances of kinematics configurations in fixed joint domains. Then, the sampled set is compactly represented as a set of B-spline surfaces. The proposed method have merits in two folds. First, it does not require any kinematics model such as a link length or joint orientation. Secondly, the computation is simple since it just evaluates a several polynomials rather than relying on Jacobian computation. We describe the proposed method and demonstrates the results for an experimental RSAR system with a PCU on a simple pan-tilt arm.