• 제목/요약/키워드: Frame camera

검색결과 612건 처리시간 0.037초

디지털 화상처리에 의한 해양유출기름확산 계측기법개발에 관한 연구 (A Study on a Development of a Measurement Technique for Diffusion of Oil Spill in the Ocean)

  • 이중우;강신영;도덕희;김기철
    • 한국항만학회지
    • /
    • 제12권2호
    • /
    • pp.291-302
    • /
    • 1998
  • A digital image processing technique which is able to be used for getting the velocity vector distribution of a surface of the spilt oil in the ocean without contacting the flow itself. This technique is based upon the PIV(Particle Imaging Velocimetry) technique and its system mainly consists of a high sensitive camera, a CCD camera, an image grabber, and a host computer in which an image processing algorithm is adopted for velocity vector acquisition. For the acquisition of the advective velocity vector of floating matters on the ocean, a new multi-frame tracking algorithm is proposed, and for the acquisition of the diffusion velocity vector distribution of the spilt oil onto the water surface, a high sensitive gray-level cross-correlation algorithm is proposed.

  • PDF

객체 추적 카메라 제어를 위한 고속의 움직임 검출 및 추적 알고리즘 (A Fast Motion Detection and Tracking Algorithm for Automatic Control of an Object Tracking Camera)

  • 강동구;나종범
    • 방송공학회논문지
    • /
    • 제7권2호
    • /
    • pp.181-191
    • /
    • 2002
  • 능동 감시 카메라에서 얻어진 연속 영상에는 카메라의 움직임에 의해 발생하는 전역 움직임과 이동 물체의 국부 움직임이 동시에 존재한다. 따라서 이동 물체의 자동 추적을 위한 영상 기반의 실시간 감시 시스템의 구현을 위해 이동 물체의 국부 움직임만을 검출하고 추적할 수 있는 효과적인 알고리즘이 요구된다. 이 논문에서는 연속 영상의 차영상을 이용하는 빠르고 효율적인 움직임 검출 및 추적 알고리즘을 제안한다. 이 알고리즘은 우선 물체의 속도를 고려하여 이전 영상을 선택하고. 현재 영상과 선택된 이전 영상에 존재하는 전역 움직임을 빠르고 정확하게 추정하기 위해 신뢰성 있는 소수의 정합 블록만을 선택하여 사용한다. 마지막으로 현재 영상과 전역 움직임이 보상된 이전 영상의 차영상을 얻고, 현재 영상과 차영상의 상관 관계를 이용하여 차영상에 존재하는 강한 잡음을 효과적으로 제거하여 이동 물체 영역을 추출한다. 팬틸트 유닛과 AMD 800MHz 프로세서가 내장된 PC로 구성된 능동 카메라 시스템에 제안한 알고리즘을 적용하였다. 이 시스템은 320$\times$240 크기의 영상을 처리하며 수평 수직 방향의 $\pm$20 탐색 영역에서 전역 움직임을 추정할 때 약 50 frames/sec 의 속도로 움직임 검출이 가능하므로 빠른 이동 물체의 실시간 추적에 적합하다.

Robust Camera Calibration using TSK Fuzzy Modeling

  • Lee, Hee-Sung;Hong, Sung-Jun;Kim, Eun-Tai
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제7권3호
    • /
    • pp.216-220
    • /
    • 2007
  • Camera calibration in machine vision is the process of determining the intrinsic camera parameters and the three-dimensional (3D) position and orientation of the camera frame relative to a certain world coordinate system. On the other hand, Takagi-Sugeno-Kang (TSK) fuzzy system is a very popular fuzzy system and approximates any nonlinear function to arbitrary accuracy with only a small number of fuzzy rules. It demonstrates not only nonlinear behavior but also transparent structure. In this paper, we present a novel and simple technique for camera calibration for machine vision using TSK fuzzy model. The proposed method divides the world into some regions according to camera view and uses the clustered 3D geometric knowledge. TSK fuzzy system is employed to estimate the camera parameters by combining partial information into complete 3D information. The experiments are performed to verify the proposed camera calibration.

가상 객체 합성을 위한 단일 프레임에서의 안정된 카메라 자세 추정 (Reliable Camera Pose Estimation from a Single Frame with Applications for Virtual Object Insertion)

  • 박종승;이범종
    • 정보처리학회논문지B
    • /
    • 제13B권5호
    • /
    • pp.499-506
    • /
    • 2006
  • 본 논문에서는 실시간 증강현실 시스템에서의 가상 객체 삽입을 위한 빠르고 안정된 카메라 자세 추정 방법을 제안한다. 단일 프레임에서 마커의 특징점 추출을 통해 카메라의 회전행렬과 이동벡터를 추정한다. 카메라 자세 추정을 위해 정사영 투영모델에서의 분해기법을 사용한다. 정사영 투영모델에서의 분해기법은 객체의 모든 특징점의 깊이좌표가 동일하다고 가정하기 때문에 깊이좌표의 기준이 되는 참조점의 설정과 점의 분포에 따라 카메라 자세 계산의 정확도가 달라진다. 본 논문에서는 실제 환경에서 일반적으로 잘 동작하고 융통성 있는 참조점 설정 방법과 이상점 제거 방법을 제안한다. 제안된 카메라 자세추정 방법에 기반하여 탐색된 마커 위치에 가상객체를 삽입하기 위한 비디오 증강 시스템을 구현하였다. 실 환경에서의 다양한 비디오에 대한 실험 결과, 제안된 카메라 자세 추정 기법은 기존의 자세추정 기법만큼 빠르고 기존의 방법보다 안정적이고 다양한 증강현실 시스템 응용에 적용될 수 있음을 보여주었다.

광학식 모션캡처를 위한 다중 카메라 보정 방법 (Multi-camera Calibration Method for Optical Motion Capture System)

  • 신기영;문정환
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.41-49
    • /
    • 2009
  • 본 논문에서는 광학식 모션캡처 장비를 위한 다중 카메라 보정 방법을 제안한다. 이 방법은 DLT(Direct linear transformation) 알고리즘을 이용하여 7개의 마커가 있는 3축 보정틀의 영상을 획득하여 1차 카메라 보정을 한다. 그리고 2개의 마커가 있는 보정봉을 측정하고자 하는 영역에서 움직여서 2차 카메라 보정을 실시한다. 1차 카메라 보정에서는 카메라 보정뿐만 아니라 렌즈 왜곡 계수를 계산하여 2차 카메라 보정에서의 최적화를 위한 초기해로 사용한다. 2차 카메라 보정에서는 보정봉에 있는 마커사이의 거리가 일정하기 때문에 계산된 마커 거리와 실제 마커 거리의 차가 최소화 되도록 최적화를 수행한다. 제안한 방법에 의한 다중 카메라 보정 방법을 검증하기 위하여 재투영에러를 계산하였고 3축 보정틀에 있는 마커사이의 거리와 보정봉에 있는 마커사이의 거리를 계산하여 다른 상용장비의 값과 비교하였다. 3축 보정틀에 있는 마커를 복원하여 에러를 비교한 결과 평균오차가 상용장비의 1.7042mm에 비해 0.8765mm로 51.4% 수준으로 나타났고, 보정봉에 있는 마커를 복원하여 에러를 비교한 결과 상용장비의 평균에러 1.8897mm에 비해 2.0183mm로 0.1286mm 크게 나타났다.

Efficient Tracking of a Moving Object using Optimal Representative Blocks

  • Kim, Wan-Cheol;Hwang, Cheol-Ho;Lee, Jang-Myung
    • International Journal of Control, Automation, and Systems
    • /
    • 제1권4호
    • /
    • pp.495-502
    • /
    • 2003
  • This paper focuses on the implementation of an efficient tracking method of a moving object using optimal representative blocks by way of a pan-tilt camera. The key idea is derived from the fact that when the image size of a moving object is shrunk in an image frame according to the distance between the mobile robot camera and the object in motion, the tracking performance of a moving object can be improved by reducing the size of representative blocks according to the object image size. Motion estimations using Edge Detection (ED) and Block-Matching Algorithm (BMA) are regularly employed to track objects by vision sensors. However, these methods often neglect the real-time vision data since these schemes suffer from heavy computational load. In this paper, a representative block able to significantly reduce the amount of data to be computed, is defined and optimized by changing the size of representative blocks according to the size of the object in the image frame in order to improve tracking performance. The proposed algorithm is verified experimentally by using a two degree-of- freedom active camera mounted on a mobile robot.

신경회로망을 이용한 카메라 교정과 2차원 거리 측정에 관한 연구 (Neural Network Based Camera Calibration and 2-D Range Finding)

  • 정우태;고국원;조형석
    • 한국정밀공학회:학술대회논문집
    • /
    • 한국정밀공학회 1994년도 추계학술대회 논문집
    • /
    • pp.510-514
    • /
    • 1994
  • This paper deals with an application of neural network to camera calibration with wide angle lens and 2-D range finding. Wide angle lens has an advantage of having wide view angles for mobile environment recognition ans robot eye in hand system. But, it has severe radial distortion. Multilayer neural network is used for the calibration of the camera considering lens distortion, and is trained it by error back-propagation method. MLP can map between camera image plane and plane the made by structured light. In experiments, Calibration of camers was executed with calibration chart which was printed by using laser printer with 300 d.p.i. resolution. High distortion lens, COSMICAR 4.2mm, was used to see whether the neural network could effectively calibrate camera distortion. 2-D range of several objects well be measured with laser range finding system composed of camera, frame grabber and laser structured light. The performance of 3-D range finding system was evaluated through experiments and analysis of the results.

  • PDF

웹 카메라의 특성 분석 및 고해상도 행성촬영 (SPECIFIC ANALYSIS OF WEB CAMERA AND HIGH RESOLUTION PLANETARY IMAGING)

  • 박영식;이동주;진호;한원용;박장현
    • Journal of Astronomy and Space Sciences
    • /
    • 제23권4호
    • /
    • pp.453-464
    • /
    • 2006
  • 일반적으로 웹 카메라는 PC간 화상통신을 위해 많이 쓰이고 있으나, 화소수도 적고 장시간 노출촬영도 불가능하기 때문에 천문용으로 사용하기에는 어려움이 있다. 하지만 장시간 노출이 필요 없는 달이나 행성 등을 촬영하기에는 부족함이 없기 때문에 아마추어 관측자들이 행성 촬영용으로 많이 이용하고 있다. 웹 카메라 중에 CCD를 사용한 Philips사의 ToUcam Pro II를 사용하여 행성촬영을 하였고, 촬영한 동영상은 상용 프로그램인 Registax를 이용하여 합성을 하였다. 또한 웹 카메라의 기본적인 특성을 알아보기 위해, CCD의 특성 분석에 활용하는 직선성, 이득 등의 특성을 살펴보았다. 행성 촬영할 때 기존에는 필름이나 디지털 카메라, CCD로 한 장씩 찍었지만, 웹 카메라로 촬영할 경우 동영상으로 촬영하여서 중은 이미지만을 골라서 합성하기 때문에, 훨씬 더 고해상도의 행성이미지 촬영이 가능하게 되었다. 행성관측 방법과 동영상 합성 방법 등에 대해 논의하기로 한다.

A Guideline for Motion-Image-Quality Improvement of LCD-TVs

  • Kurita, Taiichiro
    • 한국정보디스플레이학회:학술대회논문집
    • /
    • 한국정보디스플레이학회 2009년도 9th International Meeting on Information Display
    • /
    • pp.1164-1167
    • /
    • 2009
  • Motion-image-quality of LCD-TVs is discussed by dynamic spatial frequency response. Smaller temporal aperture or higher frame rate can improve dynamic response, but an increase of motion velocity easily cancels the improvement. A guideline for deciding the desirable temporal aperture and frame rate of LCD-TVs is described, under the condition that camera and display have the same parameters. Two candidates of the desirable parameter sets will be (240 or 300 Hz, 50 to 100% aperture) and (120Hz, 25 to 50% aperture), from the viewpoint of "limit of acceptance" on motion-imagequality-deterioration for critical picture materials.

  • PDF

캐니 에지 맵을 LOD로 변환한 맵을 이용하여 객체 소거를 위한 추적 (Object Tracking for Elimination using LOD Edge Maps Generated from Canny Edge Maps)

  • 장영대;박지헌
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 춘계학술발표대회
    • /
    • pp.333-336
    • /
    • 2007
  • We propose a simple method for tracking a nonparameterized subject contour in a single video stream with a moving camera and changing background. Then we present a method to eliminate the tracked contour object by replacing with the background scene we get from other frame. Our method consists of two parts: first we track the object using LOD (Level-of-Detail) canny edge maps, then we generate background of each image frame and replace the tracked object in a scene by a background image from other frame that is not occluded by the tracked object. Our tracking method is based on level-of-detail (LOD) modified Canny edge maps and graph-based routing operations on the LOD maps. To reduce side-effects because of irrelevant edges, we start our basic tracking by using strong Canny edges generated from large image intensity gradients of an input image. We get more edge pixels along LOD hierarchy. LOD Canny edge pixels become nodes in routing, and LOD values of adjacent edge pixels determine routing costs between the nodes. We find the best route to follow Canny edge pixels favoring stronger Canny edge pixels. Our accurate tracking is based on reducing effects from irrelevant edges by selecting the stronger edge pixels, thereby relying on the current frame edge pixel as much as possible. This approach is based on computing camera motion. Our experimental results show that our method works nice for moderate camera movement with small object shape changes.