• Title/Summary/Keyword: 광류

Search Result 65, Processing Time 0.035 seconds

Segmentation of Motion Vector Using Seeded Split-Merge Clustering (SSM 클러스터링을 이용한 동작벡터의 분할)

  • 이동하;장석우;최형일
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.493-495
    • /
    • 2000
  • 동영상에서 동작물체 영역과 배경 영역을 추출하는 방법에는 크게 원본 영상들의 특징값을 이용하는 방법, 동작벡터 혹은 광류를 이용하는 방법, 그리고 동작벡터와 원본영상을 모두 이용하는 방법의 세가지가 있다. 이중 많이 사용되고 있는 동작벡터를 이용하는 방법에는 히스토그램을 이용하는 방법과 동작벡터의 특징값에 대한 클러스터링을 이용해 분할 하는 방법이 있는데. 이들 기존 방법은 몇가지 문제점을 가지고 있다. 전자는 구현이 간단하나 세부적인 영역분할이 어렵다는 문제점이 있고, 후자는 일반적으로 높은 계산 복잡도를 가지며 초기 클러스터 개수 선정에 문제를 지니고 있다. 본 논문에서는 낮은 계산 복잡도를 가지며 클러스터 할당과 병합된 클러스터 중심 계산에 있어 보다 적응적인 Seeded Split-Merge 클러스터링 방법을 제안한다.

  • PDF

SiC/SiNx 복합층을 열처리에 의하여 형성된 SiC 나노입자의 광학적 성질

  • Park, Hun-Min;O, Do-Hyeon;Kim, Tae-Hwan
    • Proceedings of the Korean Vacuum Society Conference
    • /
    • 2013.02a
    • /
    • pp.393-393
    • /
    • 2013
  • 나노입자를 포함하는 합성물은 전자소자와 광전소자의 응용 가능성 때문에 많은 연구가 진행되고 있다. 복합층을 사용한 소자의 전기적 성질에 대한 연구는 많이 진행되었으나, SiC/SiNx 다층 복합층 소자에 대한 광학적 특성에 대한 연구는 상대적으로 미흡하다. 본 연구는 SiC/SiNx 다층 복합층을 사용하여 스퍼터링 방법으로 형성하고 열처리를 사용하여 복합층의 미세구조와 광학적 특성을 조사하였다. SiNx층을 p-형 Si 기판 위에 성장한 후 SiC층을 형성하였다. 3번의 주기적인 성장으로 다층구조를 형성하고, 30분 동안 열처리 하였다. 투과전자현미경상은 SiC/SiNx 복합층에 SiC 나노입자가 형성한 것을 확인하였다. 광류미네센스 스펙트럼 결과는 형성한 SiC/SiNx 복합층을 열처리할 때 SiC층에서 나타나는 주된 피크 위치가 변위되는 것을 보였다. 광류 미네센스 스펙트럼 결과에서 나타난 주된 피크가 열치리에 따라 변화하는 원인을 규명하였다.

  • PDF

Use of Optical Flow Information with three Cameras for Robot Navigation (로봇 주행을 위한 세개의 카메라를 사용한 광류 정보 활용)

  • Lee, Soo-Yong
    • Journal of Institute of Control, Robotics and Systems
    • /
    • v.18 no.2
    • /
    • pp.110-117
    • /
    • 2012
  • This paper describes a new design of optical flow estimation system with three cameras. Optical flow provides useful information of camera movement; however a unique solution is not usually available for unknowns including the depth information. A camera and two tilted cameras are used to have different view of angle and direction of movement to the camera axis. Geometric analysis is performed for cases of several independent movements. The ideas of taking advantage of the extra information for robot navigation are discussed with experimental results.

Human Action Recognition in Various Viewpoints with a Key-Pose Distribution (핵심-포즈 분포 기반 다중 시점에서의 휴먼 행동 인식)

  • Kim, Sun-Woo;Suk, Heung-Il;Lee, Seong-Whan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06c
    • /
    • pp.507-511
    • /
    • 2010
  • 휴먼 행동 인식은 크게 3D 모델 기반 방법과 템플릿 기반 방법으로 나눌 수 있다. 3D 모델 기반 방법은 휴먼의 포즈를 3D로 재구성한 뒤 특징을 추출하는 것으로 인식 정확도는 높으나 연산량이 많아 매우 비효율적이다. 반면 템플릿 기반의 방법은 간단하고 수행 시간이 빠르기 때문에 여러 논문들에서 채택되고 있다. 그러나 템플릿을 이용한다는 특성 때문에 시점, 행동 스타일의 변화 등에 따라 실루엣의 변화가 심해 인식 성능에 한계점을 가진다. 본 논문에서는 핵심-포즈들의 히스토그램으로 표현되는 핵심-포즈 분포와 광류의 변화를 이용하여 다중 시점에서의 휴먼 행동 인식 방법을 제안한다. 제안하는 방법은 IXMAS 데이터 셋을 이용한 실험에서 적은 수의 템플릿을 이용하면서도 평균 87.9%의 높은 인식률을 보였다.

  • PDF

Implementation of motion detection and tracking in the real-time image. (실시간영상에서의 움직임 검출 및 추적구현에 관한 연구)

  • Kim, Nam-woo;Hur, Chang-Wu
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2014.10a
    • /
    • pp.729-732
    • /
    • 2014
  • 본 논문에서는 실시간 영상에서 움직임 검출 및 추적에 관련한 기본 기술들을 나열하고 구현하여 구현 가능성 및 성능에 대하여 검증을 진행하였다. 움직임 검출에는 배경 차영상 기법에 의한 움직임 및 변화 영역 검출 방법과 움직임 히스토리에 의한 움직임 검출법, 광류에 의한 움직임 검출법이 있으며 이를 구현하여 검증하였다. 또한 움직임 추적의 경우에는 추적하려는 물체의 히스토그램의 역투영을 이용하면서 물체의 중심점을 추적하는 MeanShift와 물체의 중심, 크기, 방향을 함께 추적하는 CamShift가 있고 Kalman 필터에 의한 움직임 추적을 구현하여 검증하였다. 구현된 방법을 통하여 보안용의 영상감시 장비의 추적 시스템 및 GPS 좌표를 기반으로하여 비행체를 추적하면서 통신링크를 유지하는 추적안테나 시스템에 적용하므로서 제어의 정확도를 높일 수 있다.

  • PDF

A Moving Object Tracking using Color and OpticalFlow Information (컬러 및 광류정보를 이용한 이동물체 추적)

  • Gim, Ju-Hyeon;Choi, Han-Go
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.05a
    • /
    • pp.319-322
    • /
    • 2013
  • 본 연구에서는 이동 객체를 컬러기반에서 추적하는데 있어 주변 환경 변화와 추적중인 객체 색상이 유사한 물체가 존재할 경우 보다 안정적으로 추적할 수 있는 방법을 제시한다. 백그라운드 차영상과 모폴로지 연산을 통하여 이동 객체를 검출하고, 매 프레임마다 발생하는 밝기 및 주변 환경의 영향을 고려하여 기존의 CamShift 알고리즘을 보완하였다. 추적 물체와 색상이 비슷한 주변 물체가 존재할 경우 개선된 CamShift는 불안정한 추적을 보여주었는데 이를 해결하기 위해 Optical Flow기반의 KLT 알고리즘과 병합하는 방법을 제시하였다. 실험 결과를 통해 제안된 추적 방법은 기존의 단점을 보완하였으며 추적성능이 개선됨을 확인하였다.

Using play-back image sequence to detect a vehicle cutting in a line automatically (역방향 영상재생을 이용한 끼어들기 차량 자동추적)

  • Rheu, Jee-Hyung;Kim, Young-Mo
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.51 no.2
    • /
    • pp.95-101
    • /
    • 2014
  • This paper explains effective tracking method for a vehicle cutting in a line on the road automatically. The method employs KLT based on optical flow using play-back image sequence. Main contribution of this paper is play-back image sequence that is in order image frames for rewind direction from a reference point in time. The moment when recognizing camera can read a license plate very well can usually be the reference point in time. The biggest images of object traced can usually be obtained at this moment also. When optic flow is applied, the bigger image of the object traced can be obtained, the more feature points can be obtained. More many feature points bring good result of tracking object. After the recognizing cameras read a license plate on the vehicle suspected of cut-in-line violation, and then the system extracts the play-back image sequence from the tracking cameras for watching wide range. This paper compares using play-back image sequence as normal method for tracking to using play-forward image sequence as suggested method on the results of the experiment and also shows the suggested algorithm has a good performance that can be applied to the unmanned system for watching cut-in-line violation.

Design and implementation of motion tracking based no double difference with PTZ control (PTZ 제어에 의한 이중차영상 기반의 움직임 추적 시스템의 설계 및 구현)

  • Yang Geum-Seok;Yang Seung Min
    • The KIPS Transactions:PartB
    • /
    • v.12B no.3 s.99
    • /
    • pp.301-312
    • /
    • 2005
  • Three different cases should be considered for motion tracking: moving object with fixed camera, fixed object with moving camera and moving object with moving camera. Two methods are widely used for motion tracking: the optical flow method and the difference frame method. The optical new method is mainly used when either one, object or camera is fixed. This method tracks object using time-space vector which compares object position frame by frame. This method requires heavy computation, and is not suitable for real-time monitoring system such as DVR(Digital Video Recorder). The different frame method is used for moving object with fixed camera. This method tracks object by comparing the difference between background images. This method is good for real-time applications because computation is small. However, it is not applicable if the camera is moving. This thesis proposes and implements the motion tracking system using the difference frame method with PTZ(Pan-Tilt-Zoom) control. This system can be used for moving object with moving camera. Since the difference frame method is used, the system is suitable for real-time applications such as DVR.

Dense Optical flow based Moving Object Detection at Dynamic Scenes (동적 배경에서의 고밀도 광류 기반 이동 객체 검출)

  • Lim, Hyojin;Choi, Yeongyu;Nguyen Khac, Cuong;Jung, Ho-Youl
    • IEMEK Journal of Embedded Systems and Applications
    • /
    • v.11 no.5
    • /
    • pp.277-285
    • /
    • 2016
  • Moving object detection system has been an emerging research field in various advanced driver assistance systems (ADAS) and surveillance system. In this paper, we propose two optical flow based moving object detection methods at dynamic scenes. Both proposed methods consist of three successive steps; pre-processing, foreground segmentation, and post-processing steps. Two proposed methods have the same pre-processing and post-processing steps, but different foreground segmentation step. Pre-processing calculates mainly optical flow map of which each pixel has the amplitude of motion vector. Dense optical flows are estimated by using Farneback technique, and the amplitude of the motion normalized into the range from 0 to 255 is assigned to each pixel of optical flow map. In the foreground segmentation step, moving object and background are classified by using the optical flow map. Here, we proposed two algorithms. One is Gaussian mixture model (GMM) based background subtraction, which is applied on optical map. Another is adaptive thresholding based foreground segmentation, which classifies each pixel into object and background by updating threshold value column by column. Through the simulations, we show that both optical flow based methods can achieve good enough object detection performances in dynamic scenes.

Pose Estimation of Ground Test Bed using Ceiling Landmark and Optical Flow Based on Single Camera/IMU Fusion (천정부착 랜드마크와 광류를 이용한 단일 카메라/관성 센서 융합 기반의 인공위성 지상시험장치의 위치 및 자세 추정)

  • Shin, Ok-Shik;Park, Chan-Gook
    • Journal of Institute of Control, Robotics and Systems
    • /
    • v.18 no.1
    • /
    • pp.54-61
    • /
    • 2012
  • In this paper, the pose estimation method for the satellite GTB (Ground Test Bed) using vision/MEMS IMU (Inertial Measurement Unit) integrated system is presented. The GTB for verifying a satellite system on the ground is similar to the mobile robot having thrusters and a reaction wheel as actuators and floating on the floor by compressed air. The EKF (Extended Kalman Filter) is also used for fusion of MEMS IMU and vision system that consists of a single camera and infrared LEDs that is ceiling landmarks. The fusion filter generally utilizes the position of feature points from the image as measurement. However, this method can cause position error due to the bias of MEMS IMU when the camera image is not obtained if the bias is not properly estimated through the filter. Therefore, it is proposed that the fusion method which uses the position of feature points and the velocity of the camera determined from optical flow of feature points. It is verified by experiments that the performance of the proposed method is robust to the bias of IMU compared to the method that uses only the position of feature points.