• 제목/요약/키워드: Motion segmentation

검색결과 203건 처리시간 0.025초

윤곽선과 컬러 분포를 이용한 비디오 분할과 비디오 브라우징 (Video Segmentation and Video Browsing using the Edge and Color Distribution)

  • 허승;김우생
    • 한국정보처리학회논문지
    • /
    • 제4권9호
    • /
    • pp.2197-2207
    • /
    • 1997
  • 본 논문에서는 비디오 프레임들의 윤곽선과 컬러 분포를 사용한 비디오를 분할 하는 방법을 제안하며 분할된 장면의 정보를 사용하여 비디오 브라우징을 구현하였다. 비디오를 분할하기 위한 방법으로는 HSV 162개의 색상을 가진 히스토그램과 자동 임계값으로 산출된 윤곽선을 사용하였고 각 장면들의 객체 위치와 색상 분포 등의 특성을 고려하였다. 검출된 장면들을 계층적인 브라우저와 장면 기반 브라우저를 사용해 비디오를 브라우징할 수 있도록 하였다. 또한 본 논문에서는 제안하는 장면 변화 검출 방법이 기존의 색상 분포만을 사용하는 히스토그램의 방법에 비해 움직임에 보다 견고하고, 빛의 영향을 최소화 할 수 있음을 다양한 종류의 비디오 데이터를 통해 보였다.

  • PDF

EFFICIENT MULTIVIEW VIDEO CODING BY OBJECT SEGMENTATION

  • Boonthep, Narasak;Chiracharit, Werapon;Chamnongthai, Kosin;Ho, Yo-Sung
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.294-297
    • /
    • 2009
  • Multi-view video consists of a set of multiple video sequences from multiple viewpoints or view directions in the same scene. It contains extremely a large amount of data and some extra information to be stored or transmitted to the user. This paper presents inter-view correlations among video objects and the background to reduce the prediction complexity while achieving a high coding efficiency in multi-view video coding. Our proposed algorism is based on object-based segmentation scheme that utilizes video object information obtained from the coded base view. This set of data help us to predict disparity vectors and motion vectors in enhancement views by employing object registration, which leads to high compression and low-complexity coding scheme for enhancement views. An experimental results show that the superiority can provide an improvement of PSNR gain 2.5.3 dB compared to the simulcast.

  • PDF

시공간 영상분할을 이용한 이동 및 이동 중 정지물체 검출 (Detection of Objects Temporally Stop Moving with Spatio-Temporal Segmentation)

  • 김도형;김경환
    • 한국통신학회논문지
    • /
    • 제40권1호
    • /
    • pp.142-151
    • /
    • 2015
  • 본 논문에서는 이동 카메라 환경에서 이동 및 이동 중 정지물체를 검출하기 위한 방법을 제안한다. 이동 중에 일시적으로 정지한 물체는 검출 결과의 응용관점에서 볼 때 이동물체의 검출만큼이나 중요한데, 기존의 이동물체 검출 방법들은 이들을 배경과 구분하지 못하는 한계를 갖는다. 이러한 문제를 해결하기 위해 제안하는 방법에서는 이동 가능성 큐, 위치 가능성 큐, 그리고 색 분포 유사성 큐를 정의하여 이동물체 검출 및 지속적인 추적에 이용한다. 그래프 컷 알고리즘은 세 개의 큐를 결합하여 시공간 영상분할을 수행함으로써 이동 및 이동 중 정지물체를 검출한다. 제안하는 방법은 이동물체 뿐 아니라 이동 중 정지물체에 대해서도 검출이 가능함을 실험을 통해 증명하였다.

이진화기반 영역분할을 이용한 3D입체영상의 밝기보정 (Intensity Correction of 3D Stereoscopic Images Using Binarization-Based Region Segmentation)

  • 김상현;김정엽
    • 정보처리학회논문지B
    • /
    • 제18B권5호
    • /
    • pp.265-270
    • /
    • 2011
  • 본 논문에서는 이진화기반 영역분할을 이용한 3D입체영상의 밝기 보정방법을 제안한다. 제안된 방법은 입력된 좌우 3D입체영상 중 우 영상을 이진화를 통한 영역분할을 하고 크기가 작은 영역들은 제거한다. 다음 우 영상의 각 영역들에 대해 대응되는 좌 영상내의 영역을 상관계수(correlation coefficient)를 이용한 정합을 통해 추출한다. 영역단위의 매칭을 할 때 영역들 간의 겹침을 방지하기 위하여 모폴로지 필터로 영역경계에 인접한 일정부분을 제거한다. 그리고 좌우 영상의 영역 간 히스토그램 명세화를 수행함으로써 우 영상의 밝기 보정을 한다. 실험에서 좌 영상으로부터 블록단위 움직임보상으로 우 영상을 생성했을 때 제안한 방법이 블록평균 정합오차가 가장 작은 것을 확인 할 수 있었다.

배경 모델 갱신을 통한 코드북 기반의 전배경 분할 (Codebook-Based Foreground-Background Segmentation with Background Model Updating)

  • 정재영
    • 디지털콘텐츠학회 논문지
    • /
    • 제17권5호
    • /
    • pp.375-381
    • /
    • 2016
  • 최근 코드북 기반의 전 배경 분리 알고리즘에 대한 연구가 활발히 진행되고 있다. 코드북은 입력 영상 시퀀스로부터 화소당 하나씩 만들어 지는데, 코드북 내의 각 코드워드는 동일 위치의 훈련 화소들을 대상으로 양자화를 수행한 클러스터 대표 벡터이다. 일반적인 코드북 기반 방법들은 초기 배경 모델 생성을 위하여 긴 시간동안 훈련 샘플들의 학습 과정을 거친다. 본 논문에서는 초기 몇 장의 프레임으로 부터 간단한 중위수 연산을 통하여 초기 배경 모델을 생성하고, 시간의 흐름에 따라 변화된 배경 정보를 포함할 수 있도록 코드워드의 사용 빈도수에 기반하여 배경 모델을 갱신한다. 제안한 알고리즘을 OpenCV 3.0과 연동하여 C언어로 구현하여 몇 개의 PETS2009 데이터에 적용 실험하였다. 해당 데이터는 준-주기적 움직임을 갖는 영상 시퀀스, 이동 물체의 일시 정지 등의 시나리오를 포함하고 있다. 실험을 통하여 제안한 방식이 GMM 알고리즘, 표준 코드북 알고리즘에 비하여 우수한 성능을 나타내고 있음을 확인하였다.

2단계 신경망과 계층적 프레임 탐색 방법을 이용한 MPEG 비디오 분할 (MPEG Video Segmentation using Two-stage Neural Networks and Hierarchical Frame Search)

  • 김주민;최영우;정규식
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권1_2호
    • /
    • pp.114-125
    • /
    • 2002
  • 본 논문에서는 MPEG 비디오 데이터의 컷(cut)과 디졸브(dissolve)를 검출하여 샷(shot) 단위로 분할하고 각 샷의 카메라 동작 또는 객체 움직임의 형태를 분류하는 방법을 제안하고자 한다. 정확한 샷의 위치와 카메라, 객체의 세분화된 동작을 구별하기 위한 전단계의 연구에서[1] 우선 MPEG 데이터의 I(Intra) 프레임의 DC(Direct Current) 계수를 분석하여 픽처 그룹을 Shot(장면이 바뀐 경우), Move(카메라 동작 또는 객체가 움직인 경우), Static(영상의 변화가 거의 없는 경우)으로 세분화하여 분류하였다. 이 과정에서 2단계 구조의 신경망을 구성하고 여러 종류의 특징을 서로 다른 해상도에서 추출하여 결합시키는 방법을 제안하였다. 다음 단계로 Shot 또는 Move로 분류된 픽처 그룹의 P(Predicted), B(Bi-directional) 프레임을 선별적, 계층적으로 탐색하여 컷의 정확한 발생 위치와 카메라 동작 또는 객체 움직임의 종류를 결정하는 방법을 제안한다. P, B 프레임의 매크로 블록의 종류별 분포를 통계적으로 이용하여 컷의 발생 위치를 검출하여, P, B 프레임의 매크로 블록 종류와 움직임 벡터를 동시에 사용하는 신경망을 구성하여 디졸브, 카메라 동작, 객체 움직임의 종류를 검출한다. 본 논문에서 제안하는 방법은 MPEG 데이터의 압축을 풀지 않은 상태에서 I 프레임의 DC 계수만을 사용하여 픽처 그룹을 분류하며, 분류된 픽처 그룹 내에서 일부의 P, B 프레임만을 계층적으로 선택하여 탐색함으로서 처리 시간을 감소시키고자 하였다. 세 종류의 서로 다른 비디오 데이터를 사용한 실험에서 93.9-100.0%로 픽처 그룹을, 96.1-100.0%로 컷을 검출하였다. 또한 두 종류의 비디오 데이터를 사용한 실험에서 90.13% 및 89.28%의 정확성으로 카메라 동작 또는 객체 움직임을 분류하였다.

관심영역 기반 와핑을 이용한 3D 동영상 안정화 기법 (ROI-Based 3D Video Stabilization Using Warping)

  • 이태환;송병철
    • 대한전자공학회논문지SP
    • /
    • 제49권2호
    • /
    • pp.76-82
    • /
    • 2012
  • 가정용 캠코더의 보급으로 인해서 손떨림이나 카메라 흔들림을 보상하기 위해 다양한 동영상 안정화 기법들이 연구되고 있다. 동영상 안정화 기법은 초기에 2차원 움직임만을 고려하였지만, 최근에는 3차원 움직임까지 고려하여서 더 좋은 성능을 얻을 수 있게 되었다. 이러한 기법들 중 가장 좋은 성능을 보이는 것으로 알려진 기법이 바로 content preserving warping을 이용한 기법인데 이것은 뛰어난 성능을 보이지만 방대한 연산량이 단점이다. 그래서, 우리는 ROI 측면에서 종래 기술 대비 동등한 화질을 보이면서도 연산량이 적은 full frame warping을 제안한다. 먼저, 목표로 하는 깊이 정보를 바탕으로 관심 영역을 설정하고, 설정된 관심 영역을 기반으로 full frame warping을 수행한다.

Fast and Efficient Method for Fire Detection Using Image Processing

  • Celik, Turgay
    • ETRI Journal
    • /
    • 제32권6호
    • /
    • pp.881-890
    • /
    • 2010
  • Conventional fire detection systems use physical sensors to detect fire. Chemical properties of particles in the air are acquired by sensors and are used by conventional fire detection systems to raise an alarm. However, this can also cause false alarms; for example, a person smoking in a room may trigger a typical fire alarm system. In order to manage false alarms of conventional fire detection systems, a computer vision-based fire detection algorithm is proposed in this paper. The proposed fire detection algorithm consists of two main parts: fire color modeling and motion detection. The algorithm can be used in parallel with conventional fire detection systems to reduce false alarms. It can also be deployed as a stand-alone system to detect fire by using video frames acquired through a video acquisition device. A novel fire color model is developed in CIE $L^*a^*b^*$ color space to identify fire pixels. The proposed fire color model is tested with ten diverse video sequences including different types of fire. The experimental results are quite encouraging in terms of correctly classifying fire pixels according to color information only. The overall fire detection system's performance is tested over a benchmark fire video database, and its performance is compared with the state-of-the-art fire detection method.

Block Based Face Detection Scheme Using Face Color and Motion Information

  • Kim, Soo-Hyun;Lim, Sung-Hyun;Cha, Hyung-Tai;Hahn, Hern-Soo
    • 한국지능시스템학회논문지
    • /
    • 제13권4호
    • /
    • pp.461-468
    • /
    • 2003
  • In a sequence of images obtained by surveillance cameras, facial regions appear very small and their colors change abruptly by lighting condition. This paper proposes a new face detection scheme, robust on complex background, small size, and lighting conditions. The proposed method is consisted of three processes. In the first step, the candidates for the face regions are selected using face color distribution and motion information. In the second stage, the non-face regions are removed using face color ratio, boundary ratio, and average of column-wise intensity variation in the candidates. The face regions containing eyes and mouth are segmented and classified, and then they are scored using their topological relations in the last step. To speed up and improve a performance the above process, a block based image segmentation technique is used. The experiments have shown that the proposed algorithm detects faced regions with more than 91% of accuracy and less than 4.3% of false alarm rate.

Motion-Based Background Subtraction without Geometric Computation in Dynamic Scenes

  • Kawamoto, Kazuhiko;Imiya, Atsushi;Hirota, Kaoru
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 ISIS 2003
    • /
    • pp.559-562
    • /
    • 2003
  • A motion-based background subtraction method without geometric computation is proposed, allowing that the camera is moving parallel to the ground plane with uniform velocity. The proposed method subtracts the background region from a given image by evaluating the difference between calculated and model Hows. This approach is insensitive to small errors of calculated optical flows. Furthermore, in order to tackle the significant errors, a strategy for incorporating a set of optical flows calculated over different frame intervals is presented. An experiment with two real image sequences, in which a static box or a moving toy car appears, to evaluate the performance in terms of accuracy under varying thresholds using a receiver operating characteristic (ROC) curve. The ROC curves show, in the best case, the figure-ground segmentation is done at 17.8 % in false positive fraction (FPF) and 71.3% in true positive fraction (TPF) for the static-object scene and also at 14.8% in FPF and 72.4% In TPF for the moving-object scene, regardless if the calculated optical flows contain significant errors of calculation.

  • PDF