• Title/Summary/Keyword: 전경/배경

Search Result 206, Processing Time 0.029 seconds

An effective background subtraction in dynamic scene. (동적 환경에서의 효과적인 움직이는 객체 추출)

  • Han, Jae-Hyek;Kim, Yong-Jin;Ryu, Sae-Woon;Lee, Sang-Hwa;Park, Jong-Il
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.631-636
    • /
    • 2009
  • Foreground segmentation methods have steadily been researched in the field of computer vision. Especially, background subtraction which extracts a foreground image from the difference between the current frame and a reference image, called as "background image" have been widely used for a variety of real-time applications because of low computation and high-quality. However, if the background scene was dynamically changed, the background subtraction causes lots of errors. In this paper, we propose an efficient background subtraction method in dynamic environment with both static and dynamic scene. The proposed method is a hybrid method that uses the conventional background subtraction for static scene and depth information for dynamic scene. Its validity and efficiency are verified by demonstration in dynamic environment, where a video projector projects various images in the background.

  • PDF

Real-Time Foreground and Facility Extraction with Deep Learning-based Object Detection Results under Static Camera-based Video Monitoring (고정 카메라 기반 비디오 모니터링 환경에서 딥러닝 객체 탐지기 결과를 활용한 실시간 전경 및 시설물 추출)

  • Lee, Nayeon;Son, Seungwook;Yu, Seunghyun;Chung, Yongwha;Park, Daihee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.711-714
    • /
    • 2021
  • 고정 카메라 환경에서 전경과 배경 간 픽셀값의 차를 이용하여 전경을 추출하기 위해서는 정확한 배경 영상이 필요하다. 또한, 프레임마다 변화하는 실제 배경과 맞추기 위해 배경 영상을 지속해서 갱신할 필요가 있다. 본 논문에서는 정확한 배경 영상을 생성하기 위해 실시간 처리가 가능한 딥러닝 기반 객체 탐지기의 결과를 입력받아 영상 처리에 활용함으로써 배경을 생성 및 지속적으로 갱신하고, 획득한 배경 정보를 이용해 전경을 추출하는 방법을 제안한다. 먼저, 고정 카메라에서 획득되는 비디오 데이터에 딥러닝 기반 객체 탐지기를 적용한 박스 단위 객체 탐지 결과를 지속적으로 입력받아 픽셀 단위의 배경 영상을 갱신하고 개선된 배경 영상을 도출한다. 이후, 획득한 배경 영상을 이용하여 더 정확한 전경 영상을 획득한다. 또한, 본 논문에서는 시설물에 가려진 객체를 더 정확히 탐지하기 위해서 전경 영상을 이용하여 시설물 영상을 추출하는 방법을 제안한다. 실제 돈사에 설치된 카메라로 부터 획득된 12시간 분량의 비디오를 이용하여 실험한 결과, 제안 방법을 이용한 전경과 시설물 추출이 효과적임을 확인하였다.

A panorama algorithm for close foreground objects (근거리 전경 물체를 위한 파노라마 알고리듬)

  • Lee, Soon-Young;Sim, Jae-Young;Lee, Sang-Uk
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2010.07a
    • /
    • pp.420-421
    • /
    • 2010
  • 본 논문에서는 멀티뷰 환경에서 촬영된 영상을 이용하여 카메라와 가까이 위치한 전경 물체를 중심으로 뷰가 확장된 영상을 생성하는 파노라마 알고리듬을 제안하였다. 먼저 전경 물체는 사용자가 선택한 중심 물체를 기준으로 하여 평행 이동 관계로 전경 파노라마를 생성 한다. 배경은 특징점 기반의 파노라마 기법을 이용하여 초기 결과를 얻고, 멀티뷰 영상의 시차에 기인한 가려진(occluded) 영역을 제한 영역으로 설정한 후 최적화 과정을 이용하여 시각적으로 자연스러운 배경 파노라마를 얻는다. 마지막으로 배경 파노라마와 전경 파노라마와 크기를 동일하게 하고 배경 파노라마와 전경 파노라마를 합성하여 결과 파노라마를 구성한다. 모의 실험결과 제안 알고리듬은 원본 영상의 전경 물체들을 모두 포함하면서도 배경 부분은 시각적으로 자연스러운 파노라마 결과를 도출함을 확인하였다.

  • PDF

Tracking Moving Objects Using Foreground and Background (전경과 배경을 동시에 고려하는 이동 물체 추적)

  • 정석우;문철호;최형일
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 1998.10a
    • /
    • pp.511-515
    • /
    • 1998
  • 본 논문에서는 전경과 배경을 동시에 고려하는 이동 물체 추적 기법을 제안한다. 본 논문에서 제안하는 이동 물체 추적 기법은 카메라가 고정되지 않은 동적인 환경에서 연속적으로 촬영된 동영상으로부터 배경과 전경을 분리한 후 배경으로부터는 카메라의 동작을, 그리고 전경으로부터는 이동 물체를 추적한다. 배경에서는 영상의 움직임을 나타내는 동작 벡터를 추출하여 2차원 파라미터 동작 모델인 어파인 동작 모델에 적합시키고, 회귀분석법을 통해 어파인 동작 모델을 구성하는 파라미터를 추출하여 분석함으로써 다양한 카메라의 동작을 구한다. 전경에서는 칼라 정보를 이용하여 물체들의 모델을 생성하고 매 시점마다 모델을 수정하면서 이동 물체를 추적한다. 본 논문에서는 카메라의 동작 및 이동 물체의 추적 시 예측 알고리즘인 칼만 필터를 활용함으로써 보다 효율적이고 강건한 추적이 가능하다. 또한, 배경에서 추출된 카메라의 동작 정보를 전경에서 추출하는 이동 물체의 이동궤적 정보 계산 시 활용함으로써 보다 정확하게 장면을 분석할 수 있다.

  • PDF

Image Segmentation Method using a Degree of Definition (선명도를 이용한 영상 분할 방법)

  • 임재걸;도재수;서경민
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 1998.10a
    • /
    • pp.232-236
    • /
    • 1998
  • 이미지가 전경과 배경으로 이루어져 있을 경우, 이미지에서 중요한 대부분의 정보는 전경의 영역에 집중하게 된다. 만약 이미지를 전경과 배경으로 구분할 수 있다면 영상 인식, 영상 합성, 영상 압축 등 여러 분야에 유용하게 활용할 수 있게 된다. 본 논문에서는 선명도 차이를 이용하여 이미지를 전경과 배경으로 분할하는 방법을 소개하고, 그 실험 결과를 보인다.

  • PDF

Extraction of Region of Interest for Individual Object from a Foreground Image (전경영상에서 단일 객체의 관심 영역 추출을 위한 방법)

  • Yang, Hwiseok;Hwang, Yonghyeon;Cho, We-Duke;Choi, Yoo-Joo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.04a
    • /
    • pp.478-481
    • /
    • 2010
  • 컴퓨터 비전에서 객체의 인식, 추적에 앞서 배경으로부터 전경을 분리하는 배경차감 기법과 분리된 전경에 대한 관심 영역(ROI)을 추출하는 것은 일반적인 방법이다. 하지만 전경을 정확히 분리하지 못하면 개별 객체의 관심영역(ROI) 역시 잘못 추출되는 문제가 발생된다. 본 논문에서는 정확하지 않은 전경 분리로 부터 발생되는 개별 객체에 대한 분산된 관심영역을 병합하는 방법을 제안한다. 본 방법은 배경과 분리된 전경에서 한 객체의 일정 거리 이내에 있는 다른 객체를 가상으로 병합하는 단계, 워터쉐드 분할 알고리즘을 적용하는 단계를 거쳐 다시 블럽 레이블링을 수행한다. 제안 방법을 통하여 배경 모델에서 분리된 개별 객체의 병합된 관심영역을 제공한다. 실험에서 기존의 일반적인 블럽 레이블링 방법만을 적용하여 추출한 전경영역과 제안하는 방법에 의한 전경영역을 비교하여 배경 모델에서 분리된 개별 객체의 관심영역이 효과적으로 추출되는 것을 보인다.

Codebook-Based Foreground Extraction Algorithm with Continuous Learning of Background (연속적인 배경 모델 학습을 이용한 코드북 기반의 전경 추출 알고리즘)

  • Jung, Jae-Young
    • Journal of Digital Contents Society
    • /
    • v.15 no.4
    • /
    • pp.449-455
    • /
    • 2014
  • Detection of moving objects is a fundamental task in most of the computer vision applications, such as video surveillance, activity recognition and human motion analysis. This is a difficult task due to many challenges in realistic scenarios which include irregular motion in background, illumination changes, objects cast shadows, changes in scene geometry and noise, etc. In this paper, we propose an foreground extraction algorithm based on codebook, a database of information about background pixel obtained from input image sequence. Initially, we suppose a first frame as a background image and calculate difference between next input image and it to detect moving objects. The resulting difference image may contain noises as well as pure moving objects. Second, we investigate a codebook with color and brightness of a foreground pixel in the difference image. If it is matched, it is decided as a fault detected pixel and deleted from foreground. Finally, a background image is updated to process next input frame iteratively. Some pixels are estimated by input image if they are detected as background pixels. The others are duplicated from the previous background image. We apply out algorithm to PETS2009 data and compare the results with those of GMM and standard codebook algorithms.

Real-Time Foreground Segmentation and Background Substitution for Protecting Privacy on Visual Communication (화상 통신에서의 사생활 보호를 위한 실시간 전경 분리 및 배경 대체)

  • Bae, Gun-Tae;Kwak, Soo-Yeong;Byun, Hye-Ran
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.34 no.5C
    • /
    • pp.505-513
    • /
    • 2009
  • This paper proposes a real-time foreground segmentation and background substitution method for protecting the privacy on visual communication. Previous works on this topic have some problems with the color and shape of foreground and the capture device such as stereo camera. we provide a solution which can segment the foreground in real-time using fixed mono camera. For improving the performance of a foreground extraction, we propose the Temporal Foreground Probability Model (TFPM) by modeling temporal information of a video. Also we provide an boundary processing method for natural and smooth synthesizing that using alpha matte and simple post-processing method.

Background modeling using background invalidation (배경 무효화를 이용한 배경모델링)

  • Jeon, Hyo-Sung;Moon, Sung-Min;Lee, Jong-Weon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.787-789
    • /
    • 2005
  • 본 논문에서는 로봇이나 감시 시스템에서 주로 쓰이고 있는 배경 모델링의 정확성을 지속 시키는 방법을 제안한다. 오브젝트를 추출하려면 정확한 배경 모델이 필요하다. 정확한 배경 모델을 유지하기 위해서는 전경의 정보가 배경 모델에 반영되면 안 된다. 본 논문에서는 오브젝트의 움직임을 기반으로 한 배경 무효화 기법을 사용하여 전경이 배경 모델에 영향을 주는 것을 방지함으로써 정확한 배경 모델을 유지하는 방법을 제안한다.

  • PDF

Improvement of Background Subtraction Algorithm using GrabCut (GrabCut 을 이용한 배경 분리 알고리즘의 정확도 개선)

  • Lee, Sang-Hoon;Kim, Gibak;Cho, Nam Ik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2015.07a
    • /
    • pp.129-132
    • /
    • 2015
  • 본 논문에서는 기존의 배경 분리 알고리즘 결과에 GrabCut 알고리즘을 도입하여 보다 정확한 배경 분리를 수행하고자 한다. 기존의 알고리즘은 동영상의 프레임 간 정보만을 이용하여 배경 확률 모델을 만들고 배경과 전경을 분리한다. 제안하는 알고리즘에서는 먼저 프레임 간의 정보를 이용하여 간단하게 배경과 전경을 분리하는 기존의 배경 분리 알고리즘을 적용한다. 분리된 결과의 정확도를 향상시키기 위해 프레임 내의 정보를 이용하는 GrabCut 알고리즘을 적용한다. 즉, 본 연구에서는 동영상의 프레임 간 정보와 프레임 내 정보를 모두 이용하여 배경과 전경을 분리하고자 한다. 실험결과에서 Change Detection Workshop dataset 에 포함된 몇 가지 영상에 대해 실험 한 후 결과 영상 비교 및 F-measure 를 통해 개선된 결과를 확인할 수 있다.

  • PDF