• 제목/요약/키워드: Grab

검색결과 218건 처리시간 0.03초

GrabCut의 자동 객체 추출을 위한 저주파 영역 탐지 기반의 윈도우 생성 기법 (Window Production Method based on Low-Frequency Detection for Automatic Object Extraction of GrabCut)

  • 유태훈;이강성;이상훈
    • 디지털융복합연구
    • /
    • 제10권8호
    • /
    • pp.211-217
    • /
    • 2012
  • 기존의 GrabCut 알고리즘은 자동 객체 추출이 아닌 사용자가 객체 영역에 사각형 윈도우를 설정해야하는 알고리즘이다. 본 논문에서는 자동 시스템으로 변환하기 위해 인간의 시각 시스템을 기반으로 영상에서 가장 눈에 띄는 영역을 탐지하는 방법을 연구하였다. 주의 시각 영역인 Saliency Map을 생성하기 위해서 인간이 색채를 감지하는 '적/녹' '황/청'의 대립색설을 기반으로 하는 Lab 색공간을 이용하여 생성한다. 생성된 Saliency Map을 주파수 공간으로 변환하여 저주파 영역에 국부적인 경계를 나타내고 경계를 탐지해내어 Saliency Point를 생성한다. 이렇게 생성된 Saliency Point의 좌표 값을 이용하여 윈도우를 자동으로 생성한 후 GrabCut 알고리즘을 기반으로 객체를 추출하였다. 다양한 영상에 제안한 알고리즘을 적용한 결과 객체 영역에 자동으로 윈도우가 생성되었고 객체가 추출되었다.

GrabCut을 이용한 IR 영상 분할 (IR Image Segmentation using GrabCut)

  • 이희열;이은영;구은혜;최일;최병재;류강수;박길흠
    • 한국지능시스템학회논문지
    • /
    • 제21권2호
    • /
    • pp.260-267
    • /
    • 2011
  • 본 논문은 GrabCut 알고리듬을 기반으로 적외선(infrared; IR) 영상에서 물체를 배경으로부터 분할하는 방법을 제안한다. GrabCut 알고리듬은 관심 있는 물체를 둘러싸는 윈도우가 필요하며, 이는 사용자가 설정한다. 그렇지만 이 알고리듬을 영상 시이퀀스에서 물체인식에 적용하려면 윈도우의 로케이션이 자동으로 결정되어야만 한다. 이를 위해서 본 논문에서는 Otsu 알고리듬으로 한 영상에서 관심은 있으나 알져지지 않는 물체를 적당히 분할하고 블랍 해석을 통해 윈도우를 자동으로 로케이션한다. 그랩 컷 일고리듬은 관심있는 물체와 배경의 확률분포를 추정해야한다. 이 경우에 관심 있는 물체의 확률분포는 자동으로 로케이션된 윈도우 내부의 화소들로부터 추정하고, 배경의 확률 분포는 물체의 윈도우를 둘러싸고 면적은 동일한 영역으로부터 추정한다. 다양한 IR 영상에 대한 분할 실험을 통해 제안한 분할 방법이 IR 영상의 분할에 적합함을 보이고, 기존의 IR 영상 분할 방법과의 비교 및 분석을 통해 제안 알고리듬이 우수한 분할 성능을 보임을 증명한다.

대규모 무선 센서 네트워크 환경을 위한 다중 Sink 브로드캐스팅 기법 설계 (A Design of a Selective Multi Sink GRAdient Broadcast Scheme in Large Scale Wireless Sensor Network)

  • 이호선;조익래;이균하
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권4호
    • /
    • pp.239-248
    • /
    • 2005
  • 대규모 무선 센서 네트워크는 네트워크의 신뢰성과 에너지 효율을 동시에 고려해야 한다. 네트워크의 신뢰성을 높이기 위해서는 유니 캐스트 기반 데이터 전송 방법보다 브로드캐스트 기반 데이터 전송 방법을 사용해야 한다. 최근 발표된 GRAdient Broadcast (GRAB)는 브로드캐스트 기반 데이터 전송으로 네트워크의 신뢰성을 높일 수 있다. 하지만 한 개의 sink를 사용하기 때문에 네트워크 전체 에너지를 고르게 사용하지 못한다. 결국 네트워크의 동작 시간이 단축되는 단점이 있다. 이에 본 논문에서는 대규모 무선센서 네트워크에 적합한 Selective Multi Sink Gradient Broadcast (SMSGB)를 제안한다. SMSGB 는 여러 개의 sink를 사용하여 네트워크를 구성하고 한 개의 sink만 데이터를 수집한다. 특정한 이벤트가 발생이 되면 다른 sink가 데이터를 수집하게 된다. 이러한 방법을 통해 전체 네트워크의 에너지를 고르게 소모 할 수 있다. 또한 GRAB와 동일한 브로드캐스트 기반 데이터 전송으로 대규모 무선 센서 네트워크에서 신뢰성을 보장할 수 있다. 기존의 GRAB와 SMSGB를 비교한 모의실험을 통해 GRAB와 비슷한 신뢰성을 유지하면서 GRAB보다 SMSGB의 네트워크 동작 시간이 약 18% 이상 연장됨을 보인다.

  • PDF

화장실 안전손잡이 위치에 따른 앉은 자세에서 일어서기 비교 (A Comparison of Sit-to-Stand Performance Based on Toilet Grab Bar Positions)

  • 정현애;손유나;이지훈;김희동
    • PNF and Movement
    • /
    • 제17권2호
    • /
    • pp.275-282
    • /
    • 2019
  • Purpose: This study aimed to investigate the optimal positions of safety grab bars for effective sit-to-stand (STS) movement by comparing the results of the STS movement while using a safety grab bar installed under two different conditions: the height of the grab bar installation was determined by (1) the Building Act and (2) the principle of proprioceptive neuromuscular facilitation (PNF). Methods: A total of 50 undergraduate students participated in this study, and they were required to perform an STS movement twice under each condition. A baropodometric platform for sitting and a Biorescue (RM Ingenierie, France) were used to collect and analyze changes in the center of pressure (COP) on the left and right sides before and after performing the STS movement. The average completion time for the STS movement was also measured for analysis. Moreover, the participants were asked to express their individual subjective preferences regarding the two positions of the grab bars. Results: The COP changes were significantly smaller when performing the STS movement with the grab bar installed at the height determined by the PNF principle than the Building Act (p<0.01), and the difference in the completion time of the STS movement was not statistically significant between the two conditions. Conclusion: The findings of this study suggest that the principle of PNF can be useful for planning therapeutic exercise as well as for proposing the optimal grab bar position for older adults and those with health-related issues when performing the STS movement. In addition, this may serve as a basic rehabilitation technique for maintaining remaining functions and providing functional efficiency.

Automatic Segmentation of Product Bottle Label Based on GrabCut Algorithm

  • Na, In Seop;Chen, Yan Juan;Kim, Soo Hyung
    • International Journal of Contents
    • /
    • 제10권4호
    • /
    • pp.1-10
    • /
    • 2014
  • In this paper, we propose a method to build an accurate initial trimap for the GrabCut algorithm without the need for human interaction. First, we identify a rough candidate for the label region of a bottle by applying a saliency map to find a salient area from the image. Then, the Hough Transformation method is used to detect the left and right borders of the label region, and the k-means algorithm is used to localize the upper and lower borders of the label of the bottle. These four borders are used to build an initial trimap for the GrabCut method. Finally, GrabCut segments accurate regions for the label. The experimental results for 130 wine bottle images demonstrated that the saliency map extracted a rough label region with an accuracy of 97.69% while also removing the complex background. The Hough transform and projection method accurately drew the outline of the label from the saliency area, and then the outline was used to build an initial trimap for GrabCut. Finally, the GrabCut algorithm successfully segmented the bottle label with an average accuracy of 92.31%. Therefore, we believe that our method is suitable for product label recognition systems that automatically segment product labels. Although our method achieved encouraging results, it has some limitations in that unreliable results are produced under conditions with varying illumination and reflections. Therefore, we are in the process of developing preprocessing algorithms to improve the proposed method to take into account variations in illumination and reflections.

ECDIS에 의한 준설선의 작업공정 관리 및 평가 (Evaluation and management of work process in dredger using ECDIS)

  • 이대재
    • 수산해양기술연구
    • /
    • 제43권3호
    • /
    • pp.212-221
    • /
    • 2007
  • This paper describes on the evaluation and management of work process in suction hopper dredger and grab bucket dredger as an application of a PC-based ECDIS system. The dynamic tracking of dredging bucket and the data logging of grab dredging information were performed by using the grab dredging vessel "Kunwoong G-18". The position and route tracking of the dredger moving toward the ocean dumping site of dredged material was performed by using the hopper dredging vessel "Samyang-7". The evaluation of wok process in the dredging field, for grab dredger, was continuously carried out on January to May, 2006, in Incheon Hang and for hopper dredger, on July to December, 2003, in Busan Hang, Korea. The dredging information, such as dredger's position, heading, dredging depth and route track which was individually time stamped during the dredging operation, was automatically processed in real-time on the ECDIS and displayed simultaneously on the S-57 ENC chart. From these results, we conclude that the ECDIS system can be applied as a tool in order to manage the work process during the dredging operation, and also in order to generate the factual record of the dredging activities that is sufficient for dredging inspector to accurately evaluate the contract performance even in the absence of a full-time onboard inspector.

Unconstrained Object Segmentation Using GrabCut Based on Automatic Generation of Initial Boundary

  • Na, In-Seop;Oh, Kang-Han;Kim, Soo-Hyung
    • International Journal of Contents
    • /
    • 제9권1호
    • /
    • pp.6-10
    • /
    • 2013
  • Foreground estimation in object segmentation has been an important issue for last few decades. In this paper we propose a GrabCut based automatic foreground estimation method using block clustering. GrabCut is one of popular algorithms for image segmentation in 2D image. However GrabCut is semi-automatic algorithm. So it requires the user input a rough boundary for foreground and background. Typically, the user draws a rectangle around the object of interest manually. The goal of proposed method is to generate an initial rectangle automatically. In order to create initial rectangle, we use Gabor filter and Saliency map and then we use 4 features (amount of area, variance, amount of class with boundary area, amount of class with saliency map) to categorize foreground and background. From the experimental results, our proposed algorithm can achieve satisfactory accuracy in object segmentation without any prior information by the user.

커널 기반 객체 추적 및 Grab-Cut 알고리즘을 이용한 액티브 스트로모션 영상 생성 (Generation of Active Stromotion Images using Kernel-based Tracking and Grab-Cut Algorithm)

  • 오경석;최유주
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 추계학술대회
    • /
    • pp.131-133
    • /
    • 2016
  • 본 논문은 연속적인 비디오 시퀀스에서 움직이는 객체의 영역을 효율적으로 분할하기 위하여 커널 기반 객체 추적과 Grab-Cut 알고리즘을 결합한 비디오 영역 분할 방법을 제안한다. 제안 방법에서는 추적 목표 객체의 초기 위치를 사각영역으로 선택하면, 사각의 외부 영역을 배경색상으로 인지하고, 배경 색상을 고려한 목표 객체의 주요 색상을 분석한다. 이를 기반으로 커널기반 객체 추적 기법을 적용하여 빠르게 객체의 영역을 추출한다. 추적한 각 객체의 영역에서 중앙 객체 영역과 배경 영역의 색 정보를 초기값으로 하여 Grab-Cut 알고리즘을 수행하고 사각형 형태가 아닌 객체의 실루엣 최적화된 영역으로 분할한다. 제안 방법을 스포츠 방송, 광고, 영화 등의 특수 효과로 활용되고 있는 stromotion 영상 생성에 적용하기 위하여 프레임별 추출된 객체의 영상을 새로운 프레임 영상에 합성하는 작업을 수행하여, 초당 10 프레임의 처리 속도에서 원하는 스트로모션 효과 영상을 생성하였다.

  • PDF

GrabCut 을 이용한 배경 분리 알고리즘의 정확도 개선 (Improvement of Background Subtraction Algorithm using GrabCut)

  • 이상훈;김기백;조남익
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2015년도 하계학술대회
    • /
    • pp.129-132
    • /
    • 2015
  • 본 논문에서는 기존의 배경 분리 알고리즘 결과에 GrabCut 알고리즘을 도입하여 보다 정확한 배경 분리를 수행하고자 한다. 기존의 알고리즘은 동영상의 프레임 간 정보만을 이용하여 배경 확률 모델을 만들고 배경과 전경을 분리한다. 제안하는 알고리즘에서는 먼저 프레임 간의 정보를 이용하여 간단하게 배경과 전경을 분리하는 기존의 배경 분리 알고리즘을 적용한다. 분리된 결과의 정확도를 향상시키기 위해 프레임 내의 정보를 이용하는 GrabCut 알고리즘을 적용한다. 즉, 본 연구에서는 동영상의 프레임 간 정보와 프레임 내 정보를 모두 이용하여 배경과 전경을 분리하고자 한다. 실험결과에서 Change Detection Workshop dataset 에 포함된 몇 가지 영상에 대해 실험 한 후 결과 영상 비교 및 F-measure 를 통해 개선된 결과를 확인할 수 있다.

  • PDF