• 제목/요약/키워드: color image segmentation

검색결과 411건 처리시간 0.024초

A Robust Face Detection Method Based on Skin Color and Edges

  • Ghimire, Deepak;Lee, Joonwhoan
    • Journal of Information Processing Systems
    • /
    • 제9권1호
    • /
    • pp.141-156
    • /
    • 2013
  • In this paper we propose a method to detect human faces in color images. Many existing systems use a window-based classifier that scans the entire image for the presence of the human face and such systems suffers from scale variation, pose variation, illumination changes, etc. Here, we propose a lighting insensitive face detection method based upon the edge and skin tone information of the input color image. First, image enhancement is performed, especially if the image is acquired from an unconstrained illumination condition. Next, skin segmentation in YCbCr and RGB space is conducted. The result of skin segmentation is refined using the skin tone percentage index method. The edges of the input image are combined with the skin tone image to separate all non-face regions from candidate faces. Candidate verification using primitive shape features of the face is applied to decide which of the candidate regions corresponds to a face. The advantage of the proposed method is that it can detect faces that are of different sizes, in different poses, and that are making different expressions under unconstrained illumination conditions.

신경망과 적응적 스킨 칼라 모델을 이용한 얼굴 영역 검출 기법 (Human Face Detection from Still Image using Neural Networks and Adaptive Skin Color Model)

  • 손정덕;고한석
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 하계종합학술대회 논문집
    • /
    • pp.579-582
    • /
    • 1999
  • In this paper, we propose a human face detection algorithm using adaptive skin color model and neural networks. To attain robustness in the changes of illumination and variability of human skin color, we perform a color segmentation of input image by thresholding adaptively in modified hue-saturation color space (TSV). In order to distinguish faces from other segmented objects, we calculate invariant moments for each face candidate and use the multilayer perceptron neural network of backpropagation algorithm. The simulation results show superior performance for a variety of poses and relatively complex backgrounds, when compared to other existing algorithm.

  • PDF

Hue 채널 영상의 다중 클래스 결합을 이용한 객체 기반 영상 분류 (Object-based Image Classification by Integrating Multiple Classes in Hue Channel Images)

  • 예철수
    • 대한원격탐사학회지
    • /
    • 제37권6_3호
    • /
    • pp.2011-2025
    • /
    • 2021
  • 고해상도 위성영상 분류에서 다양한 색상을 가지는 건물들과 같이 동일한 클래스에 속하지만 색상 정보가 상이한 화소들이 클래스를 구성하는 경우에는 클래스를 대표하는 색상 정보를 결정하기가 어렵다. 본 논문에서는 클래스의 대표적인 색상 정보를 결정하는 문제를 해결하기 위해 HSV(Hue Saturation Value)의 색상 채널을 분할하고 객체 기반의 분류를 수행하는 방법을 제안한다. 이를 위해 RGB 컬러 공간의 입력 영상을 HSV 컬러 공간의 성분으로 변환한 후에 색상(Hue) 성분을 일정 간격의 서브채널로 분할한다. 각 색상 서브채널에 대해 최소거리기반의 영상 분류를 수행하고 분류 결과를 영상 분할 결과와 결합한다. 제안한 방법을 아리랑3A 위성영상에 적용한 결과 overall accuracy는 84.97%, kappa coefficient는 77.56%로 나타났고 상용 소프트웨어 대비 분류 정확도가 10% 이상 개선된 결과를 보였다.

컬러 영상 위에서 DCT 기반의 빠른 문자 열 구간 분리 모델 (Fast Text Line Segmentation Model Based on DCT for Color Image)

  • 신현경
    • 정보처리학회논문지D
    • /
    • 제17D권6호
    • /
    • pp.463-470
    • /
    • 2010
  • 본 논문에서는 DCT 데이터에서 영상 데이터로의 해독 및 이진화 과정을 생략하고 컬러 영상의 DCT 관련 원자료를 사용하는 방법에 기반을 둔 매우 빠르고 안정적인 문자열 구간 분리 모형을 제안하였다. DCT 블록에 저장된 DC 및 3개의 주요 AC 변수들을 조합하여 축소된 저해상도 회색 영상을 만들고 횡렬 및 종렬 투영법을 통해 얻어진 픽셀 값의 히스토그램을 분석하여 문자 열 구간 사이에 존재하는 백색의 띠 공간을 찾아내었다. 이 과정 중 탐색되지 않은 문자 열 구간은 마코프 모델을 사용하여 숨겨진 주기를 찾아내어 복원하였다. 본 논문에 실험 결과를 제시하였으며 기존의 방법보다 약 40 - 100배 빠른 방법임을 입증하였다.

객체분할을 위한 에피폴라 Rectification (An Epipolar Rectification for Object Segmentation)

  • 정승도;강성숙;조정원;최병욱
    • 한국통신학회논문지
    • /
    • 제29권1C호
    • /
    • pp.83-91
    • /
    • 2004
  • 에피폴라 Rectification은 서로 다른 시점에서 얻은 두 영상에 대해 각 영상의 에피폴을 미리 정해진 점으로 옮기는 호모그래피를 적용함으로써 두 영상의 에피폴라 지오메트리를 동일한 기준 평면으로 변환하여 에피폴라 라인을 수평 방향으로 정렬시키는 과정이다. 이때 호모그래피에 의해 변환된 영상 사이에서도 에피폴라 제약조건이 성립해야 하며, 이를 만족시키는 호모그래피가 여러 개 존재하므로 제약조건을 추가하여 응용에 적합한 호모그래피를 구하게 된다. Rectification 결과 두 영상은 스테레오 영상화되어 쉽게 변위값을 구할 수 있으므로 영상 내객체의 3차원 정보를 추정하여 영상분할에 활용할 수 있다. 본 논문에서는 객체분할에 적용할 수 있는 Rectification 방법을 제안하고 이 결과를 객체분할에 적용하였다. 객체분할을 위해 색상정보와 상대적인 변위값의 연속성을 동시에 이용하면 단일 객체가 색상에 의해 분할되거나 혹은 색상이 비슷하여 다른 객체가 병합되는 문제를 보완할 수 있다. 실험을 통해 Rectification 결과영상으로부터 획득한 단일 객체의 변위값이 연속성을 갖음을 확인하였고 이를 통해 제안하는 Rectification 방법이 객체분할에 적합함을 보였다.

영상 객체의 특징 추출을 이용한 내용 기반 영상 검색 시스템 (Content-Based Image Retrieval System using Feature Extraction of Image Objects)

  • 정세환;서광규
    • 산업경영시스템학회지
    • /
    • 제27권3호
    • /
    • pp.59-65
    • /
    • 2004
  • This paper explores an image segmentation and representation method using Vector Quantization(VQ) on color and texture for content-based image retrieval system. The basic idea is a transformation from the raw pixel data to a small set of image regions which are coherent in color and texture space. These schemes are used for object-based image retrieval. Features for image retrieval are three color features from HSV color model and five texture features from Gray-level co-occurrence matrices. Once the feature extraction scheme is performed in the image, 8-dimensional feature vectors represent each pixel in the image. VQ algorithm is used to cluster each pixel data into groups. A representative feature table based on the dominant groups is obtained and used to retrieve similar images according to object within the image. The proposed method can retrieve similar images even in the case that the objects are translated, scaled, and rotated.

데이터 증강을 이용한 혀 영역 분할 성능 개선 (Enhancement of Tongue Segmentation by Using Data Augmentation)

  • 진홍;정성태
    • 한국정보전자통신기술학회논문지
    • /
    • 제13권5호
    • /
    • pp.313-322
    • /
    • 2020
  • 많은 양의 데이터는 딥 러닝 모델의 견고성을 향상시키고 과적합 문제를 방지할 수 있게 해준다. 자동 혀 분할에서, 혀 영상 데이터 세트를 실제로 수집하고 라벨링하는 데에는 많은 어려움이 수반되므로 많은 양의 혀 영상 데이터를 사용하기 쉽지 않다. 데이터 증강은 새로운 데이터를 수집하지 않고 레이블 보존 변환을 사용하여 학습 데이터 세트를 확장하고 학습 데이터의 다양성을 증가시킬 수 있다. 이 논문에서는 이미지 자르기, 회전, 뒤집기, 색상 변환과 같은 7 가지 데이터 증강 방법을 사용하여 확장된 혀 영상 학습 데이터 세트를 생성하였다. 데이터 증강 방법의 성능을 확인하기 위하여 InceptionV3, EfficientNet, ResNet, DenseNet 등과 같은 전이 학습 모델을 사용하였다. 실험 결과 데이터 증강 방법을 적용함으로써 혀 분할의 정확도를 5~20% 향상시켰으며 기하학적 변환이 색상 변환보다 더 많은 성능 향상을 가져올 수 있음을 보여주었다. 또한 기하학적 변환 및 색상 변환을 임의로 선형 조합한 방법이 다른 데이터 증강 방법보다 우수한 분할 성능을 제공하여 InveptionV3 모델을 사용한 경우에 94.98 %의 정확도를 보였다.

깊이정보 기반 Watershed 알고리즘을 이용한 얼굴영역 분할 (Facial Region Segmentation using Watershed Algorithm based on Depth Information)

  • 김장원
    • 한국정보전자통신기술학회논문지
    • /
    • 제4권4호
    • /
    • pp.225-230
    • /
    • 2011
  • 본 논문에서는 깊이정보에 기반한 watershed와 영역병합 알고리즘을 이용한 얼굴영역 분할 방법을 제안하였다. 얼굴영역 검출은 영역 분할 단계, 초기 화소 영역 검출 단계, 영역 병합의 세 단계로 구성된다. 입력된 컬러 영상은 제안된 알고리즘에 의해 균일한 작은 영역들로 분할된다. 색도정보와 에지 구속 조건을 사용하여 균일한 영역들을 결합함으로써 얼굴영역을 검출한다. 제안한 알고리즘은 색도정보나 에지정보만을 사용하는 기존 방법에서의 문제점을 해결하였다. 제안한 알고리즘의 성능을 평가하기 위해 컴퓨터 시뮬레이션을 하였으며 정확한 얼굴 영역을 분할할 수 있었다.

화재 현장 영상에서 연기 영역을 제외한 이미지 기반 불의 영역 검출 기법 (Image-based fire area segmentation method by removing the smoke area from the fire scene videos)

  • 김승남;최명진;김선정;김창헌
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제28권4호
    • /
    • pp.23-30
    • /
    • 2022
  • 본 논문에서는 불이 비슷한 색의 연기로 둘러싸여 있더라도 정확하게 검출할 수 있는 알고리즘을 제안한다. 기존 불 영역 검출 알고리즘들은 화재 이미지에서 불과 연기를 잘 분리해내지 못하는 문제점이 있었다. 본 논문에서는 불 영역 검출 알고리즘을 적용하기 전에 전처리 과정으로써 색상 보정 기법과 안개 제거 기법을 적용함으로써 성공적으로 불을 연기로부터 분리해냈다. 실제로 연기로 뒤덮인 화재 현장의 이미지들에서 기존 기법들보다 불을 더 효과적으로 검출하는 것을 확인할 수 있었다. 또한 제안한 화재 검출 알고리즘을 공장, 가정 등에서 효율적인 화재 탐지를 위해 사용할 수 있는 방법을 제안한다.

CRF-Based Figure/Ground Segmentation with Pixel-Level Sparse Coding and Neighborhood Interactions

  • Zhang, Lihe;Piao, Yongri
    • Journal of information and communication convergence engineering
    • /
    • 제13권3호
    • /
    • pp.205-214
    • /
    • 2015
  • In this paper, we propose a new approach to learning a discriminative model for figure/ground segmentation by incorporating the bag-of-features and conditional random field (CRF) techniques. We advocate the use of image patches instead of superpixels as the basic processing unit. The latter has a homogeneous appearance and adheres to object boundaries, while an image patch often contains more discriminative information (e.g., local image structure) to distinguish its categories. We use pixel-level sparse coding to represent an image patch. With the proposed feature representation, the unary classifier achieves a considerable binary segmentation performance. Further, we integrate unary and pairwise potentials into the CRF model to refine the segmentation results. The pairwise potentials include color and texture potentials with neighborhood interactions, and an edge potential. High segmentation accuracy is demonstrated on three benchmark datasets: the Weizmann horse dataset, the VOC2006 cow dataset, and the MSRC multiclass dataset. Extensive experiments show that the proposed approach performs favorably against the state-of-the-art approaches.