• Title/Summary/Keyword: 영상 특징추출

Search Result 2,333, Processing Time 0.028 seconds

Facial Caricaturing System using Facial Features information (얼굴 특징정보를 이용한 캐리커처 생성 시스템)

  • 이옥경;박연출;오해석
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.404-406
    • /
    • 2000
  • 캐리커처 생성 시스템은 입력된 인물 사진을 세그먼테이션을 통하여 특징(이목구비)을 추출하고, 추출된 특징정보를 이용하여 그와 유사한 특징정보를 가지는 캐리커처 이미지를 검색하여 매핑시키는 시스템이다. 캐리커처 생성 시스템에서는 얼굴의 대칭 구조를 이용하고 색상과 모양에 대한 정보를 이용하여 얼굴 각각의 특징(이목구비)을 캐리커처의 특징을 구분하는 특징정보로써 활용한다. 본 논문은 인물 사진을 세그멘테이션 처리하여 얻은 부분 영역 특징정보를 이용하여 그와 유사한 캐리커처를 자동으로 생성하는데 목적이 있다. 이 때 사용하는 대칭 구조는 씨앗 픽셀(seed pixel)을 추출한다. 특징정보는 색상의 경우 지역적인 색상정보는 이목구비를 더 뚜렷이 해주고, 전체적인 색상정보는 그 이미지의 피부색의 정보를 나타낸다. 모양의 경우 이목구비의 특징정보를 위해 불변모멘트가 주요하게 사용된다. 또한 데이터베이스는 얼굴의 세부사항(이목구비)에 대한 각각의 캐리커처로 구축되어 있고, 각 세부사항은 특징별 분류되어 있어야 한다. 이런 데이터베이스의 캐리커처와 추출된 얼굴 영상에서의 세부사항을 비교하여 유사도를 계산하고 이를 매핑하므로 개인의 특징을 가진 캐리커처를 자동으로 생성한다.

  • PDF

Extraction of Car License Plate Region Using Histogram Features of Edge Direction (에지 영상의 방향성분 히스토그램 특징을 이용한 자동차 번호판 영역 추출)

  • Kim, Woo-Tae;Lim, Kil-Taek
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.14 no.3
    • /
    • pp.1-14
    • /
    • 2009
  • In this paper, we propose a feature vector and its applying method which can be utilized for the extraction of the car license plate region. The proposed feature vector is extracted from direction code histogram of edge direction of gradient vector of image. The feature vector extracted is forwarded to the MLP classifier which identifies character and garbage and then the recognition of the numeral and the location of the license plate region are performed. The experimental results show that the proposed methods are properly applied to the identification of character and garbage, the rough location of license plate, and the recognition of numeral in license plate region.

Detection of Feature on the Silhouette for Articulated Body Motion (다관절체 운동의 분석을 위한 실루엣 상의 특징점 추출)

  • 이동훈;정순기
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.553-555
    • /
    • 2000
  • 인체와 같은 다관절체의 운동은 세그먼트 단위로 강체의 특성을 포함하고 있으나, 움직임에 따라 옷의 주름과 같은 잡음과 관절의 변화 등의 비강체의 성질을 가진다. 따라서 잡음과 움직임에 따라 다양한 특징점이 추출되며, 영상 간 특징점의 변화가 심하므로, 대상의 특징을 비교적 정확히 반영하는 대응관계를 가진 특징점을 추출하는 것은 어려운 문제이다. 본 논문에서는 인체와 같은 다관절체의 움직임으로부터 신뢰성 있는 대응관계를 가진 특징점을 추출하기 위한 기법을 제안한다. 또한 쌍 대응(pairwise correspondence)의 문제를 확장하여 특정 동작을 이루는 다수의 프레임에서의 일관성 있는 특징점 대응을 위한 간단한 전략을 제안한다. 이를 통해 정확하고 안정적인 대응관계를 가진 특징점을 추출할 수 있다.

  • PDF

Image Matching by First Eigenvector and Histogram Analysis (일차 고유벡터와 히스토그램 분석에 의한 영상 정합)

  • Im, Mun-Cheol;Hwang, Seon-Chul;Kim, Woo-Saeng
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.10
    • /
    • pp.1054-1061
    • /
    • 2000
  • 영상 정합은 물리적으로 유사한 영상 내의 영역들을 기하학적으로 일치시키는 처리이며 지형 정보, 영상검색, 원격탐사, 의료영상 등의 많은 영상처리 응용에서 사용된다. 영상 정합에 관한 연구는 주로 회전, 크기, 위치 등의 인자 추출에 소요되는 시간과 정확성에 중점을 두어 왔다. 본 연구에서는 영상의 특징 점들에 대한 일차 고유벡터의 방향 분포를 히스토그램으로 표현하고 이를 비교 분석함으로써 정합하는 방법을 제안한다. 일차 고유벡터를 이용함으로써 특징 묘사의 단순성을 제공하고. 히스토그램을 이용하여 정합 인자를 미리 추정함으로써 정합 인자 추출 시 목적함수의 연산에 소요되는 비용을 현저하게 줄였다. 본 연구의 결과를 평가하기 위해 제안한 방식을 일반 영상과 ICG(IndoCyanine Green)망막 영상에 적용한 결과를 보여주고 목적함수의 연산횟수와 시간 복잡도를 기존의 방법들과 비교하였다.

  • PDF

A Study on Content-based Image Retrieval Technique using Texture Information (영상의 텍스쳐 정보를 이용한 내용 기반 영상 검색에 관한 연구)

  • Park, Kyung-Shik;Park, Kang-Seo;Hong, Min-Suk;Chung, Tae-Yun;Park, Sang-Hui
    • Proceedings of the KIEE Conference
    • /
    • 1999.11c
    • /
    • pp.751-753
    • /
    • 1999
  • 본 논문에서는 영상의 텍스쳐 정보를 이용하여 일반 영상에 대한 내용기반 영상 검색을 수행할 수 있는 알고리듬을 제안한다. Gabor 웨이브렛 변환을 이용하여 Gabor 필터 뱅크 내의 각 필터에 의해 필터링된 대역의 평균과 표준편차를 영상의 특징 벡터(Gabor Texture Feature)로 추출하여 영상들간의 유사성을 계산하는데 사용한다. 논문의 목적이 영상에 가해진 외적 변형, 즉 잡음 첨가, 블러링, 샤프닝 등과 같은 변형에 강인하게 동작할 수 있는 텍스쳐 특징 기반 영상 검색 기법을 제안하는 것이므로, 기존의 Gabor 필터만을 사용하여 텍스쳐 특징을 추출하여 검색의 기준으로 삼을 경우에 발생할 수 있는 주파수 성분의 변화에 대한 민감성을 Daubechies의 웨이브렛 필터를 사용하여 낮은 해상도에서 영상을 해석함으로써, 외적 변형에 대하여도 강인하게 동작할 수 있는 알고리듬을 제시하였다. 기존의 텍스쳐를 이용한 검색이 주로 텍스쳐 영역(textured region)에 대한 해석만을 하였지만, 본 논문에서는 이를 일반 영상에 적용하였으며, 일반 영상에 대해서도 효율적인 검색을 수행할 수 있음을 보였다.

  • PDF

Emotion Recognition Using Color and Pattern in Textile Images (컬러와 패턴을 이용한 텍스타일 영상에서의 감정인식 시스템)

  • Shin, Yun-Hee;Kim, Young-Rae;Kim, Eun-Yi
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.45 no.6
    • /
    • pp.154-161
    • /
    • 2008
  • In this paper, a novel method is proposed using color and pattern information for recognizing some emotions included in a fertile. Here we use 10 Kobayashi emotion to represent emotions. - { romantic, clear, natural, casual, elegant chic, dynamic, classic, dandy, modem } The proposed system is composed of feature extraction and classification. To transform the subjective emotions as physical visual features, we extract representative colors and Patterns from textile. Here, the representative color prototypes are extracted by color quantization method, and patterns exacted by wavelet transform followed by statistical analysis. These exacted features are given as input to the neural network (NN)-based classifiers, which decides whether or not a textile had the corresponding emotion. When assessing the effectiveness of the proposed system with 389 textiles collected from various application domains such as interior, fashion, and artificial ones. The results showed that the proposed method has the precision of 100% and the recall of 99%, thereby it can be used in various textile industries.

SIFT Image Feature Extraction based on Deep Learning (딥 러닝 기반의 SIFT 이미지 특징 추출)

  • Lee, Jae-Eun;Moon, Won-Jun;Seo, Young-Ho;Kim, Dong-Wook
    • Journal of Broadcast Engineering
    • /
    • v.24 no.2
    • /
    • pp.234-242
    • /
    • 2019
  • In this paper, we propose a deep neural network which extracts SIFT feature points by determining whether the center pixel of a cropped image is a SIFT feature point. The data set of this network consists of a DIV2K dataset cut into $33{\times}33$ size and uses RGB image unlike SIFT which uses black and white image. The ground truth consists of the RobHess SIFT features extracted by setting the octave (scale) to 0, the sigma to 1.6, and the intervals to 3. Based on the VGG-16, we construct an increasingly deep network of 13 to 23 and 33 convolution layers, and experiment with changing the method of increasing the image scale. The result of using the sigmoid function as the activation function of the output layer is compared with the result using the softmax function. Experimental results show that the proposed network not only has more than 99% extraction accuracy but also has high extraction repeatability for distorted images.

Content-based Image Retrieval using Feature Extraction in Wavelet Transform Domain (웨이브릿 변환 영역에서 특징추출을 이용한 내용기반 영상 검색)

  • 최인호;이상훈
    • Journal of Korea Multimedia Society
    • /
    • v.5 no.4
    • /
    • pp.415-425
    • /
    • 2002
  • In this paper, we present a content-based image retrieval method which is based on the feature extraction in the wavelet transform domain. In order to overcome the drawbacks of the feature vector making up methods which use the global wavelet coefficients in subbands, we utilize the energy value of wavelet coefficients, and the shape-based retrieval of objects is processed by moment which is invariant in translation, scaling, rotation of the objects The proposed methods reduce feature vector size, and make progress performance of classification retrieval which provides fast retrievals times. To offer the abilities of region-based image retrieval, we discussed the image segmentation method which can reduce the effect of an irregular light sources. The image segmentation method uses a region-merging, and candidate regions which are merged were selected by the energy values of high frequency bands in discrete wavelet transform. The region-based image retrieval is executed by using the segmented region information, and the images are retrieved by a color, texture, shape feature vector.

  • PDF

Object Image Classification Using Hierarchical Neural Network (계층적 신경망을 이용한 객체 영상 분류)

  • Kim Jong-Ho;Kim Sang-Kyoon;Shin Bum-Joo
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.11 no.1
    • /
    • pp.77-85
    • /
    • 2006
  • In this paper, we propose a hierarchical classifier of object images using neural networks for content-based image classification. The images for classification are object images that can be divided into foreground and background. In the preprocessing step, we extract the object region and shape-based texture features extracted from wavelet transformed images. We group the image classes into clusters which have similar texture features using Principal Component Analysis(PCA) and K-means. The hierarchical classifier has five layes which combine the clusters. The hierarchical classifier consists of 59 neural network classifiers learned with the back propagation algorithm. Among the various texture features, the diagonal moment was the most effective. A test with 1000 training data and 1000 test data composed of 10 images from each of 100 classes shows classification rates of 81.5% and 75.1% correct, respectively.

  • PDF

Facial Feature Extraction in Reduced Image using Generalized Symmetry Transform (일반화 대칭 변환을 이용한 축소 영상에서의 얼굴특징추출)

  • Paeng, Young-Hye;Jung, Sung-Hwan
    • The Transactions of the Korea Information Processing Society
    • /
    • v.7 no.2
    • /
    • pp.569-576
    • /
    • 2000
  • The GST can extract the position of facial features without a prior information in an image. However, this method requires a plenty of the processing time because the mask size to process GST must be larger than the size of object such as eye, mouth and nose in an image. In addition, it has the complexity for the computation of middle line to decide facial features. In this paper, we proposed two methods to overcome these disadvantage of the conventional method. First, we used the reduced image having enough information instead of an original image to decrease the processing time. Second, we used the extracted peak positions instead of the complex statistical processing to get the middle lines. To analyze the performance of the proposed method, we tested 200 images including, the front, rotated, spectacled, and mustached facial images. In result, the proposed method shows 85% in the performance of feature extraction and can reduce the processing time over 53 times, compared with existing method.

  • PDF