• 제목/요약/키워드: Image Feature

검색결과 3,584건 처리시간 0.03초

분할된 영상에서의 칼라 코렐로그램을 이용한 영상검색 (Image Retrieval Using Color Correlogram from a Segmented Image)

  • 안명석;조석제
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2000년도 추계종합학술대회논문집
    • /
    • pp.153-156
    • /
    • 2000
  • Recently, there has been studied on feature extraction method for efficient content-based image retrieval. Especially, Many researchers have been studying on extracting feature from color Information, because of its advantages. This paper proposes a feature and its extraction method based on color correlogram that is extracted from color information in an image. the proposed method is computed from the image segmented into two parts; the complex part and the plain part. Our experiments show that the performance of the proposed method is better as compared with that of the original color correlogram method.

  • PDF

인공위성 영상의 객체인식을 위한 영상 특징 분석 (Feature-based Image Analysis for Object Recognition on Satellite Photograph)

  • 이석준;정순기
    • 한국HCI학회논문지
    • /
    • 제2권2호
    • /
    • pp.35-43
    • /
    • 2007
  • 본 논문은 특징검출(feature detection)과 특징해석(feature description) 기법을 이용하여, 영상 매칭 (matching)과 인식(recognition)에 필요한 다양한 파라미터의 변화에 따른 인식률의 차이를 분석하기 위한 실험 내용을 다룬다. 본 논문에서는 영상의 특징분석과 매칭프로세스를 위해, Lowe의 SIFT(Scale-Invariant Transform Feature)를 이용하며, 영상에서 나타나는 특징을 검출하고 해석하여 특징 데이터베이스로 구축한다. 특징 데이터베이스는 구글 어스를 통해 획득한 위성영상으로부터 50여개 건물에 대해 구축되는데, 이는 각 건물 영상으로부터 추출된 특징 점들의 좌표와 128차원의 벡터의 값으로 이루어진 특징 해석데이터로 저장된다. 구축된 데이터베이스는 각 건물에 대한 정보가 태그의 형식으로 함께 저장되는데, 이는 카메라로부터 획득한 입력영상과의 비교를 통해 입력영상이 가리키는 지역 내에 존재하는 건물에 대한 정보를 제공하는 역할을 한다. 실험은 영상 매칭과 인식과정에서 작용하는 내-외부적 요소들을 제시하고, 각 요소의 상태변화에 따라 인식률의 차이를 비교하는 방법으로 진행되었으며, 본 연구의 최종적인 시스템은 모바일기기의 카메라를 이용하여 카메라가 촬영하고 있는 지도상의 객체를 인식하고, 해당 객체에 대한 기본적인 정보를 제공할 수 있다.

  • PDF

다중 센서 융합 알고리즘을 이용한 감정인식 및 표현기법 (Emotion Recognition and Expression Method using Bi-Modal Sensor Fusion Algorithm)

  • 주종태;장인훈;양현창;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제13권8호
    • /
    • pp.754-759
    • /
    • 2007
  • In this paper, we proposed the Bi-Modal Sensor Fusion Algorithm which is the emotional recognition method that be able to classify 4 emotions (Happy, Sad, Angry, Surprise) by using facial image and speech signal together. We extract the feature vectors from speech signal using acoustic feature without language feature and classify emotional pattern using Neural-Network. We also make the feature selection of mouth, eyes and eyebrows from facial image. and extracted feature vectors that apply to Principal Component Analysis(PCA) remakes low dimension feature vector. So we proposed method to fused into result value of emotion recognition by using facial image and speech.

형태분석에 의한 특징 추출과 BP알고리즘을 이용한 정면 얼굴 인식 (Full face recognition using the feature extracted gy shape analyzing and the back-propagation algorithm)

  • 최동선;이주신
    • 전자공학회논문지B
    • /
    • 제33B권10호
    • /
    • pp.63-71
    • /
    • 1996
  • This paper proposes a method which analyzes facial shape and extracts positions of eyes regardless of the tilt and the size of input iamge. With the extracted feature parameters of facial element by the method, full human faces are recognized by a neural network which BP algorithm is applied on. Input image is changed into binary codes, and then labelled. Area, circumference, and circular degree of the labelled binary image are obtained by using chain code and defined as feature parameters of face image. We first extract two eyes from the similarity and distance of feature parameter of each facial element, and then input face image is corrected by standardizing on two extracted eyes. After a mask is genrated line historgram is applied to finding the feature points of facial elements. Distances and angles between the feature points are used as parameters to recognize full face. To show the validity learning algorithm. We confirmed that the proposed algorithm shows 100% recognition rate on both learned and non-learned data for 20 persons.

  • PDF

Animal Fur Recognition Algorithm Based on Feature Fusion Network

  • Liu, Peng;Lei, Tao;Xiang, Qian;Wang, Zexuan;Wang, Jiwei
    • Journal of Multimedia Information System
    • /
    • 제9권1호
    • /
    • pp.1-10
    • /
    • 2022
  • China is a big country in animal fur industry. The total production and consumption of fur are increasing year by year. However, the recognition of fur in the fur production process still mainly relies on the visual identification of skilled workers, and the stability and consistency of products cannot be guaranteed. In response to this problem, this paper proposes a feature fusion-based animal fur recognition network on the basis of typical convolutional neural network structure, relying on rapidly developing deep learning techniques. This network superimposes texture feature - the most prominent feature of fur image - into the channel dimension of input image. The output feature map of the first layer convolution is inverted to obtain the inverted feature map and concat it into the original output feature map, then Leaky ReLU is used for activation, which makes full use of the texture information of fur image and the inverted feature information. Experimental results show that the algorithm improves the recognition accuracy by 9.08% on Fur_Recognition dataset and 6.41% on CIFAR-10 dataset. The algorithm in this paper can change the current situation that fur recognition relies on manual visual method to classify, and can lay foundation for improving the efficiency of fur production technology.

차량 검색을 위한 측면 에지 특징 추출 내용기반 검색 : CBIRS/EFI (Edge Feature Extract CBIRS for Car Retrieval : CBIRS/EFI)

  • 구건서
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권11호
    • /
    • pp.75-82
    • /
    • 2010
  • 본 논문은 불확실한 객체의 영상 정보를 객체의 에지 특징정보를 이용하여 내용기반검색기법으로 CBIRS/EFI을 제안했다. 특히 객체의 부분 영상 정보의 경우 효율적으로 검색하기 위해 객체의 특징 정보 중 윤곽선 정보와 색체정보 추출하여 검색기법이다. 이를 실험하기 위해 지하 주차장의 차량 이미지를 캡처한후 객체의 특징 정보를 위한 차량의 측면 에지 특징 정보를 추출하였다. 검색하고자하는 원 영상과 특징 추출한 영상을 분석 결과와 최종 유사도 측정 결과에 의해 내용기반 검색을 적용하는 시스템으로, 기존 특징 추출 내용 기반 영상 검색 시스템인 FE-CBIRS 시스템에 비해 검색율의 정확성과 효율성을 향상 시키는 기능이 보완되었다. CBIRS/EF시스템의 성능평가는 차량의 색상 정보와 차량의 에지 추출 특징 정보를 적용하여 영역 특징정보를 검색하는 과정에서 색상 특징 검색 시간, 모양 특징 검색 시간과 검색 율을 비교 했다. 차량 에지 특징 추출률의 경우 91.84% 추출하였고, 차량 색상 검색 시간, 모양 특징 검색시간, 유사도 검색시간에서 CBIRS/EFI가 FE-CBIRS 보다 평균 검색시간이 평균 0.4~0.9초의 차이를 보고 있어 우수한 것으로 증명되었다.

의료영상 이미지를 이용한 유전병변 정합 알고리즘 (Genetic lesion matching algorithm using medical image)

  • 조영복;우성희;이상호;한창수
    • 한국정보통신학회논문지
    • /
    • 제21권5호
    • /
    • pp.960-966
    • /
    • 2017
  • 제안 논문에서는 의료영상 이미지를 입력받아 병변 추출이 가능한 알고리즘을 제안한다. 의료영상 이미지의 병변을 추출하기 위해 SIFT 알고리즘을 이용해 특징점들을 추출한다. 특징점의 강도를 높이기 위해 벡터 유사도를 이용해 입력 영상과 병변이미지를 정합하고 병변을 추출한다. 벡터 유사도 정합을 통해 빠르게 병변을 도출할 수 있다. 국소적인 특징점 쌍으로부터 방향 벡터를 생성하기 때문에 방향 자체는 국소적인 특징만을 나타내지만 두 영상 간에 존재하는 다른 벡터들 간의 유사도를 비교하고 전역적인 특징으로 확장될 수 있는 장점을 갖는다. 또한 병변 정합 오류율은 평균 1.02%, 처리속도는 특징점 강도 정보를 사용하지 않을 때보다 약 40%가 향상됨을 실험을 통해 보였다.

AUTOMATIC SELECTION AND ADJUSTMENT OF FEATURES FOR IMAGE CLASSIFICATION

  • Saiki, Kenji;Nagao, Tomoharu
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.525-528
    • /
    • 2009
  • Recently, image classification has been an important task in various fields. Generally, the performance of image classification is not good without the adjustment of image features. Therefore, it is desired that the way of automatic feature extraction. In this paper, we propose an image classification method which adjusts image features automatically. We assume that texture features are useful in image classification tasks because natural images are composed of several types of texture. Thus, the classification accuracy rate is improved by using distribution of texture features. We obtain texture features by calculating image features from a current considering pixel and its neighborhood pixels. And we calculate image features from distribution of textures feature. Those image features are adjusted to image classification tasks using Genetic Algorithm. We apply proposed method to classifying images into "head" or "non-head" and "male" or "female".

  • PDF

HAQ 알고리즘과 Moment 기반 특징을 이용한 내용 기반 영상 검색 알고리즘 (Content-Based Image Retrieval Algorithm Using HAQ Algorithm and Moment-Based Feature)

  • 김대일;강대성
    • 대한전자공학회논문지SP
    • /
    • 제41권4호
    • /
    • pp.113-120
    • /
    • 2004
  • 본 논문은 내용 기반 검색 기법에 의한 보다 효율적인 특징 추출 및 영상 검색 알고리즘을 제안하였다. 먼저, MPEG 비디오의 key frame을 입력 영상으로 하여 Gaussian edge detector를 이용하여 객체를 추출하고, 그에 따른 객체 특징들, location feature distributed dimension feature와 invariant moments feature를 추출하였다. 다음, 제안하는 HAQ (Histogram Analysis and Quantization) 알고리즘으로 characteristic color feature를 추출하였다. 마지막으로 key frame이 아닌 shot frame을 질의영상으로 하여 제안된 matching 기법에 따라 4가지 특징들의 단계별 검색을 수행하였다. 본 논문의 목적은 사용자가 요구하는 장면이 속한 비디오의 shot 경계 내의 key frame을 검색하는 새로운 내용 기반 검색 알고리즘을 제안함에 있다. 제안된 알고리즘을 바탕으로 10개의 뮤직비디오, 836개의 시험 영상으로 실험한 결과, 효과적인 검색 효율을 보였다.

중앙 영역의 컬러 특징과 최적화된 빈 수를 이용한 내용기 반 영상검색 (Contend Base Image Retrieval using Color Feature of Central Region and Optimized Comparing Bin)

  • 류은주;송영준;박원배;안재형
    • 정보처리학회논문지B
    • /
    • 제11B권5호
    • /
    • pp.581-586
    • /
    • 2004
  • 본 논문은 중앙 영역에서의 컬러 특징 추출 기법과 추출된 컬러 특징들의 비교 빈(bin)를 최적화한 새로운 내용기반 영상 검색 방법을 제안한다. 인간의 시각적 특징이 중심 객체의 유무에 영향을 받고, 대부분의 영상의 중심 객체는 중앙에 존재한다는 가정 하에 영상의 중앙 영역에서 컬러 특징을 추출한다. 따라서, 배경이 단순한 경우 영상의 전체영역을 특징으로 하여 검색했을 때 배경의 영향에 좌우되는 단점을 극복할 수 있다. 또한 영상의 컬러 특징값은 HSV 컬러 공간으로 변환한 후 16레벨로 양자화를 하여 추출한다. 실험값을 통해 기존의 16개 빈을 모두 비교하여 검색한 경우에 비해 상위 8개 빈만을 가지고 검색한 경우 주관적인 평가와 객관적인 평가 모두 다 좋은 결과를 보인다. 영상 전체를 특징으로 추출한 경우보다 중앙 영역만으로 특징을 추출한 경우 평균 precision이 약 5%정도 좋았다.