• Title/Summary/Keyword: 다중 특징 결합

Search Result 124, Processing Time 0.028 seconds

영상검색을 위한 다중 영상특징 추출과 결합 방법에 관한 연구

  • 송석진
    • Broadcasting and Media Magazine
    • /
    • v.8 no.2
    • /
    • pp.149-159
    • /
    • 2003
  • 현재 사회 전반에 걸쳐 급격히 증가하고 있는 멀티미디어 정보를 효율적으로 관리, 활용할 수 있는 방법이 다양하게 연구되고 있다. 본 연구에서는 내용기반 영상검색을 위한 다중 영상특징 추출방법과 특징결합 방법을 제시한다. 우선 전처리 및 캐니 에지 검출법으로 질의영상내 물체영역의 에지를 검출한다. 그 다음에 제안한 볼록 다각형 알고리즘을 통해 분할된 물체영상을 획득한다. 분할된 물체영상은 HSV 공간으로 변환되고 히스토그램 인터섹션 방법으로 유사도가 측정된다. 또한 분할된 물체영상은 웨블릿 변환 영상으로도 변환된다. 이러한 변환후 웨블릿 부밴드의 LL 영역에 제안하는 거리 밴드 평균 오토코릴로그램 알고리즘을 적용하여 오토코릴로그램 유사도를 측정한다. 그리고 GLCM을 이용한 엔트로피와 콘트라스트 유사도는 LH, HL 영역에서 측정된다. 전 과정을 통해 얻은 4개의 다중 영상특징은 수정된 보다 카운트 방법으로 결합되고 최종 유사도가 결정된다. 실험결과 제안한 다중 영상특징을 사용한 검색 방법이 단일 영상특징을 사용하는 검색 방법보다 소환성과 정확성의 성능에 있어 우수함을 보였다. 그리고 NMRR 측정에서도 개선된 성능을 보였다.

An SVM-based Face Verification System Using Multiple Feature Combination and Similarity Space (다중 특징 결합과 유사도 공간을 이용한 SVM 기반 얼굴 검증 시스템)

  • 김도형;윤호섭;이재연
    • Journal of KIISE:Software and Applications
    • /
    • v.31 no.6
    • /
    • pp.808-816
    • /
    • 2004
  • This paper proposes the method of implementation of practical online face verification system based on multiple feature combination and a similarity space. The main issue in face verification is to deal with the variability in appearance. It seems difficult to solve this issue by using a single feature. Therefore, combination of mutually complementary features is necessary to cope with various changes in appearance. From this point of view, we describe the feature extraction approaches based on multiple principal component analysis and edge distribution. These features are projected on a new intra-person/extra-person similarity space that consists of several simple similarity measures, and are finally evaluated by a support vector machine. From the experiments on a realistic and large database, an equal error rate of 0.029 is achieved, which is a sufficiently practical level for many real- world applications.

Facial Local Region Based Deep Convolutional Neural Networks for Automated Face Recognition (자동 얼굴인식을 위한 얼굴 지역 영역 기반 다중 심층 합성곱 신경망 시스템)

  • Kim, Kyeong-Tae;Choi, Jae-Young
    • Journal of the Korea Convergence Society
    • /
    • v.9 no.4
    • /
    • pp.47-55
    • /
    • 2018
  • In this paper, we propose a novel face recognition(FR) method that takes advantage of combining weighted deep local features extracted from multiple Deep Convolutional Neural Networks(DCNNs) learned with a set of facial local regions. In the proposed method, the so-called weighed deep local features are generated from multiple DCNNs each trained with a particular face local region and the corresponding weight represents the importance of local region in terms of improving FR performance. Our weighted deep local features are applied to Joint Bayesian metric learning in conjunction with Nearest Neighbor(NN) Classifier for the purpose of FR. Systematic and comparative experiments show that our proposed method is robust to variations in pose, illumination, and expression. Also, experimental results demonstrate that our method is feasible for improving face recognition performance.

Design of Translator for generating Java Bytecode in Distributed environment from Thread code of Multithreaded Models (다중스레드 모델의 스레드 코드를 분산환경에서 실행 가능한 자바 바이트 코드로 변환하기 위한 번역기 설계)

  • 김기태;조선문;고훈준;이갑래;유원희
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04a
    • /
    • pp.49-51
    • /
    • 2001
  • 다중스레드 모델은 데이터플로우 모델의 내부적인 병렬성, 비동기적 자료 가용성과 폰 노이만 모델의 실행 지역성을 결합하여 병렬처리 시스템의 성능을 향상시켰다. 이 모델은 프로그램의 실행을 위하여 컴파일러에 의해 생성된 스레드를 수행하며, 스레드의 생성 방법에 따라 자원 활용 빈도나 동기화 빈도와 같은 스레드의 질이 결정되는 특징이 있다. 하지만 다중스레드 모델은 실행 모델이 특정 플랫폼에 제한되는 단점을 가지고 있다. 이에 반해 자바는 플랫폼에 독립거인 특징을 가지고 있어 다중스레드 모델의 스레드 코드를 실행 단위인 자바 언어로 변환하여 다중스레드 모델의 특징을 여러 플랫폼에서 수정 없이 사용할 수 있게 된다. 자바는 분산된 환경에 적합한 언어이기 때문에 본 논문에서 제안한 번역기에 의해 다중스레드 모델의 스레드 코드를 자바 언어로 변환한 후 자바의 원격 매소드 호출을 이용하여 다중스레드 모델의 스레드 코드를 분산된 환경에서 처리하였다. 본 논문은 다중스레드 코드가 로컬 컴퓨터에서 여러 스레드를 생성하여 처리하던 것을 자바의 원격 메소드 호출을 이용하여 분산된 환경에서 실행 가능하도록 한다. 다중스레드 모델의 스레드 코드를 분산 환경에서 실행 가능한 자바 바이트 코드로 변환하는 번역기를 설계, 구현한다.

Design of Translator for generating Java Bytecode from Thread code of Multithreaded Models (다중스레드 모델의 스레드 코드를 자바 바이트 코드로 변환하기 위한 번역기 설계)

  • 김기태;이갑래;양창모;유원희
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04a
    • /
    • pp.68-70
    • /
    • 2000
  • 다중스레드 모델은 데이터플로우 모델의 내부적인 병렬성, 비동기적 자료 가용성과 폰 노이만 모델의 실행 지역성을 결합하여 병렬처리 시스템의 성능을 향상 시켰다. 이 모델은 프로그램의 실행을 위하여 컴파일러에 의해 생성된 스레드를 수행하며, 스레드의 생성 방법에 따라 자원 활용 빈도나 동기화 빈도와 같은 스레드의 질이 결정 되는 특징이 있다. 하지만 다중스레드 모델은 실행 모델이 특정 플랫폼에 제한되는 단점을 가지고 있다. 이에 반해 자바는 플랫폼에 독립적인 특징을 가지고 있어 다중스레드 모델의 스레드 코드를 실행 단위인 자바 언어로 변환하면 다중스레드 모델의 특징을 여러 플랫폼에서 수정 없이 사용할 수 있게 된다. 자바는 원시 언어를 중간 언어 형태의 바이트 코드로 변환하여 각 아키텍처에 맞게 설계된 자바 가상 머신이 설치된 시스템에서 자바 언어를 수행한다. 이러한 자바 언어의 바이트 코드는 번역기의 중간 언어와 같은 역할을 수행하고, 자바 가상 머신은 번역기의 후위부와 같은 역할을 한다. 본 논문은 다중스레드 코드가 플랫폼에 독립적인 특성을 갖출 수 있도록 다중스레드 코드를 자바 가상 머신에서 실행 가능하도록 한다. 즉, 다중스레드 모델의 스레드 코드를 자바 바이트 코드로 변환하는 번역기를 설계, 구현하고, 자바 가상 머신의 실행을 분석한다.

  • PDF

Sparse and low-rank feature selection for multi-label learning

  • Lim, Hyunki
    • Journal of the Korea Society of Computer and Information
    • /
    • v.26 no.7
    • /
    • pp.1-7
    • /
    • 2021
  • In this paper, we propose a feature selection technique for multi-label classification. Many existing feature selection techniques have selected features by calculating the relation between features and labels such as a mutual information scale. However, since the mutual information measure requires a joint probability, it is difficult to calculate the joint probability from an actual premise feature set. Therefore, it has the disadvantage that only a few features can be calculated and only local optimization is possible. Away from this regional optimization problem, we propose a feature selection technique that constructs a low-rank space in the entire given feature space and selects features with sparsity. To this end, we designed a regression-based objective function using Nuclear norm, and proposed an algorithm of gradient descent method to solve the optimization problem of this objective function. Based on the results of multi-label classification experiments on four data and three multi-label classification performance, the proposed methodology showed better performance than the existing feature selection technique. In addition, it was showed by experimental results that the performance change is insensitive even to the parameter value change of the proposed objective function.

Scene Change Detection System Using Multiple Features (다중 특징을 사용한 장면 전환 검출 시스템)

  • 윤성수;정성환
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2001.11a
    • /
    • pp.408-412
    • /
    • 2001
  • 대용량 동영상 데이터의 효율적인 관리와 검색을 위해서는 장면 단위의 정확한 분할이 선행되어야 한다. 본 논문에서는 동영상의 시각적인 내용에 기반한 장면 전환 검출 방법을 연구하였다. 본 논문에서는 프레임 단위의 특징과 프레임 내의 부분영역 단위의 특징을 결합한 다중 특징을 사용한 장면 전환 검출 방법을 제안한다. 실험을 통한 성능 평가에서는 기존의 방법들에 비해 Recall과 Precision에서 각각 7.7%, 10%의 향상을 보였다.

  • PDF

Classification of Multi-temporal SAR Data by Using Data Transform Based Features and Multiple Classifiers (자료변환 기반 특징과 다중 분류자를 이용한 다중시기 SAR자료의 분류)

  • Yoo, Hee Young;Park, No-Wook;Hong, Sukyoung;Lee, Kyungdo;Kim, Yeseul
    • Korean Journal of Remote Sensing
    • /
    • v.31 no.3
    • /
    • pp.205-214
    • /
    • 2015
  • In this study, a novel land-cover classification framework for multi-temporal SAR data is presented that can combine multiple features extracted through data transforms and multiple classifiers. At first, data transforms using principle component analysis (PCA) and 3D wavelet transform are applied to multi-temporal SAR dataset for extracting new features which were different from original dataset. Then, three different classifiers including maximum likelihood classifier (MLC), neural network (NN) and support vector machine (SVM) are applied to three different dataset including data transform based features and original backscattering coefficients, and as a result, the diverse preliminary classification results are generated. These results are combined via a majority voting rule to generate a final classification result. From an experiment with a multi-temporal ENVISAT ASAR dataset, every preliminary classification result showed very different classification accuracy according to the used feature and classifier. The final classification result combining nine preliminary classification results showed the best classification accuracy because each preliminary classification result provided complementary information on land-covers. The improvement of classification accuracy in this study was mainly attributed to the diversity from combining not only different features based on data transforms, but also different classifiers. Therefore, the land-cover classification framework presented in this study would be effectively applied to the classification of multi-temporal SAR data and also be extended to multi-sensor remote sensing data fusion.

Modelling of Efficient Color Image Descriptor for Multi-resolution Database (다중-해상도 데이터베이스를 위한 효율적인 칼라 영상 기술자의 모델링)

  • Lee, Yong-Hwan;Ahn, Hyochang;Cho, Hanjin;Lee, June-Hwan
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2013.01a
    • /
    • pp.35-38
    • /
    • 2013
  • 최근, 대용량 영상 데이터베이스가 축적되면서 영상 인식과 영상 검색 분야가 주목받고 있으며, 다양한 디바이스에 따라 생성되는 영상의 해상도가 상이하게 나타나고 있다. 본 논문에서는 내용-기반 영상 검색을 위한 새로운 칼라 기술자를 제안한다. 제안 알고리즘에서는 공간 칼라 정보에 대한 웨이블릿 변환과 채널 및 변환 서브밴드에 따른 가중치를 적용하여 칼라 특징 벡터를 추출한다. 시뮬레이션을 통하여 제안하는 알고리즘의 검색 성능을 평가하였으며, 유사한 특징 벡터 크기를 기준으로, 기존의 MPEG-7 등의 칼라 검색 기술자보다 다중-해상도의 영상 데이터베이스에서 향상된 검색율을 보임을 확인하였다. 본 논문에서 제시한 알고리즘은 단일 특성의 특징 벡터를 추출하는 검색 기술자로써, 다중 특징으로 결합하기 위한 기본 기술자로 활용될 수 있다.

  • PDF

PCMM-Based Feature Compensation Method Using Multiple Model to Cope with Time-Varying Noise (시변 잡음에 대처하기 위한 다중 모델을 이용한 PCMM 기반 특징 보상 기법)

  • 김우일;고한석
    • The Journal of the Acoustical Society of Korea
    • /
    • v.23 no.6
    • /
    • pp.473-480
    • /
    • 2004
  • In this paper we propose an effective feature compensation scheme based on the speech model in order to achieve robust speech recognition. The proposed feature compensation method is based on parallel combined mixture model (PCMM). The previous PCMM works require a highly sophisticated procedure for estimation of the combined mixture model in order to reflect the time-varying noisy conditions at every utterance. The proposed schemes can cope with the time-varying background noise by employing the interpolation method of the multiple mixture models. We apply the‘data-driven’method to PCMM tot move reliable model combination and introduce a frame-synched version for estimation of environments posteriori. In order to reduce the computational complexity due to multiple models, we propose a technique for mixture sharing. The statistically similar Gaussian components are selected and the smoothed versions are generated for sharing. The performance is examined over Aurora 2.0 and speech corpus recorded while car-driving. The experimental results indicate that the proposed schemes are effective in realizing robust speech recognition and reducing the computational complexities under both simulated environments and real-life conditions.