• 제목/요약/키워드: Recognition and Performance

검색결과 3,813건 처리시간 0.027초

RVM을 이용한 음성인식기의 구현 (Implementation of Speech Recognizer using Relevance Vector Machine)

  • 김창근;고시영;허강인;이광석
    • 한국정보통신학회논문지
    • /
    • 제11권8호
    • /
    • pp.1596-1603
    • /
    • 2007
  • 본 논문에서는 음성인식 시스템을 구현함에 있어 중요한 특징 파라미터와 학습, 인식 알고리즘의 선택을 위한 제안을 하기 위하여 각각 세 가지의 방법을 조합하여 인식 실험을 수행하고 검토하였다. 두 종류의 실험을 통하여 하드웨어 장치로 구현할 경우 보다 효과적인 음성 인식 시스템을 제안한다. 첫 번째로는 특징 파라미터의 성능을 평가하기 위하여 기존의 MFCC와 MFCC를 PCA와 ICA를 이용하여 특징 공간을 변화시킨 새로운 특징 파라미터를 제안하여 총 3종류의 특징파라미터에 대한 인식 실험을 수행하였으며, 두 번째로는 학습데이터 수에 따른 HMM, SVM, RVM의 인식 성능을 실험하였다. 이상의 실험에 의하여 ICA에 의한 특징 파라미터가 특징 공간상에서의 높은 선형 분별성에 의해 MFCC와 비교하여 평균 1.5%의 성능향상을 확인할 수 있었으며 학습데이터의 감소에 따른 인식실험에서는 HMM과 비교하여 RVM에서 최고 3.25%의 성능향상을 확인하였다. 이에 근거하여 TI사의 DSP(TMS320C32)를 사용하여 음성 인식기를 구현하여 실시간으로 실험하여 시뮬레이션과 비교하였다. 이와 같은 결과로서 본 논문에서 제안하는 음성인식시스템을 위한 효과적인 방법은 ICA를 이용한 특징 파라미터를 추출하고 RVM을 이용하여 인식을 수행하는 것이라 판단한다.

간호대학생의 기본간호술 중요성 인식, 자기주도적 학습능력이 기본간호술 수행자신감에 미치는 영향 (The Influence of Recognition of Importance and Self-Directed Learning Ability on Confidence in Performance of Basic Nursing Skills among Nursing Students)

  • 정혜윤;강숙
    • 디지털융복합연구
    • /
    • 제16권6호
    • /
    • pp.241-250
    • /
    • 2018
  • 본 연구는 간호대학생의 기본간호술 중요성 인식, 자기주도적 학습능력, 기본간호술 수행자신감 간의 관계 및 기본 간호술 수행자신감의 영향요인을 파악하기 위해 시도되었다. 자료수집은 2017년 12월 18일부터 22일까지 G군 소재 간호대학생 171명을 대상으로 하였다. 자료분석방법은 t-test, ANOVA, Pearson 상관관계, 단계적 다중회귀분석을 사용하였다. 분석결과 기본간호술 수행자신감은 기본간호술 중요성 인식과 자기주도적 학습능력과 유의한 정적 상관관계를 나타냈다. 기본간호술 수행자신감에 대한 영향요인은 자기주도적 학습능력, 실습태도, 기본간호술 중요성 인식, 직전 학기 성적으로 총 변화량의 32%를 설명하였다. 본 연구를 통해 간호대학생의 기본간호술 수행자신감을 높이기 위해서 자기주도적 학습능력, 실습태도, 기본간호술 중요성 인식을 향상시킬 수 있는 다양한 교육 전략이 필요하다.

방사선사의 손 씻기 관리와 개인위생관리의 실태조사 (Actual Condition Investigation of Radiologist on the Hand Washing Management and Personal Hygiene Management)

  • 한상현;홍동희;김가중
    • 한국콘텐츠학회논문지
    • /
    • 제12권1호
    • /
    • pp.409-415
    • /
    • 2012
  • 본 연구의 목적은 방사선사의 병원감염관리 중 손 씻기 관리와 개인위생관리에 관한 인식도와 실천도를 조사하여 병원감염예방에 대한 실태를 조사하기 위해 실시 되었다. 그 결과로는 방사선사의 손 씻기 관리의 인식도와 실천도는 5점 만점을 기준으로 4.378, 4.199 이었고, 개인위생관리의 인식도와 실천도는 5점 만점을 기준으로 4.284, 3.990 이었다. 또한 손 씻기 관리의 인식도에서 일반적 특성 중 성별, 연령, 학력, 근무경력이 유의한 차이가 있었으며, 실천도에서는 성별, 결혼여부가 유의한 차이가 있었다. 개인위생관리의 인식도에서 일반적 특성 중 연령, 학력, 근무경력이 유의한 차이가 있었으며, 실천도에서는 결혼여부, 근무경력이 유의한 차이가 있었다. 마지막으로, 손 씻기 관리와 개인위생관리의 인식도와 실천도의 상관관계는 손씻기 관리 r=0.453, 개인위생관리 r=0.415로 인식도가 높을수록 실천도가 높게 나타났다.

감마톤 특징 추출 음향 모델을 이용한 음성 인식 성능 향상 (Speech Recognition Performance Improvement using Gamma-tone Feature Extraction Acoustic Model)

  • 안찬식;최기호
    • 디지털융복합연구
    • /
    • 제11권7호
    • /
    • pp.209-214
    • /
    • 2013
  • 음성 인식 시스템에서는 인식 성능 향상을 위한 방법으로 인간의 청취 능력을 인식 시스템에 접목하였으며 잡음 환경에서 음성 신호와 잡음을 분리하여 원하는 음성 신호만을 선택할 수 있도록 구성되었다. 하지만 실용적 측면에서 음성 인식 시스템의 성능 저하 요인으로 인식 환경 변화에 따른 잡음으로 인한 음성 검출이 정확하지 못하여 일어나는 것과 학습 모델이 일치하지 않는 것을 들 수 있다. 따라서 본 논문에서는 음성 인식 향상을 위해 감마톤을 이용하여 특징을 추출하고 음향 모델을 이용한 학습 모델을 제안하였다. 제안한 방법은 청각 장면 분석을 이용한 특징을 추출을 통해 인간의 청각 인지 능력을 반영하였으며 인식을 위한 학습 모델 과정에서 음향 모델을 이용하여 인식 성능을 향상시켰다. 성능 평가를 위해 잡음 환경의 -10dB, -5dB 신호에서 잡음 제거를 수행하여 SNR을 측정한 결과 3.12dB, 2.04dB의 성능이 향상됨을 확인하였다.

다중 스펙트럼 객체 감지를 위한 고주파 교환 네트워크 (High-Frequency Interchange Network for Multispectral Object Detection)

  • 박선후;윤준석;유석봉;한승회
    • 한국정보통신학회논문지
    • /
    • 제26권8호
    • /
    • pp.1121-1129
    • /
    • 2022
  • RGB 이미지를 활용하는 다양한 객체 인식 분야에서 조도가 어둡거나 특정 물체에 의해 가려진 환경에서의 RGB 이미지는 객체 인식 성능 저하를 일으킨다. IR 이미지는 가시광선이 아닌 적외선 파동을 감지하기 때문에 이러한 환경에서 강인한 객체 인식 성능을 가질 수 있고, RGB-IR 이미지 쌍을 가지고 각자의 강점을 결합 하는 것을 통해 객체 인식 성능을 향상시킬 수 있다. 본 논문에서는 RGB-IR 이미지 쌍의 강점만을 결합하여 객체 인식 성능을 향상시키는 다중 스펙트럼 융합 모델인 high-frequency interchange network (HINet)을 제안한다. HINet은 RGB-IR 이미지 간 주요 정보를 교환하기 위해 두 가지 객체 인식 모델을 mutual high-frequency transfer (MHT)를 이용하여 연결하였다. MHT에서는 RGB-IR 이미지 쌍 각각을 discrete cosine transform (DCT) 스펙트럼 도메인으로 변환하여 고주파 정보를 추출한다. 추출된 고주파 정보는 서로의 네트워크에 전달되어 객체 인식성능 향상을 위해 활용되어 진다. 실험 결과는 제안하는 네트워크의 우수성을 보이며 다중 스펙트럼 객체 인식 성능을 향상시키는 것을 확인할 수 있다.

감정 인식을 위한 음성의 특징 파라메터 비교 (The Comparison of Speech Feature Parameters for Emotion Recognition)

  • 김원구
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 춘계학술대회 학술발표 논문집 제14권 제1호
    • /
    • pp.470-473
    • /
    • 2004
  • In this paper, the comparison of speech feature parameters for emotion recognition is studied for emotion recognition using speech signal. For this purpose, a corpus of emotional speech data recorded and classified according to the emotion using the subjective evaluation were used to make statical feature vectors such as average, standard deviation and maximum value of pitch and energy. MFCC parameters and their derivatives with or without cepstral mean subfraction are also used to evaluate the performance of the conventional pattern matching algorithms. Pitch and energy Parameters were used as a Prosodic information and MFCC Parameters were used as phonetic information. In this paper, In the Experiments, the vector quantization based emotion recognition system is used for speaker and context independent emotion recognition. Experimental results showed that vector quantization based emotion recognizer using MFCC parameters showed better performance than that using the Pitch and energy parameters. The vector quantization based emotion recognizer achieved recognition rates of 73.3% for the speaker and context independent classification.

  • PDF

A Novel Self-Learning Filters for Automatic Modulation Classification Based on Deep Residual Shrinking Networks

  • Ming Li;Xiaolin Zhang;Rongchen Sun;Zengmao Chen;Chenghao Liu
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권6호
    • /
    • pp.1743-1758
    • /
    • 2023
  • Automatic modulation classification is a critical algorithm for non-cooperative communication systems. This paper addresses the challenging problem of closed-set and open-set signal modulation classification in complex channels. We propose a novel approach that incorporates a self-learning filter and center-loss in Deep Residual Shrinking Networks (DRSN) for closed-set modulation classification, and the Opendistance method for open-set modulation classification. Our approach achieves better performance than existing methods in both closed-set and open-set recognition. In closed-set recognition, the self-learning filter and center-loss combination improves recognition performance, with a maximum accuracy of over 92.18%. In open-set recognition, the use of a self-learning filter and center-loss provide an effective feature vector for open-set recognition, and the Opendistance method outperforms SoftMax and OpenMax in F1 scores and mean average accuracy under high openness. Overall, our proposed approach demonstrates promising results for automatic modulation classification, providing better performance in non-cooperative communication systems.

뉴럴-퍼지패턴매칭에 의한 단어인식에 관한 연구 (A Study on Word Recognition Using Neural-Fuzzy Pattern Matching)

  • 이기영;최갑석
    • 전자공학회논문지B
    • /
    • 제29B권11호
    • /
    • pp.130-137
    • /
    • 1992
  • This paper presents the word recognition method using a neural-fuzzy pattern matching, in order to make a proper speech pattern for a spectrum sequence and to improve a recognition rate. In this method, a frequency variation is reduced by generating binary spectrum patterns through associative memory using a neural network, and a time variation is decreased by measuring the simillarity using a fuzzy pattern matching. For this method using binary spectrum patterns and logic algebraic operations to measure the simillarity, memory capacity and computation requirements are far less than those of DTW using a conventional distortion measure. To show the validity of the recognition performance for this method, word recognition experiments are carried out using 28 DDD city names and compared with DTW and a fuzzy pattern matching. The results show that our presented method is more excellent in the recognition performance than the other methods.

  • PDF

Boosting the Face Recognition Performance of Ensemble Based LDA for Pose, Non-uniform Illuminations, and Low-Resolution Images

  • Haq, Mahmood Ul;Shahzad, Aamir;Mahmood, Zahid;Shah, Ayaz Ali;Muhammad, Nazeer;Akram, Tallha
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권6호
    • /
    • pp.3144-3164
    • /
    • 2019
  • Face recognition systems have several potential applications, such as security and biometric access control. Ongoing research is focused to develop a robust face recognition algorithm that can mimic the human vision system. Face pose, non-uniform illuminations, and low-resolution are main factors that influence the performance of face recognition algorithms. This paper proposes a novel method to handle the aforementioned aspects. Proposed face recognition algorithm initially uses 68 points to locate a face in the input image and later partially uses the PCA to extract mean image. Meanwhile, the AdaBoost and the LDA are used to extract face features. In final stage, classic nearest centre classifier is used for face classification. Proposed method outperforms recent state-of-the-art face recognition algorithms by producing high recognition rate and yields much lower error rate for a very challenging situation, such as when only frontal ($0^{\circ}$) face sample is available in gallery and seven poses ($0^{\circ}$, ${\pm}30^{\circ}$, ${\pm}35^{\circ}$, and ${\pm}45^{\circ}$) as a probe on the LFW and the CMU Multi-PIE databases.

Text-independent Speaker Identification by Bagging VQ Classifier

  • Kyung, Youn-Jeong;Park, Bong-Dae;Lee, Hwang-Soo
    • The Journal of the Acoustical Society of Korea
    • /
    • 제20권2E호
    • /
    • pp.17-24
    • /
    • 2001
  • In this paper, we propose the bootstrap and aggregating (bagging) vector quantization (VQ) classifier to improve the performance of the text-independent speaker recognition system. This method generates multiple training data sets by resampling the original training data set, constructs the corresponding VQ classifiers, and then integrates the multiple VQ classifiers into a single classifier by voting. The bagging method has been proven to greatly improve the performance of unstable classifiers. Through two different experiments, this paper shows that the VQ classifier is unstable. In one of these experiments, the bias and variance of a VQ classifier are computed with a waveform database. The variance of the VQ classifier is compared with that of the classification and regression tree (CART) classifier[1]. The variance of the VQ classifier is shown to be as large as that of the CART classifier. The other experiment involves speaker recognition. The speaker recognition rates vary significantly by the minor changes in the training data set. The speaker recognition experiments involving a closed set, text-independent and speaker identification are performed with the TIMIT database to compare the performance of the bagging VQ classifier with that of the conventional VQ classifier. The bagging VQ classifier yields improved performance over the conventional VQ classifier. It also outperforms the conventional VQ classifier in small training data set problems.

  • PDF