• 제목/요약/키워드: Dynamic speaker

검색결과 87건 처리시간 0.029초

연속 음성에서의 신경회로망을 이용한 화자 적응 (Speaker Adaptation Using Neural Network in Continuous Speech Recognition)

  • 김선일
    • 한국음향학회지
    • /
    • 제19권1호
    • /
    • pp.11-15
    • /
    • 2000
  • RM 음성 Corpus를 이용한 화자 적응 연속 음성 인식을 수행하였다. RM Corpus의 훈련용 데이터를 이용해서 기준화자에 대한 HMM 학습을 실시하고 평가용 데이터를 이용하여 화자 적응 인식에 대한 평가를 실시하였다. 화자 적응을 위해서는 훈련용 데이터의 일부가 사용되었다. DTW를 이용하여 인식 대상화자의 데이터를 기준화자의 데이터와 시간적으로 일치시키고 오차 역전파 신경회로망을 사용하여 인식 대상화자의 스펙트럼이 기준화자의 스펙트럼 특성을 지니도록 변환시켰다. 최적의 화자 적응이 이루어지도록 하기 위해 신경회로망의 여러 요소들을 변화시키면서 실험을 실시하고 그 결과를 제시하였다. 학습을 거쳐 적절한 가중치를 지닌 신경회로망을 이용하여 기준화자에 적응시킨 결과 단어 인식율이 최대 2.1배, 단어 정인식율이 최대 4.7배 증가하였다.

  • PDF

스마트폰 환경의 인증 성능 최적화를 위한 다중 생체인식 융합 기법 연구 (Authentication Performance Optimization for Smart-phone based Multimodal Biometrics)

  • 문현준;이민형;정강훈
    • 디지털융복합연구
    • /
    • 제13권6호
    • /
    • pp.151-156
    • /
    • 2015
  • 본 논문에서는 스마트폰 환경의 얼굴 검출, 인식 및 화자 인증 기반 다중생체인식 개인인증 시스템을 제안한다. 제안된 시스템은 Modified Census Transform과 gabor filter 및 k-means 클러스터 분석 알고리즘을 통해 얼굴의 주요 특징을 추출하여 얼굴인식을 위한 데이터 전처리를 수행한다. 이후 Linear Discriminant Analysis기반 본인 인증을 수행하고(얼굴인식), Mel Frequency Cepstral Coefficient기반 실시간성 검증(화자인증)을 수행한다. 화자인증에 사용하는 음성 정보는 실시간으로 변화하므로 본 논문에서는 Dynamic Time Warping을 통해 이를 해결한다. 제안된 다중생체인식 시스템은 얼굴 및 음성 특징 정보를 융합 및 스마트폰 환경에 최적화하여 실시간 얼굴검출, 인식과 화자인증 과정을 수행하며 단일 생체인식에 비해 약간 낮은 95.1%의 인식률을 보이지만 1.8%의 False Acceptance Ratio를 통해 객관적인 실시간 생체인식 성능을 입증하여 보다 신뢰할 수 있는 시스템을 완성한다.

고음질을 갖는 음색변경에 관한 연구 (A Study on the Voice Conversion Algorithm with High Quality)

  • 박형빈;배명진
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.157-160
    • /
    • 2000
  • In the generally a voice conversion has used VQ(Vector Quantization) for partitioning the spectral feature and has performed by adding an appropriate offset vector to the source speaker's spectral vector. But there is not represented the target speaker's various characteristics because of discrete characteristics of transformed parameter. In this paper, these problems are solved by using the LMR(Linear Multivariate Regression) instead of the mapping codebook which is determined to the relationship of source and target speaker vocal tract characteristics. Also we propose the method for solved the discontinuity which is caused by applying to time aligned parameters using Dynamic Time Warping the time or pitch-scale modified speech. In our proposed algorithm for overcoming the transitional discontinuities, first of all, we don't change time or pitch scale and by using the LMR change a speaker's vocal tract characteristics in speech with non-modified time or pitch. Compared to existed methods based on VQ and LMR, we have much better voice quality in the result of the proposed algorithm.

  • PDF

음성을 이용한 화자 검증기 설계 및 구현 (Design and Implementation of Speaker Verification System Using Voice)

  • 지진구;윤성일
    • 한국컴퓨터정보학회논문지
    • /
    • 제5권3호
    • /
    • pp.91-98
    • /
    • 2000
  • 본 논문은 음성을 이용하여 개인의 신원을 확인할 수 있는 화자 검증시스템을 설계, 구현하였다. 특징 파라메터로는 선형 예측 계수나 고속 후리에 변환보다 안정적이고 계산량이 적은 장점이 있는 필터뱅크(filterbank)를 사용했으며 추출된 파라메터들을 LBG 알고리즘을 이용하여 각 개인의 코드북을 작성하였다. 작성된 코드북에 의해 특징 파라메터를 벡터양자화하여 얻어진 코드열로 화자 검증의 참조 패턴 및 입력 패턴을 생성, 이들을 동적시간 정합법을 이용하여 유사도를 측정하여 얻어진 유사도와 임계값을 비교하여 음성 의뢰자(client speaker)인지, 사칭자(impostor)인지 결정하는 화자 검증기를 설계, 구현하였다.

  • PDF

피치변경을 이용한 화자인식 시스템 (The Speaker Recognition System using the Pitch Alteration)

  • 정종순;배명진
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 2002년도 하계학술발표대회 논문집 제21권 1호
    • /
    • pp.115-118
    • /
    • 2002
  • 화자인식에 사용하는 파라미터는 화자의 특징을 충분히 표현함과 더불어 발성 시마다 변동이 작은 것이 바람직하다. 즉, 파라미터의 화자내의 변이보다 화자간의 변이가 큰 특성을 가져야 화자간의 구분이 용이하다. 또한, 화자간 오류를 최소화하기 위해 화자간 구별이 뚜렷한 특징 파라미터뿐만 아니라 분별력이 뛰어난 인식방법도 필요하다. 최근의 실험결과들을 살펴보면 발성기관에 의한 정적인 특징뿐 아니라, 발성습관에 의한 동적인 특징을 같이 이용함으로써 보다 정확한 인식결과를 얻고 있다. 따라서 본 논문에서는 이러한 문제점을 해결하기 위해 다음과 같이 제안한다. 음성의 특징벡터로 운율정보 사용을 제안한다 현재 화자인식 시스템에서 일반적으로 많이 사용되고 있는 특징벡터는 스펙트럼 정보를 모델링하고 있는 것으로 비잡음 환경에서 종은 성능을 보이고 있다. 그러나 잡음 환경변화에 크게 왜곡되며 인식율이 현저하게 저하되는 문제점이 나타난다. 그러므로 본 논문에서는 음성의 동적 변화를 측정할 수 있는 세그먼트로 분할한 피치열을 변경하여 인식의 특징패턴으로 사용한다. 이는 문장의 운율정보를 보여주는 것으로 소음환경에서 강인한 특성을 보였다.

  • PDF

VQ와 DTW를 이용한 문장 의존형 화자인식 시스템 (Text-dependent Speaker Recognition System Using DTW & VQ)

  • 정종순;오세영;배명진
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 2001년도 추계학술발표대회 논문집 제20권 2호
    • /
    • pp.97-103
    • /
    • 2001
  • 초기 DTW(Dynamic Time Warping)를 이용한 화자인식 방법은 인식률이 시간이 지남에 따라 저하된다는 단점이 있었다[1][3][4]. 따라서 이를 보완하기 위한 새로운 알고리즘이 많이 제안되었다. 본 논문에서는 DTW방법을 이용한 화자 인식 시스템의 사용자 등록시기에 화자에 대한 불충분한 음성특징을 보충하고 시간이 지남에 따라 발생하는 오인식률의 증가를 줄이기 위해 사용자 등록시 기준패턴의 정규화를 수행하고 시스템 사용시 기준패턴을 변경하는 방법이다. 본 논문에서 사용된 핵심적인 알고리즘은 VQ(Vector Quantization)와 DTW 방법이다. 본 논문의 알고리즘을 이용한 모의 실험 결과 기존의 방법에 비해 $3.3\%$ 인식률 향상되어 $97.5\%$의 인식률을 얻을 수 있었다.

  • PDF

퍼지 벡터 양자화기 사상화와 신경망에 의한 화자적응 음성합성 (Speaker-Adaptive Speech Synthesis based on Fuzzy Vector Quantizer Mapping and Neural Networks)

  • 이진이;이광형
    • 한국정보처리학회논문지
    • /
    • 제4권1호
    • /
    • pp.149-160
    • /
    • 1997
  • 본 연구에서는 퍼지사상화(fuzzy mapping)와 FLVQ(fuzzy learning vector quantization)에 의한 사상된(mapped)코드북을 사용하는 화자적용 음성합성 알고리즘 을 제안하고, 기존의 음성합성결과와 비교한다. 입력화자와 기준화자의 코드북은 FLVQ 방법으로 작성한다. 사상된 코드북은 퍼지 히스토그램을 작성하여 이들을 선형 결합함으로써 얻어지는 퍼지 사상화에 의하여 작성된다. 대응 코드벡터의 퍼지 히스 토그램은 동일 입력벡터에 대해 선택된 입력화자의 코드벡터와 기준화자의 코드벡터 사이의 DTW(dynamic time warping)을 행하여 대응하는 코드벡터들의 소속값 (membership value)을 누적하여 얻는다. 음성합성시에는 사상된 코드북을 사용하여 입력화자의 음성을 퍼지벡터 양자화한 다음, FCM(fuzzy c means) 합성규칙을 사용하 여 사상된 코드북내의 코드벡터가 아닌 새로운 하나의 합성벡터를 얻게 되어 좀 더 입력화자에 적응된 합성음을 얻게 된다. 이 기술의 성능평가는 성별이 서로 다른 화 자를 입력화자 및 기준화자로 선정하여 입력화자의 음성에 가까운 정도로 평가하였으 며 그 결과 기존의 음성합성보다 입력화자에 더 적용된 합성음을 얻었다.

  • PDF

안드로이드 환경의 다중생체인식 기술을 응용한 인증 성능 개선 연구 (Enhancement of Authentication Performance based on Multimodal Biometrics for Android Platform)

  • 최성필;정강훈;문현준
    • 한국멀티미디어학회논문지
    • /
    • 제16권3호
    • /
    • pp.302-308
    • /
    • 2013
  • 본 논문은 모바일 환경에서의 다중생체인식을 통한 개인인증 시나리오에서 false acceptance rate (FAR)가 향상된 시스템을 제안한다. 다중생체인식을 위하여 얼굴인식과 화자인식을 선택하였으며, 시스템의 인식 시나리오는 다음을 따른다. 얼굴인식을 위하여 Modified census transform (MCT) 기반의 얼굴검출과 k-means 클러스터 분석 (cluster analysis) 알고리즘 기반의 눈 검출을 통해 얼굴영역 전처리를 수행하고, principal component analysis (PCA) 기반의 얼굴인증 시스템을 구현한다. 화자인식을 위하여 음성의 끝점추출과 Mel frequency cepstral coefficient (MFCC) 특징을 추출하고, dynamic time warping (DTW) 기반의 화자 인증 시스템을 구현한다. 그리고 각각의 생체인식을 본 논문에서 제안된 방법을 기반으로 융합하여 인식률을 향상시킨다. 본 논문의 실험은 Android 환경에서 수행하였으며, 구현한 다중생체인식 시스템과 단일생체인식 시스템과의 FAR을 비교하였다. 단일 얼굴인식의 FAR은 4.6%, 단일 화자인식의 FAR은 6.7%로 각각 나타났으며, 제안된 다중생체인식 시스템의 FAR은 1.8%로 크게 감소하였다.

Review And Challenges In Speech Recognition (ICCAS 2005)

  • Ahmed, M.Masroor;Ahmed, Abdul Manan Bin
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1705-1709
    • /
    • 2005
  • This paper covers review and challenges in the area of speech recognition by taking into account different classes of recognition mode. The recognition mode can be either speaker independent or speaker dependant. Size of the vocabulary and the input mode are two crucial factors for a speech recognizer. The input mode refers to continuous or isolated speech recognition system and the vocabulary size can be small less than hundred words or large less than few thousands words. This varies according to system design and objectives.[2]. The organization of the paper is: first it covers various fundamental methods of speech recognition, then it takes into account various deficiencies in the existing systems and finally it discloses the various probable application areas.

  • PDF

Praat를 이용한 숫자음의 음향적 분석법 (An acoustical analysis method of numeric sounds by Praat)

  • 양병곤
    • 음성과학
    • /
    • 제7권2호
    • /
    • pp.127-137
    • /
    • 2000
  • This paper presents a macro script to analyze numeric sounds by a speech analysis shareware, Praat, and analyzes those sounds produced by three students who were born and raised in Pusan. Recording was done in a quiet office. To make a meaningful comparison, dynamic time points in relation to the total duration of voicing segments were determined to measure acoustical values. Results showed that a strong correlation coefficient was found between the repetitive production of numeric sounds within and across the speakers. Very high coefficients among diphthongal numbers (0 and 6) which usually show wide formant variation were noticed. This supports that each speaker produced numbers quite coherently. Also, the frequency differences between the three subjects were within a perceptually similar range. To identify a speaker among others may require to find subtle individual differences within this range. Perceptual experiments by synthesized numeric sounds may lead to resolve the issue.

  • PDF