• 제목/요약/키워드: Automatic Speech Recognition

검색결과 213건 처리시간 0.042초

Maximum Likelihood-based Automatic Lexicon Generation for AI Assistant-based Interaction with Mobile Devices

  • Lee, Donghyun;Park, Jae-Hyun;Kim, Kwang-Ho;Park, Jeong-Sik;Kim, Ji-Hwan;Jang, Gil-Jin;Park, Unsang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권9호
    • /
    • pp.4264-4279
    • /
    • 2017
  • In this paper, maximum likelihood-based automatic lexicon generation using mixed-syllables is proposed for unlimited vocabulary voice interface for East Asian languages (e.g. Korean, Chinese and Japanese) in AI-assistant based interaction with mobile devices. The conventional lexicon has two inevitable problems: 1) a tedious repetition of out-of-lexicon unit additions to the lexicon, and 2) the propagation of errors during a morpheme analysis and space segmentation. The proposed method provides an automatic framework to solve the above problems. The proposed method produces a level of overall accuracy similar to one of previous methods in the presence of one out-of-lexicon word in a sentence, but the proposed method provides superior results with the absolute improvements of 1.62%, 5.58%, and 10.09% in terms of word accuracy when the number of out-of-lexicon words in a sentence was two, three and four, respectively.

음성인식을 이용한 자막 자동생성 시스템 (Subtitle Automatic Generation System using Speech to Text)

  • 손원섭;김응곤
    • 한국전자통신학회논문지
    • /
    • 제16권1호
    • /
    • pp.81-88
    • /
    • 2021
  • 최근 COVID-19로 인한 온라인 강의 영상과 같은 많은 영상이 생성되고 있는데 노동 시간의 한계와 비용의 부족 등으로 인해 자막을 보유한 영상이 일부분에 불과하여 청각장애인들의 정보 취득에 방해 요소로 대두되고 있다. 본 논문에서는 음성인식을 이용하여 자막을 자동으로 생성하고 종결 어미와 시간을 이용해 문장을 분리하여 자막을 생성함으로써 자막 생성에 드는 시간과 노동력을 줄일 수 있도록 하는 시스템을 개발하고자 한다.

Deep neural network-hidden Markov model 하이브리드 구조의 모델을 사용한 사용자 정의 기동어 인식 시스템에 관한 연구 (A study on user defined spoken wake-up word recognition system using deep neural network-hidden Markov model hybrid model)

  • 윤기무;김우일
    • 한국음향학회지
    • /
    • 제39권2호
    • /
    • pp.131-136
    • /
    • 2020
  • 음성 인식기를 대기모드에서 동작 모드로 전환하기 위해 발화하는 짧은 단어를 기동어(Wake Up Word, WUW)라고 하며, 음성 인식기를 실제로 사용하는 사용자가 지정한 기동어를 사용자 정의 기동어라고 한다. 본 논문에서는 이러한 사용자 정의 기동어를 인식하기 위해 기존의 Gaussian Mixture Model-Hidden Markov Model(GMM-HMM) 기반의 시스템, Linear Discriminant Analysis(LDA)를 적용한 LDA-GMM-HMM 기반의 시스템과, LDA-GMM-HMM 모델에서 GMM을 Deep Neural Network(DNN)로 대체한 LDA-DNN-HMM 기반의 시스템을 제작하고 각 시스템의 사용자 정의 기동어 인식 성능 및 비기동어 거절 성능을 비교한다. 또한 기동어 인식기의 체감 성능을 향상시키고자 각 모델에 threshold를 적용하여 기동어 인식 실패율을 약 10 % 수준으로 감소 시킨 후에 비기동어(non-WUW)의 거절 실패율을 비교 평가한다. Threshold 적용시에 LDA-DNN-HMM 기반의 시스템의 경우 기동어 인식 실패율 9.84 % 수준에서 비기동어 거절 실패율이 0.0058 %의 인식 성능을 나타내어 LDA-GMM-HMM 시스템 보다 약 4.82배 향상된 비기동어 거절 성능을 나타낸다. 이러한 결과는 본 논문에서 제작한 LDA-DNN-HMM 모델이 사용자 정의 기동어 인식 시스템을 구축하는데 효과적임을 입증한다.

L1-norm regularization을 통한 SGMM의 state vector 적응 (L1-norm Regularization for State Vector Adaptation of Subspace Gaussian Mixture Model)

  • 구자현;김영관;김회린
    • 말소리와 음성과학
    • /
    • 제7권3호
    • /
    • pp.131-138
    • /
    • 2015
  • In this paper, we propose L1-norm regularization for state vector adaptation of subspace Gaussian mixture model (SGMM). When you design a speaker adaptation system with GMM-HMM acoustic model, MAP is the most typical technique to be considered. However, in MAP adaptation procedure, large number of parameters should be updated simultaneously. We can adopt sparse adaptation such as L1-norm regularization or sparse MAP to cope with that, but the performance of sparse adaptation is not good as MAP adaptation. However, SGMM does not suffer a lot from sparse adaptation as GMM-HMM because each Gaussian mean vector in SGMM is defined as a weighted sum of basis vectors, which is much robust to the fluctuation of parameters. Since there are only a few adaptation techniques appropriate for SGMM, our proposed method could be powerful especially when the number of adaptation data is limited. Experimental results show that error reduction rate of the proposed method is better than the result of MAP adaptation of SGMM, even with small adaptation data.

스마트 폰 음성 인식 서비스의 상황별 만족도 조사 (Study on the Situational satisfaction survey of Smart Phone based on voice recognition technology)

  • 이윤정;김승인
    • 디지털융복합연구
    • /
    • 제15권8호
    • /
    • pp.351-357
    • /
    • 2017
  • 본 연구는 스마트 폰 음성인식 서비스를 분석하고 음성인식 서비스의 상황별 만족도 조사를 통하여 사용자들의 기대요구와 만족도 간의 관련성을 분석하여 더 나은 음성인식 서비스 발전을 모색하고자 하였다. 1차로 문헌연구를 통하여 음성인식 서비스의 개념과 현황을 알아보고, 2차로 육하원칙을 기조로 한 설문지를 통해 설문 조사를 진행하였다. 그 결과, 사용자는 스마트 폰 음성인식 서비스를 전화를 걸 때에 가장 많이 사용하며, 주로 혼자 있을 때 사용하며 시간대는 대체로 평이하지만, 저녁 시간이 가장 많았다. 또한, 해당 서비스는 집에서 가장 많이 사용하며 손을 사용할 수 없을 때 서비스를 가장 많이 사용하는 것으로 나타났다. 이러한 상황별 다양한 결과를 통해 개인화 서비스, 조건 인식 기능, 위급 상황 자동인식, 음성으로 잠금 해제 등 다양한 방안을 도출할 수 있었다. 본 연구를 바탕으로 추후 국내 스마트 폰 음성인식 서비스 개선과 웨어러블 디바이스 개발을 위해 효과적으로 활용할 수 있을 것으로 기대한다.

선형 판별분석과 공통벡터 추출방법을 이용한 음성인식 (Speech Recognition Using Linear Discriminant Analysis and Common Vector Extraction)

  • 남명우;노승용
    • 한국음향학회지
    • /
    • 제20권4호
    • /
    • pp.35-41
    • /
    • 2001
  • 본 논문에서는 선형 판별분석 (LDA: Linear Discriminant Analysis)과 공통벡터 추출방법을 이용한 음성인식방법을 제안하였다. 음성신호는 화자의 성별, 나이, 출생지, 주위 잡음, 정신적 상태, 발성기관의 구조 등과 같은 다양한 정보를 포함하고 있다. 이로 인해 같은 음성신호라 할지라도 서로 다른 화자가 발성하게 되면 서로 다른 특성을 보이게 된다. 음성신호의 이러한 성질은 같은 음성군 (class)에 포함된 공통된 특성벡터를 추출하는 일을 상당히 어렵게 한다. 음성신호에서 공통된 특징 벡터를 추출하는 방법은 KLT (Karhunen-Loeve Transformation)와 같이 선형 대수적인 접근방법이 많이 사용되어지고 있으나, 본 논문에서는 M. Bilginer et al.이 제안한 공통벡터 추출 방법을 사용하였다. M. Bilginer et al.이 제안한 방법은 주어진 훈련 음성신호들에 대하여 최적의 공통 벡터를 추출하여 주면서 공통벡터 추출에 사용된 훈련 데이터에 대해서는 100%의 인식결과를 보여준다. 그러나 공통벡터 추출을 위한 훈련 음성신호의 수를 무한히 늘릴 수 없다는 점과 공통벡터들간의 구별정보 (discriminant information)가 정의되지 않았다는 단점이 있다. 본 논문에서는 단어그룹간 (class) 구별정보를 추출된 공통벡터와 결합해 단어간의 오인식률 (error rate)을 감소시킬 수 있는 방법과 공통벡터 추출방법에 적합한 파라미터 가공 방법을 제안하였다. 공통벡터 추출방법은 음성신호의 시간 축 정규화 방법과 벡터의 차원 크기에 따라 인식시간과 인식률에 영향을 받는다. 따라서 부적절한 시간 축 정렬과 너무 큰 벡터의 차원 수는 인식률 저하 등과 같이 알고리즘의 효율성을 떨어뜨린다. 본 논문에서 제안한 방법을 사용하여 실험한 결과 알고리즘의 효율성이 증가되었으며, 기존방법보다 약 2%정도의 향상된 인식률을 얻을 수 있었다.낮추는 효과를 나타내었다.다. 이상의 결과를 통하여 추출 온도와 용매 농도에 따른 수율의 차이가 있었으며 free radical 소거 활성에서는 종자 에탄을 추출물이 과피 에탄올 추출물 보다 145배 이상의 현저히 높은 활성을 나타내었다.을 나타내었다.'Lian(연)' : repeatability, continuance, plenty and intercommunicate, 2. 'Lian(연)'-'Lian(염)': integrity, 3. 'He (하)'-'He(화)' : peace, harmony and combination, 4. 'He(하)'-'He(하)' : clear river, 5.'He(하)'-'He(하)' ; all work goes well. When the Chinese use lotus patterns in lucky omen patterns, same pronunciation and pitch of Chinese language more prominent than natural properties or the image of Buddhism. I guess that it cause praying individual's peace and happiness more serious than philosophical meaning or symbol that base in Buddhism for ordinary people.ML., -9.00~12.49 and -19.81~19.81%, respectively). Therefore, it is concluded that the two formulations are bioequivalent for both the extent and the rate of absorption after single dose administration.ation.ion.ion.ation.ion.n. fibrosis, collagen bundle) was

  • PDF

An Adaptive Utterance Verification Framework Using Minimum Verification Error Training

  • Shin, Sung-Hwan;Jung, Ho-Young;Juang, Biing-Hwang
    • ETRI Journal
    • /
    • 제33권3호
    • /
    • pp.423-433
    • /
    • 2011
  • This paper introduces an adaptive and integrated utterance verification (UV) framework using minimum verification error (MVE) training as a new set of solutions suitable for real applications. UV is traditionally considered an add-on procedure to automatic speech recognition (ASR) and thus treated separately from the ASR system model design. This traditional two-stage approach often fails to cope with a wide range of variations, such as a new speaker or a new environment which is not matched with the original speaker population or the original acoustic environment that the ASR system is trained on. In this paper, we propose an integrated solution to enhance the overall UV system performance in such real applications. The integration is accomplished by adapting and merging the target model for UV with the acoustic model for ASR based on the common MVE principle at each iteration in the recognition stage. The proposed iterative procedure for UV model adaptation also involves revision of the data segmentation and the decoded hypotheses. Under this new framework, remarkable enhancement in not only recognition performance, but also verification performance has been obtained.

한국어 고립단어인식을 위한 고속 알고리즘 (Fast Algorithm for Recognition of Korean Isolated Words)

  • 남명우;박규홍;정상국;노승용
    • 한국음향학회지
    • /
    • 제20권1호
    • /
    • pp.50-55
    • /
    • 2001
  • 본 논문에서는 청각모델을 이용하여 음성신호로부터 추출한 특징벡터를 2차원 DCT (discrete cosine transform)방법을 사용하여 가공한 후, 새로운 거리측정 방법에 적용하여 한국어 고립단어 인식 실험을 행하였다. 고립단어 인식은 기존에 많은 방법들이 제안되어졌으나, 본 논문에서 제안한 방법은 고립단어 인식을 위한 특징 파라미터로 2차원 DCT 계수를 사용한 것으로 구현이 간단하며, 간단한 계산식으로 인하여 빠른 인식 시간을 가지는 장점이 있다. 제안한 방식의 타당성 검토를 위하여, 고립단어 인식에서 좋은 인식결과를 나타내는 DTW (Dynamic Time Warping)방법을 사용하여 인식률을 비교하였다[5][6]. 실험결과 제안한 방식은 DTW를 사용한 인식방법에 비하여 화자종속 고립단어 인식에서는 거의 유사한 인식결과를, 화자독립 고립단어 인식에서는 더 높은 인식결과를 얻을 수 있었다. 또한, DTW에 비해 패턴비교를 위한 계산시간에 있어서는 200배 이상의 감소효과를 볼 수 있었다. 제안된 방법은 비교 방법에 비하여 잡음환경에서도 강한 특성을 보였다.

  • PDF

음성인식과 자연어 처리 딥러닝을 통한 전자의무기록자동 생성 시스템 (Automatic Electronic Medical Record Generation System using Speech Recognition and Natural Language Processing Deep Learning)

  • 손현곤;류기환
    • 문화기술의 융합
    • /
    • 제9권3호
    • /
    • pp.731-736
    • /
    • 2023
  • 최근 의료 현장은 전자의무기록, 전자건강기록 등의 의료 기록을 전산화하여 저장하고 관리하는 시스템이 의무적으로 적용되거나 전체 의료 현장에 보급되어 환자 개개인의 과거 의료 기록을 추가적인 의료 행위에 활용하고 있다. 그러나 일반적인 의료 문진 및 상담 간 발생하는 의료진과 환자 간의 대화는 별도로 기록되거나 저장되지 않고 있어 추가적인 환자의 주요 정보는 효율적으로 활용되지 못하고 있다. 이에 따라, 의료 문진 현장에서 발생하는 의료진과 환자와의 대화를 저장하고 이를 텍스트 데이터로 변환하여 주요한 문진 내용만 자동으로 추출, 요약하여 정보화하는 음성인식과 자연어 처리 딥러닝을 통한 의료상담 요약문을 자동으로 생성하는 전자의무기록 시스템을 제안한다. 본 시스템은 의료 종사자와 환자의 의료 상담 내용의 인식과정을 거쳐서 텍스트 정보를 획득한다. 이렇게 획득된 텍스트를 복수의 문장으로 구분하고, 생성된 문장에 포함된 복수 키워드의 중요도를 산출한다. 산출된 중요도를 기반으로 복수의 문장에 순위를 매기고, 순위를 기반으로 문장들을 요약하여 최종 전자의무기록 데이터를 생성한다. 제안하는 시스템 성능은 정량적 분석을 통하여 우수함을 확인한다.

영한 기계번역의 자연어 생성 연구 (A Study on the Natural Language Generation by Machine Translation)

  • 홍성룡
    • 디지털콘텐츠학회 논문지
    • /
    • 제6권1호
    • /
    • pp.89-94
    • /
    • 2005
  • 기계번역에서 자연어 생성의 목적은 입력언어의 어구 분석을 이용하여 그 문장의 의미를 변환해주는 목적 언어를 생성하는 것이다. 그것은 언어적 구조 낱말 전사. 대화체 언어, 어휘적 정보 등을 포함해야 한다. 본 연구에서는 대화체 자동 기계번역 시스템 구현계획의 일부인 음성, 음운 분야에서 담당하게 될 음성인식과 음성합성 알고리듬을 확립하기 위한 한국어 특질에 대한 기초조사를 하고자 한다. 또한 기계번역의 단계를 분석하여 형태소 분석 단계와 구문 분석 단계, 의미 분석 단계로 구분한다. 형태소 분석은 입력 문장을 받아 분리된 형태소를 사전 내에서 검색하여·품사 정보를 얻고 이웃하는 단어와의 접속 관계가 문법적으로 올바르게 되었는지를 점검한다. 본 연구의 결과가 대화체 기계번역 시스템 구현계획의 종합적 입장에서는 단순한 기초조사일 수 있지만, 한국어의 교육 및 기계번역 이해의 측면에서는 그 자체로 가치를 지닌다고 할 수 있겠다. 따라서 교육적 측면에서의 직접적 활용을 여러 측면에서 고려할 수 있을 것이다.

  • PDF