• 제목/요약/키워드: Voice Recognition Technique

검색결과 43건 처리시간 0.022초

Diagnosis of rotating machines by utilizing a back propagation neural net

  • Hyun, Byung-Geun;Lee, Yoo;Nam, Kwang-Hee
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1994년도 Proceedings of the Korea Automatic Control Conference, 9th (KACC) ; Taejeon, Korea; 17-20 Oct. 1994
    • /
    • pp.522-526
    • /
    • 1994
  • There are great needs for checking machine operation status precisely in the iron and steel plants. Rotating machines such as pumps, compressors, and motors are the most important objects in the plant maintenance. In this paper back-propagation neural network is utilized in diagnosing rotating machines. Like the finger print or the voice print of human, the abnormal vibrations due to axis misalignment, shaft bending, rotor unbalance, bolt loosening, and faults in gear and bearing have their own spectra. Like the pattern recognition technique, characteristic. feature vectors are obtained from the power spectra of vibration signals. Then we apply the characteristic feature vectors to a back propagation neural net for the weight training and pattern recognition.

  • PDF

Automatic Detection of Korean Accentual Phrase Boundaries

  • Lee, Ki-Yeong;Song, Min-Suck
    • The Journal of the Acoustical Society of Korea
    • /
    • 제18권1E호
    • /
    • pp.27-31
    • /
    • 1999
  • Recent linguistic researches have brought into focus the relations between prosodic structures and syntactic, semantic or phonological structures. Most of them prove that prosodic information is available for understanding syntactic, semantic and discourse structures. But this result has not been integrated yet into recent Korean speech recognition or understanding systems. This study, as a part of integrating prosodic information into the speech recognition system, proposes an automatic detection technique of Korean accentual phrase boundaries by using one-stage DP, and the normalized pitch pattern. For making the normalized pitch pattern, this study proposes a method of modified normalization for Korean spoken language. For the experiment, this study employs 192 sentential speech data of 12 men's voice spoken in standard Korean, in which 720 accentual phrases are included, and 74.4% of the accentual phrase boundaries are correctly detected while 14.7% are the false detection rate.

  • PDF

한국어 음운체계를 고려한 화자적응 실시간 단모음인식에 관한 연구 (Speaker Adapted Real-time Dialogue Speech Recognition Considering Korean Vocal Sound System)

  • 황선민;윤한경;송복희
    • 한국정보전자통신기술학회논문지
    • /
    • 제6권4호
    • /
    • pp.201-207
    • /
    • 2013
  • 음성인식에 관한 연구는 꾸준히 발전되어 다양한 분야에서 제품에 적용되고 있으며, 특히 스마트폰과 차량의 내비게이션 시스템과 같은 정보기기에서의 적용은 매우 활발히 이루어지고 있는 것이 현실임에도 불구하고 음성인식 연구에서 한국어의 음운 특성을 고려한 연구는 미흡한 것도 현실이다. 디지털 콘텐츠에서 일반적으로 립 싱크의 제작은 애니메이터의 수작업을 반드시 필요로 하며, 이는 시간의 투입을 요하는 지루한 작업이다. 립 싱크를 자동 생성하는 응용 소프트웨어를 사용하기도 하나 반드시 수작업으로 수정과 보정 단계가 요구될 뿐만 아니라 영어 기반으로 제작된 립 싱크 자동생성 소프트웨어를 적용하므로 한국어 음운체계가 달라 자연스러운 립 싱크를 얻기 위하여 많은 시간과 노력이 요구된다. 따라서 본 연구에서는 한국어 음운체계를 고려한 가상 오브젝트들의 립 싱크를 자동 생성하기 위한 화자 독립 기반 한국어 단모음 실시간 인식 알고리즘을 개발을 목표로 하며, 그 인식 결과는 립 싱크의 애니메이션 키로 활용하고자 한다.

한글 단어의 음성 인식 처리에 관한 연구 (A Study on Processing of Speech Recognition Korean Words)

  • 남기훈
    • 문화기술의 융합
    • /
    • 제5권4호
    • /
    • pp.407-412
    • /
    • 2019
  • 본 논문에서는 한글 단어 단위의 음성 인식 처리 기술을 제안한다. 음성 인식은 마이크와 같은 센서를 사용하여 얻은 음향학적 신호를 단어나 문장으로 변환시키는 기술이다. 대부분의 외국어들은 음성 인식에 있어서 어려움이 적은 편이다. 그에 반면, 한글의 모음과 받침 자음 구성이어서 음성 합성 시스템으로부터 얻은 문자를 그대로 사용하기에는 부적절하다. 기존 구조의 음성 인식 기술을 개선해야만 보다 정확하게 단어를 인식할 수 있다. 이러한 문제를 해결하기 위해 기존 방식의 음성 인식구조에 새로운 알고리즘을 추가하여 음성 인식률을 높이게 하였다. 먼저 입력된 단어를 전처리 과정을 수행한 후 결과를 토큰 처리한다. 레벤스테인 거리 알고리즘과 해싱 알고리즘에서 처리된 결과 값을 조합한 후 자음 비교 알고리즘을 거쳐 표준 단어를 출력한다. 최종 결과 단어를 표준화 테이블과 비교하여 존재하면 출력하고 존재하지 않으면 테이블에 등록하도록 하였다. 실험 환경은 스마트폰 응용 프로그램을 개발하여 사용하였다. 본 논문에서 제안된 구조는 기존 방식에 비해 인식률의 성능이 표준어는 2%, 방언은 7% 정도 향상되었음을 보였다.

양자 간 대화 상황에서의 화자인식을 위한 문장 시퀀싱 방법을 통한 자동 말투 인식 (Automatic Speech Style Recognition Through Sentence Sequencing for Speaker Recognition in Bilateral Dialogue Situations)

  • 강가람;권오병
    • 지능정보연구
    • /
    • 제27권2호
    • /
    • pp.17-32
    • /
    • 2021
  • 화자인식은 자동 음성시스템에서 중요한 기능을 담당하며, 최근 휴대용 기기의 발전 및 음성 기술, 오디오 콘텐츠 분야 등이 계속해서 확장됨에 따라 화자인식 기술의 중요성은 더구나 부각 되고 있다. 이전의 화자인식 연구는 음성 파일을 기반으로 화자가 누구인지 자동으로 판정 및 정확도 향상을 위한 목표를 가지고 진행되었다. 한편 말투는 중요한 사회언어학적 소재로 사용자의 사회적 환경과 밀접하게 관련되어 있다. 추가로 화자의 말투에 사용되는 종결어미는 문장의 유형을 결정하거나 화자의 의도, 심리적 태도 또는 청자에 대한 관계 등의 기능과 정보를 가지고 있다. 이처럼 종결어미의 활용형태는 화자의 특성에 따라 다양한 개연성이 있어 특정 미확인 화자의 종결어미의 종류와 분포는 해당 화자를 인식하는 것에 도움이 될 것으로 보인다. 기존 텍스트 기반의 화자인식에서 말투를 고려한 연구가 적었으며 음성 신호를 기반으로 한 화자인식 기법에 말투 정보를 추가한다면 화자인식의 정확도를 더욱 높일 수 있을 것이다. 따라서 본 연구의 목적은 한국어 화자인식의 정확도를 개선하기 위해 종결어미로 표현되는 말투(speech style) 정보를 활용한 방법을 제안하는 것이다. 이를 위해 특정인의 발화 내용에서 등장하는 종결어미의 종류와 빈도를 활용하여 벡터값을 생성하는 문장 시퀀싱이라는 방법을 제안한다. 본 연구에서 제안한 방법의 우수성을 평가하기 위해 드라마 대본으로 학습 및 성능평가를 수행하였다. 본 연구에서 제안한 방법은 향후 실존하는 한국어 음성인식 서비스의 성능 향상을 위한 수단으로 사용될 수 있으며 지능형 대화 시스템 및 각종 음성 기반 서비스에 활용될 것을 기대한다.

최소 분류 오차 기법과 멀티 모달 시스템을 이용한 감정 인식 알고리즘 (Emotion Recognition Algorithm Based on Minimum Classification Error incorporating Multi-modal System)

  • 이계환;장준혁
    • 대한전자공학회논문지SP
    • /
    • 제46권4호
    • /
    • pp.76-81
    • /
    • 2009
  • 본 논문에서는 최소 분류 오차 기법 (Minimum Classification Error, MCE)에 기반한 감정 인식을 위한 알고리즘 멀티 모달(Multi-modal) 시스템을 기반으로 제안한다. 사람의 음성 신호로부터 추출한 특징벡터와 장착한 바디센서로부터 구한 피부의 전기반응도 (Galvanic Skin Response, GSR)를 기반으로 특징벡터를 구성하여 이를 Gaussian Mixture Model (GMM)으로 구성하고 이를 기반으로 구해지는 로그 기반의 우도 (Likelihood)를 사용한다. 특히, 변별적 가중치 학습을 사용하여 최적화된 가중치를 특징벡터에 인가하여 주요 감정을 식별하는 데 이용하여 성능향상을 도모한다. 실험결과 제안된 감정 인식이 기존의 방법보다 우수한 성능을 보인 것을 알 수 있었다.

감정 표현 방법: 운율과 음질의 역할 (How to Express Emotion: Role of Prosody and Voice Quality Parameters)

  • 이상민;이호준
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권11호
    • /
    • pp.159-166
    • /
    • 2014
  • 본 논문에서는 감정을 통해 단어의 의미가 변화될 때 운율과 음질로 표현되는 음향 요소가 어떠한 역할을 하는지 분석한다. 이를 위해 6명의 발화자에 의해 5가지 감정 상태로 표현된 60개의 데이터를 이용하여 감정에 따른 운율과 음질의 변화를 살펴본다. 감정에 따른 운율과 음질의 변화를 찾기 위해 8개의 음향 요소를 분석하였으며, 각 감정 상태를 표현하는 주요한 요소를 판별 해석을 통해 통계적으로 분석한다. 그 결과 화남의 감정은 음의 세기 및 2차 포먼트 대역너비와 깊은 연관이 있음을 확인할 수 있었고, 기쁨의 감정은 2차와 3차 포먼트 값 및 음의 세기와 연관이 있으며, 슬픔은 음질 보다는 주로 음의 세기와 높낮이 정보에 영향을 받는 것을 확인할 수 있었으며, 공포는 음의 높낮이와 2차 포먼트 값 및 그 대역너비와 깊은 관계가 있음을 알 수 있었다. 이러한 결과는 감정 음성 인식 시스템뿐만 아니라, 감정 음성 합성 시스템에서도 적극 활용될 수 있을 것으로 예상된다.

HEEAS: 감정표현 애니메이션 알고리즘과 구현에 관한 연구 (HEEAS: On the Implementation and an Animation Algorithm of an Emotional Expression)

  • 김상길;민용식
    • 한국콘텐츠학회논문지
    • /
    • 제6권3호
    • /
    • pp.125-134
    • /
    • 2006
  • 본 논문은 음성이 인간에게 전달되어 나타나는 여러 가지 감정 표현 중에서 단지 4가지 감정 즉 두려움, 싫증, 놀람 그리고 중성에 대한 감정 표현이 얼굴과 몸동작에 동시에 나타내는 애니메이션 시스템인 HEEAS(Human Emotional Expression Animation System)를 구현하는데 그 주된 목적이 있다. 이를 위해서 본 논문에서는 감정 표현이 풍부한 한국인 20대 청년을 모델로 설정하였다. 또한 입력되어진 음성 신호를 통해서 추출된 감정표현에 대한 데이터를 얼굴코드와 몸동작코드를 부여하고 이를 데이터 베이스화 하여 실제 애니메이션 구현을 하기 위한 처리의 시간을 최소화하였다. 즉, 입력되어진 음성 신호를 이용해서 원하는 결과인 얼굴, 몸동작에 대한 자료를 이진 검색을 이용해서 데이터베이스에서 찾으므로 검색 시간을 최소화하였다. 실제 감정 표현에 대한문제들을 실험을 통해서 얻은 결과가 99.9%의 정확도임을 알 수가 있었다.

  • PDF

음성인식모듈을 이용한 선박조타용 임베디드 시스템 개발 (Development of an Embedded System for Ship선s Steering Gear using Voice Recognition Module)

  • 박계각;서기열;홍태호
    • 한국지능시스템학회논문지
    • /
    • 제14권5호
    • /
    • pp.604-609
    • /
    • 2004
  • 최근 국내외적으로 소형선박의 효율적인 운용을 위해서 많은 자동화 기술의 발전을 이루었으나, 이에 따른 선박 운용은 더욱 복잡해져 각종 계기와 선박 기기를 조작해야하는 번거로움이 있다. 이러한 문제를 해결하기 위하여 휴먼 인터페이스 기술의 하나인 음성정보처리기술을 선박 운용시스템에 적용한 연구 사례가 있으나 아직까지 구체적인 시스템 구현이 미비하다고 할 수 있다. 따라서, 본 논문에서는 선박운항자의 및 부담경감 및 효율적인 선박운용을 위하여 음성인식 모델을 이용한 선박조타용 임베디드 시스템을 구현하고자 한다. 구체적인 연구방법으로는, 화자독립방식의 음성인식 모듈(VR-33R)을 이용하여 선박의 조타기를 제어할 수 있는 임베디드 시스템을 설계 및 구현하고, 실제 선박시스템을 축소한 모형선박의 조타시스템에 적용하여 그 효용성을 확인하고, 실용화를 위한 방안을 모색하고자 한다.

구두 형식의 전자적 브레인 스토밍이 인지적 자극에 미치는 영향에 대한 실증적 연구 (Empirical Validation for Verbal- EBS Effect to Cognitive Stimulation)

  • 김정욱;정종호
    • 품질경영학회지
    • /
    • 제36권2호
    • /
    • pp.67-84
    • /
    • 2008
  • Given the industry's unprecedented attention and dedication of resources to voice recognition, this paper introduces and explores a novel idea generation technique whereby ideas are captured directly through verbalization rather than forcing group members to type ideas. A group simulator was used to measure the idea generation performance of individuals who input ideas verbally or via typing in the context of nominal and interacting groups. The results clearly indicate that verbal input represents a more desirable mechanism in a computer-mediated idea generation environment. Liberating group members from the keyboard produces remarkable performance gains. Verbalizing ideas helps individuals focus on analytical thinking and leverage group member ideas, ultimately facilitating the creation of ideas pools that are vastly superior in terms of quantity and quality. These effects were found across nominal and interacting groups. The implications of these results for future research and the design of technologies are discussed.