• Title/Summary/Keyword: 음성효율

Search Result 869, Processing Time 0.033 seconds

Bimodal Speech Recognition Modeling Using Neural Networks (신경망을 이용한 이중모달 음성 인식 모델링)

  • 류정우;성지애;이순신;김명원
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.567-569
    • /
    • 2003
  • 최근 잡음환경에서 강인한 음성인식을 위해 음성 잡음에 영향을 받지 않은 영상정보를 이용한 이중모달 음성인식 연구가 활발히 진행되고 있다. 기존 음성인식기로 좋은 성능을 보이는 HMM은 이질적인 정보를 융합하는데 있어 많은 제약과 어려움을 가지고 있다. 하지만 신경망은 이질적인 정보를 효율적으로 융합할 수 있는 장점을 가지고 있으며 그에 대한 많은 연구가 수행되고 있다. 따라서 본 논문에서는 잡음환경에 강인한 이중모달 음성 인식 모델로 이중모달 신경망(BN-NN)을 제안한다. 이중모달 신경망은 특징융합 방법으로 음성정보와 영상정보를 융합하고 있으며. 입력정보의 특성을 고려하기 위해 윈도우와 중복영역의 개념을 적용하여 시제위치를 고려하도록 설계되어있다. 제안된 모델은 잡음환경에서 음성인식기와 성능을 비교하고, 화자독립 고립단어 인식에서 기존 융합방법인 CHMM과 비교하여 그 가능성을 확인한다.

  • PDF

Intelligent Classification and Context Analysis System of Voice Data (음성 데이터의 지능적 분류 및 컨텍스트 분석 시스템 구현)

  • Choi, HyeonSeok;Joo, SungHwan;Kim, DaeCheon;Park, YeChan;Yeom, Sanggil;Choo, HyeonSeung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.10a
    • /
    • pp.162-163
    • /
    • 2016
  • 사람은 의사소통을 위해 음성, 글자, 몸짓 등 다양한 매개체를 활용한다. 오늘날 스마트폰의 발달로 문자의 비중이 높아지고 있지만 음성 대화는 여전히 사람들 사이에서 가장 많이 사용되어지는 의사소통 수단이다. 음성 대화는 녹음해서 음성 데이터로 남길 수 있다. 음성을 녹음하는 과정은 간편하지만 녹음파일에서 원하는 데이터를 찾는 것은 많은 시간이 소모된다. 본 논문에서는 음성 데이터를 인식하여 텍스트화 시키고 문자화 된 데이터를 분석하여 사용자에게 효율적으로 분류하는 시스템을 제안한다. 이 시스템으로 사용자는 음성 데이터의 내용을 들어보지 않고 파악할 수 있으며 원하는 내용을 찾을 수도 있다.

Performance Analysis of Speech Recognition by Increasing the Number of Reference Speaker (피춰 추출 관점에서 기준 화자 수 증가에 따른 음성 인식 성능 분석)

  • 이철희
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 1998.06a
    • /
    • pp.111-114
    • /
    • 1998
  • 음성을 인식하기 위해서는 주어진 음성을 미리 정한 기준 음성과 비교하여 가장 유사한 것을 갖는 과정을 거치게 된다. 같은 단어라도 화자에 따라서 발음 속도, 음의 강약이 틀리므로 화자 독립 음성 인식을 위해서는 여러 화자가 발음한 음성을 기준 음성으로 사용하여 인식 성능을 향상시킬 수 있다. 그러나 화자 수를 증가시켜도 인식 성능의 향상에는 한계를 보이고 있다. 이러한 문제점은 현재 음성에서 추출되는 피춰가 인식에 필요한 정보를 충분히 포함하지 않는 것과 인식 알고리즘의 효율성 등에서 원인을 찾을 수 있다. 본 논문에서는 남자 10명과 여자 10명이 발음한 한국어 숫자음을 인식 대상으로 하여 멜켑스트럼을 추출하고 DTW에 의해 인식을 수행하여 피춰 추출의 관점에서 화자 수 증가에 따른 인식률의 변화와 그 한계에 대해서 분석한다.

  • PDF

Audio-Visual Integration based Multi-modal Speech Recognition System (오디오-비디오 정보 융합을 통한 멀티 모달 음성 인식 시스템)

  • Lee, Sahng-Woon;Lee, Yeon-Chul;Hong, Hun-Sop;Yun, Bo-Hyun;Han, Mun-Sung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11a
    • /
    • pp.707-710
    • /
    • 2002
  • 본 논문은 오디오와 비디오 정보의 융합을 통한 멀티 모달 음성 인식 시스템을 제안한다. 음성 특징 정보와 영상 정보 특징의 융합을 통하여 잡음이 많은 환경에서 효율적으로 사람의 음성을 인식하는 시스템을 제안한다. 음성 특징 정보는 멜 필터 캡스트럼 계수(Mel Frequency Cepstrum Coefficients: MFCC)를 사용하며, 영상 특징 정보는 주성분 분석을 통해 얻어진 특징 벡터를 사용한다. 또한, 영상 정보 자체의 인식률 향상을 위해 피부 색깔 모델과 얼굴의 형태 정보를 이용하여 얼굴 영역을 찾은 후 강력한 입술 영역 추출 방법을 통해 입술 영역을 검출한다. 음성-영상 융합은 변형된 시간 지연 신경 회로망을 사용하여 초기 융합을 통해 이루어진다. 실험을 통해 음성과 영상의 정보 융합이 음성 정보만을 사용한 것 보다 대략 5%-20%의 성능 향상을 보여주고 있다.

  • PDF

Blmodal Speech Recognition Using Contextual Feature (문맥정보를 이용한 이중모드 음성인식)

  • 류정우;김은주;김명원
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.631-633
    • /
    • 2004
  • 최근 잡음환경에서 신뢰도 높은 음성인식을 위해 음성정보와 영상정보를 융합하는 이중모드 음성인식 방법이 활발히 연구되고 일다. 본 논문에서는 보다 음성 인식률을 향상시키기 위해 사용자가 말한 단어들의 순차 패턴을 나타내는 문맥정보를 이용한 후처리 방법을 제안한다. 이러한 문맥정보를 인식하기 위해 다층퍼셉트론 구조를 갖는 문맥정보 인식기를 제안한다 이중모드 음성인식기와 문맥정보 인식기 결과를 효율적으로 결합하기 위한 후처리 방법으로 순차 결합방법을 제안한다. 문맥정보를 이용한 이중모드 음성인식이 잡음 환경에서 90%이상의 인식률을 보였다 본 논문은 잡음환경에서 강인한 음성인식을 위해 문맥정보와 같은 사용자 행동패턴이 새로운 정보로 이용될 수 있다는 가능성을 제시한다.

  • PDF

음성입출력장치의 성능평가

  • 이용주;김경태;정현열;조철우
    • Information and Communications Magazine
    • /
    • v.11 no.9
    • /
    • pp.79-92
    • /
    • 1994
  • 음성인식 및 합성 시스템으로 대표되는 음성입출력장치의 개발 및 실용화에 따라 이들의 성능을 객관적으로 평가할 수 있는 방법이 중요하게 되었다. 그러나 국내에서의 이분야에 대한 체계적인 연구는 맞지 않다. 본고에서는 이와 관련한 지금까지의 국내외 연구예들을 검토하고 우리 실정에 맞는 평가법 작성을 위한 방법을 모색하고자 한다. 음성입출력장치의 객관적인 평가방법이 확립되면 연구 개발자는 여러방식의 우열을 객관적으로 파악할 수 있고 신뢰성있는 시스템을 효율적으로 개발할 수 있으며 관련제품의 사용자입장에서는 제품간의 성능비교가 가능하게 될 것이다.

  • PDF

The Full-Duplex and Real-Time Implementation of QCELP Vocoder (QCELP 음성부호화기의 양방향 실시간 구현)

  • 장석진
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1995.06a
    • /
    • pp.239-241
    • /
    • 1995
  • 본 논문은 CELP 계열인 QCELP의 성능 평가와 설계된 효율적인 구조, 구현된 양방향 실시간 시스템에 대해 기술한다. 공인된 음성 샘플을 이용 SNR 과 분할 SNR 의 객관적 테스트를 수행하여 QCELP의 성능을 확인하였다. 본 실에서는 QCELP 알고리듬이 하나의 DSP 칩에 이식되고, 무선 환경하에서 실시간으로 음성 부호화 과정을 수행할 수 있도록 새로운 고조를 설계하였다. 다음에 본 실에서는 양 방향 통신의 하드웨어 플랫폼을 구성하여 설계된 QCELP 구조의 타당성을 입증하였다. 본 실에서 구현된 QCELP 음성부호화기는 현재 ETRI에서 개발된 디지틀 이동 통신 시스템인 CMS -2에서 사용되어 그 성능이 입증되었다.

  • PDF

Frequency-Weighting linear predictive analysis of speech (Frequency-Weighting을 이용한 음성의 선형상측)

  • 김상준;윤종관;조동활
    • The Journal of the Acoustical Society of Korea
    • /
    • v.4 no.1
    • /
    • pp.43-54
    • /
    • 1985
  • 이 논문에서는 Frequency weighting을 이용하여 선형예측 부호화기의 명료성을 개선하는 방법 을 연구한다. 잡음이 섞이지 않은 음성에 대해서는 음성을 분석하기전에 frequency weighting을 행한다. 또한 잡음이 섞인 음성인 경우에는 잡음성분을 spectral subtraction 방법에 의해서 제거한 다음에 frequency weighting을 준다. 이 때 frequency weighting을 주기 위해서 귀의 특성과 연관되어 잘 알려 진 C- message weighting 함수, flanagan weighting 함수 및 articulation index를 약간 수정한 weighting 함수를 사용했다. 여러 객관적인 distance measure를 사용하여 frequency weighting 방법의 성능을 측정하고 귀로 들어 본 결과, frequency weighting 방법을 사용하여 선형예측 방법에 의한 합성 음의 명료도를 효율적으로 개선할 수 있었다.

  • PDF

음성인식기반 관제일지 자동화 시스템 개발에 관한 연구

  • 남경태;김남수;이영근;정현우
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2022.06a
    • /
    • pp.21-23
    • /
    • 2022
  • 본 연구는 해상교통관제에서 주 교신수단으로 사용되는 VHF 통신의 음성데이터를 음성인식기술을 이용하여 문자로 자동변환하고 이를 기반으로 관제일지를 자동화하여 관리하는 시스템의 개발에 대한 것으로, 현재 수기에 의해 작성되는 관제일지를 표준화하고 전자화하여 관제사의 업무효율을 향상시키고, VHF 교신데이터의 활용성을 최대화하는 것을 목표로 하는 연구이다..

  • PDF

Cooking with a smart speaker: User experience of cooking with a voice-only recipe service (스마트 스피커와 요리하기: 음성기반 레시피 제공 서비스의 사용자 경험)

  • Jung, Gumin;Jeong, Heisawn
    • Journal of the Korea Computer Graphics Society
    • /
    • v.27 no.5
    • /
    • pp.13-23
    • /
    • 2021
  • This study examined how users use smart speakers in cooking situations. Skilled and unskilled participants cooked a new recipe while following voice instructions delivered by a smart speaker. The results from video recordings of their cooking, think-aloud protocols, and interviews showed that the smart speakers freed users' hands, allowing them to cook while checking recipes. The lack of visual information did not pose a serious challenge to the cooking task, but impacted cooking quality. The implications for VUI-based recipe service designs are discussed.