• 제목/요약/키워드: Speaker Detection

검색결과 108건 처리시간 0.027초

화자 겹침 검출 시스템의 프레임워크 전환 연구 (Framework Switching of Speaker Overlap Detection System)

  • 김회남;박지수;차신;손경아;윤영선;박전규
    • 한국소프트웨어감정평가학회 논문지
    • /
    • 제17권1호
    • /
    • pp.101-113
    • /
    • 2021
  • 본 논문에서는 화자 겹침 시스템을 소개하고 인공지능 분야에서 널리 사용되는 프레임워크에서 이미 구축된 시스템을 전환하는 과정을 고찰하고자 한다. 화자 겹침은 대화 과정에서 두 명 이상의 화자가 동시에 발성하는 것을 말하며, 사전에 화자 겹침을 탐지하여 음성인식이나 화자인식의 성능 저하를 예방할 수 있으므로 많은 연구가 진행되고 있다. 최근 인공지능을 이용한 다양한 응용 시스템의 활용도가 높아지면서 인공지능 프레임워크 (framework) 간의 전환이 요구되고 있다. 그러나 프레임워크 전환 시 각 프레임워크의 고유 특성에 의하여 성능 저하가 관찰되고 있으며 이는 프레임워크 전환을 어렵게 하고 있다. 본 논문에서는 케라스 (Keras) 기반 화자 겹침 시스템을 파이토치 (pytorch) 시스템으로 전환하는 과정을 기술하고 고려해야 할 구성 요소들을 정리하였다. 프레임워크 전환 결과 기존 케라스 기반 화자 겹침 시스템보다 파이토치로 전환된 시스템에서 더 좋은 성능을 보여 체계적인 프레임워크 전환의 기본 연구로서 가치를 지닌다고 할 수 있다.

DTW를 이용한 향상된 문맥 제시형 화자인식 (An Enhanced Text-Prompt Speaker Recognition Using DTW)

  • 신유식;서광석;김종교
    • 한국음향학회지
    • /
    • 제18권1호
    • /
    • pp.86-91
    • /
    • 1999
  • 본 연구에서는 문맥 종속 또는 문맥 독립형 화자 인식에서의 단점을 개선하는 방법으로 문맥 제시형 화자 인식 실험을 수행하였다. 화자 인식 알고리즘으로는 개선된 Dynamic Time Warping(DTW)을 사용하였고 실시간 처리를 위하여 전체 계산량을 증가시키지 않는 아주 간단한 끝점검출알고리즘을 사용하였으며, 여러 가지 다양한 특징 파라미터를 이용하여 인식실험을 행한 결과 weighted cepstrum을 이용했을 때 가장 좋은 인식성능을 얻을 수 있었다. 실험결과 세 개의 단어를 제시하였을 경우 화자식별오류는 0.02%를 보였고, 화자확인은 문턱값을 적절히 정했을 때 사용자 거부율 1.89%, 사칭자 허용률 0.77%, 총 확인 오류0.97%를 보였다.

  • PDF

피치 검출과 퍼지화 패턴을 이용한 숫자음 화자 인식에 관한 연구 (A Study on Number sounds Speaker recognition using the Pitch detection and the Fuzzified pattern)

  • 김연숙;김희주;김경재
    • 한국컴퓨터정보학회논문지
    • /
    • 제8권3호
    • /
    • pp.73-79
    • /
    • 2003
  • 본 논문에서는 피치 검출과 퍼지화 패턴 매칭을 포함하는 화자 인식 알고리즘을 제안한다. 음의 개성을 표현하는 피치를 이용한 피치 패턴을 사용하고 음성의 파라미터는 2진화 스펙트럼을 사용한다. 비선형적인 발성 시간에 따른 시간 변동의 폭을 모두 포함할 수 있도록 음성 신호의 애매성을 보완할 수 있는 퍼지의 소속 함수를 이용하여 표준 패턴을 작성하고 퍼지화 패턴 매칭을 이용하여 인식을 수행한다.

  • PDF

PVPF방법과 퍼지 이론을 이용한 한국어, 영어 및 일본어 화자 인식에 관한 연구 (A Study on Korean, English and Japanese Speaker Recognitions Using the Peak and Valley Pitch Detection and the Fuzzy Theory)

  • 김연숙
    • 한국정보처리학회논문지
    • /
    • 제6권2호
    • /
    • pp.522-533
    • /
    • 1999
  • 본 논문에서는 피지 파라미터와 퍼지 추론을 포함한 화자 인식 알고리즘을 제안한다. 시간영역에서 검출 알고리즘의 장점인 잡음에 강인함을 가진 PVPF 법을 제안하여 피치를 검출한다. 또한 화자 인식에서 특징량들의 애매성을 표현하고 인식하는 방법으로 퍼지 이론을 도입하였다. PVPF는 음의 시간적인 특징을 이용하여 국부적으로 봉우리와 골을 이룬다는 것을 이용한 계산량이 적고 잡음에 강인한 피치 검출법이다.

  • PDF

500단어급 핵심어 검출기에서 화자적응 성능 평가 (Speaker Adaptation Performance Evaluation in Keyword Spotting System)

  • 서현철;이경록;김진영;최승호
    • 대한음성학회지:말소리
    • /
    • 제43호
    • /
    • pp.151-161
    • /
    • 2002
  • This study presents performance analysis results of speaker adaptation for keyword spotting system. In this paper, we implemented MLLR (Maximum Likelihood Linear Regression) method on our middle size vocabulary keyword spotting system. This system was developed for directory services of universities and colleges. The experimental results show that speaker adaptation reduces the false alarm rate to 1/3 with the preservation of the mis-detection ratio. This improvement is achieved when speaker adaptation is applied to not only keyword models but also non-keyword models.

  • PDF

피치계수를 이용한 화자인식에 관한 연구 (A study on the Speaker Recognition using the Pitch)

  • 김에녹
    • 한국컴퓨터산업학회논문지
    • /
    • 제2권4호
    • /
    • pp.471-480
    • /
    • 2001
  • 본 연구에서는 적응 공명 이론(ART2) 모델을 이용하여 화자인식 실험을 수행하였으며, 모을 검출을 통하여 미리 등록된 단어가 아닌 경우에도 화자를 인식할 수 있도록 특징 파라메터를 개발하였다. 실험을 위해 0에서 9까지의 숫자 음을 남성화자와 여성화자 각각 5명씩 발음하여 사용하였으며, 이들 음성 데이터로부터 모음을 추출한 다음 얻어진 피치 계수, 선형예측 계수, 선형예측 켑스트럼 계수를 신경망의 입력 패턴으로 입력시켜 인식 성능을 측정하였다. 실험 결과 피치를 사용하는 것이 텍스트-의존, 텍스트-독립 화자인식 모두에서 다른 계수들을 사용하는 것보다 우수한 성능을 보이고 있다.

  • PDF

음성의 묵음구간 검출을 통한 DTW의 성능개선에 관한 연구 (A Study on the Improvement of DTW with Speech Silence Detection)

  • 김종국;조왕래;배명진
    • 음성과학
    • /
    • 제10권4호
    • /
    • pp.117-124
    • /
    • 2003
  • Speaker recognition is the technology that confirms the identification of speaker by using the characteristic of speech. Such technique is classified into speaker identification and speaker verification: The first method discriminates the speaker from the preregistered group and recognize the word, the second verifies the speaker who claims the identification. This method that extracts the information of speaker from the speech and confirms the individual identification becomes one of the most efficient technology as the service via telephone network is popularized. Some problems, however, must be solved for the real application as follows; The first thing is concerning that the safe method is necessary to reject the imposter because the recognition is not performed for the only preregistered customer. The second thing is about the fact that the characteristic of speech is changed as time goes by, So this fact causes the severe degradation of recognition rate and the inconvenience of users as the number of times to utter the text increases. The last thing is relating to the fact that the common characteristic among speakers causes the wrong recognition result. The silence parts being included the center of speech cause that identification rate is decreased. In this paper, to make improvement, We proposed identification rate can be improved by removing silence part before processing identification algorithm. The methods detecting speech area are zero crossing rate, energy of signal detect end point and starting point of the speech and process DTW algorithm by using two methods in this paper. As a result, the proposed method is obtained about 3% of improved recognition rate compare with the conventional methods.

  • PDF

스마트 디바이스를 활용한 가청, 비가청 신호 기반 피난방향 탐지 기법 연구 (Study on the direction detection based on audible and non-audible signals using smart devices)

  • Hyun, Byeongchun;Yun, Younguk;Park, Yohan;Kim, Youngok
    • 한국재난정보학회 논문집
    • /
    • 제13권1호
    • /
    • pp.51-58
    • /
    • 2017
  • 본 논문에서는 재난 발생 시 지향성 스피커와 스마트 디바이스를 활용한 피난 방향 탐지기법을 제안하고자 한다. 본 논문에서 제안하는 기법은 연기, 소음 등의 원인으로 출구 방향조차 알 수 없는 최악의 재난 환경에서 지향성 스피커로부터 송출되는 가청 비 가청 주파수 대역의 안내 방송을 스마트 디바이스로 수신함으로써, 피난 경로를 안내받을 수 있는 기법이다. 제안하는 기법의 성능평가는 대형 실내공간에서 제조사가 다른 3종류의 스마트 디바이스를 이용하여 스피커로부터 송출되는 소리 신호의 방향을 탐지하여 스피커가 설치된 출구 방향을 탐지하는 것으로 평가하였다. 또한, 거리별 신호 세기와 주파수 특성을 통한 신호검출 실험을 수행하였다. 실험결과를 통해 스마트 디바이스가 스피커로부터 최대 20m까지 떨어져 있더라도 신호의 송출 방향 탐지가 가능함을 확인하였고, 스마트 디바이스로 8kHz와 20kHz 신호 검출을 통해 본 논문에서 제안하는 기술에 대한 가능성을 확인하였다.

화자인식을 이용한 대화 상황정보 어노테이션 (Conversation Context Annotation using Speaker Detection)

  • 박승보;김유원;조근식
    • 한국멀티미디어학회논문지
    • /
    • 제12권9호
    • /
    • pp.1252-1261
    • /
    • 2009
  • 효율적인 영상의 검색과 동영상의 축약을 위해 선행되어야 하는 것이 동영상 정보에서 의미를 추출하여 영상 정보를 어노테이션 하는 작업이다. 어노테이션을 위한 동영상의 의미 정보는 다양한 방식에 의해 얻어질 수 있다. 동영상의 의미정보는 영상의 개체들의 단순한 정체 정보를 추출하는 방식과 개체들이 만들어 내는 상황정보를 추출하는 방식으로 구분될 수 있다. 하지만 개체들의 단순 정보만으로 어노테이션을 진행하기 보다는 개체들 간의 상호작용이나 관계에 대한 표현을 개체 정보와 함께 고려하여 대화 상황에 대한 온전한 의미를 어노테이션 하는 것이 더욱 좋다. 본 논문은 영상으로부터 화자정보를 추출하고 대화상황을 구성하여 어노테이션 하는 것에 대한 연구이다. 인식된 얼굴 정보로부터 현재 영상에 누가 있는 지 알아낸 후 입의 움직임을 분석하여 화자가 누구인지 알아내고, 화자와 청자 및 자막의 유무를 통해 대화 상황을 추출하여 XML로 변환하는 방법을 본 연구에서 제안한다.

  • PDF

청각 모델을 이용한 Cochannel 음성에서의 피치 추출에 관한 연구 (A Study on Pitch Detection using Cochlear Model on Cochannel Speech)

  • 신대규;신중인;이재혁;한두진;박상희
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제49권6호
    • /
    • pp.330-333
    • /
    • 2000
  • In this paper, a new pitch estimation method is proposed using the Robinson cochlear model. This estimation method is useful in noisy environments and especially very efficient under cochannel in which two speaker voices exist at the same time. For the one speaker speech, the pitch can be extracted from just the neurogram of the Robinson cochlear model. In this case, as the estimation is performed in time domain, the exact pitch period can be detected though the pitch period is various. But in noisy and cochannel cases, the neurogram has many spurious peaks, so we use the autocorrelators in the neurogram to manifest the period. It the autocorrelators are used for the all delays, the large amount of calculations is necessary. Due to this defect, we propose that the autocorrelators are used for the part of the delays on which energy is concentrated. First of all, the proposed algorithm is applied to the one speaker speech, and later to the cochannel speech. And then the results are compared with the autocorrelation pitch detection method.

  • PDF