On the Behavior of the Signed Regressor Least Mean Squares Adaptation with Gaussian Inputs

가우시안 입력신호에 대한 Signed Regressor 최소 평균자승 적응 방식의 동작 특성

  • Published : 1993.07.01

Abstract

The signed regressor (SR) algorithm employs one bit quantization on the input regressor (or tap input) in such a way that the quantized input sequences become +1 or -1. The algorithm is computationally more efficient by nature than the popular least mean square (LMS) algorithm. The behavior of the SR algorithm unfortunately is heavily dependent on the characteristics of the input signal, and there are some Inputs for which the SR algorithm becomes unstable. It is known, however, that such a stability problem does not take place with the SR algorithm when the input signal is Gaussian, such as in the case of speech processing. In this paper, we explore a statistical analysis of the SR algorithm. Under the assumption that signals involved are zero-mean and Gaussian, and further employing the commonly used independence assumption, we derive a set of nonlinear evolution equations that characterizes the mean and mean-squared behavior of the SR algorithm. Experimental results that show very good agreement with our theoretical derivations are also presented.

Signed Regressor 적응 알고리즘은 한 비트 양자화를 이용하여 탭 입력이 +1또는 -1이 되도록 양자화한다. 따라서 이미 널리 사용되고 있는 Least Mean Square (LMS) 알고리즘에 비하여 계산량 측면에서 효율적이다. 그러나 SR 알고리즘의 동작특성은 입력신호의 특성에 매우 종속적이며, 효율성을 위하여 성능을 약간 희생한다. 본 논문에서는 이 SR 알고리즘의 동작특성에 대하여 통계적 분석을 하였다. 이를 위해, 사용되는 신호가 평균이 제로인 가우시안 신호라는 가정과 이러한 분석에 이미 널리 통용되어 사용되는 독립가정을 이용하여, SR 알고리즘의 평균 및 평균자승 특성을 나타내는 일련의 비선형 관계식을 유도하였다. 그리고 유도된 이론적 결과가 실험적 결과와 매우 일치함을 보였다.

Keywords