标准文档
在加权情况下,
1????M
1?? (4-37)
由此可见,在不加权情况下,失调量随时间增加而趋于0,这意味着输
2出的均方误差随时间的增长而趋于理论最小值?V,在指数加权的情况下, 失调量?渐进于
?(n)C?T(n)]??2E[CV
2(?n?l)?n(??n?j)2j?1j?1nRx?1(4-38
)
显然?值越小,失调量越大。从而收敛性变差。
在最小二乘法(RLS)算法引入了?的意义。统计量的计算是从零时刻开始的,如果不引入遗忘因子,所有采样点数据对当前估计量估计的贡献是相等的,在时变条件下,这显然不合理,因为离当前时刻比较远的数据,其信道与当前信道时域相关度越低,而通过引入0到1之间的取值?,可以令离当前时刻越远的采样数据对统计量估计的贡献越小,由此可以实现对时变信道的有效跟踪。另外,通过调节?的大小,可以使算法适用于不同的信道时变速率环境。例如,信道时变速率较慢时可选用较大的?,反之则选用较小的?。
结论
自适应滤波是信号处理的重要基础,近年来发展速度很快,在各个领域取得了广泛的应用。在实际问题当中,迫切需要研究有效,实用的自适应滤波算法。围绕这个课题,本文在阅读大量文献的基础上,对自适应滤波的多种算法进行了分析和研究,其中详细分析了LMS算法和RLS算法。
LMS算法确实结构简单、计算量小且稳定性好,因此被广泛地应用于自适应控制、雷达、系统辨识及信号处理等领域。它的主要限制是它的收敛速
实用文案
标准文档
度慢,这归因于仅仅使用一阶信息,影响它的收敛速度的主要因素:步长因子?,?较小时,自适应速率减慢,它等效于LMS滤波器有长的“记忆”。因此自适应后平均额外均方误差较小,这是因为滤波器使用大量的数据估计梯度向量。另一方面,当?较大时,自适应速率相对较快,但以自适应后平均额外均方误差的增加为代价。在这种情况下较少数据进入估计,故滤波器误差性能恶化。因此参数?的倒数可以看作LMS滤波器的记忆。
这种固定步长的LMS自适应算法在收敛速率、跟踪速率及权失调噪声之间的要求也是相互矛盾的,LMS的收敛速度与调整步长有关,如果为了缩短响应时间而加大运算步长,过大的步长会使运算过程产生发散,不能跟踪目标。也就是说,步长增大可以使收敛速率加快,但是会使权失调噪声增大,跟踪速度减小,从而影响稳定性。
为了克服这一缺点,人们研究出了各种各样的变步长LMS的改进算法。尽管各种改进算法的原理不同,但变步长LMS自适应算法基本上遵循如下调整原则:即在初始收敛阶段或未知系统参数发生变化时,步长应比较大,以便有较快的收敛速度或对时变系统的跟踪速度;而在算法收敛后,不管主输入端干扰信号有多大,都应保持很小的调整步长以达到很小的稳态失调噪声。
递推最小二乘法即RLS算法,是最小二乘法的递推形式引出一种自适应算法,它是严格以最小二乘方准则为依据的算法。其主要优点就是收敛速度快,其收敛性能与输入信号的频谱特性无关。主要缺点是每次迭代计算量很大(对于L阶横向滤波器,计算量数量级为L2)。
RLS算法与LMS算法的基本差别如下:LMS算法中的步长参数?被
??1(n)(即输入向量的相关矩阵的逆)代替这一改进对平稳环境下RLS算法的
收敛性能有如下深刻的影响。指数加权因子?的作用和?的作用类似:RLS算法的收敛速度比LMS算法快一个数量级。RLS算法的收敛速度随着?的变小而加快,但稳定性相对减弱。反之,收敛速度减慢,稳定性加强。
实用文案
相关推荐: