2自适应LMS算法的研究

2自适应LMS算法的研究

ID:41831074

大小:168.22 KB

页数:3页

时间:2019-09-03

2自适应LMS算法的研究_第1页
2自适应LMS算法的研究_第2页
2自适应LMS算法的研究_第3页
资源描述:

《2自适应LMS算法的研究》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库

1、2自适应LMS算法的研究2.1概述自适应算法屮使用最广的是下降算法,下降算法的实现方式冇两种:自适应梯度算法和口适应高斯一牛顿算法。口适应高斯一牛顿算法包括RLS算法及其变型和改进型,自适应梯度算法包括LMS算法及其变型和改进型e(n)图2」FIR滤波器的自适应实现滤波器设计准则是使滤波器实际输岀y(n)与期望响应d(n)Z间的均方误差J(n)为最小,这称为最小均方误差(MMSE)准则。图2.1为FIR滤波器的自适应实现的原理图。所谓自适应实现是指:M阶FIR滤波器的抽头权系数wo,wi,…Wn“,可以根据估计误差e(n)的大小自动调节,使

2、得某个代价函数最小。定义均方误差J(n)为代价函数,因为滤波器在n时刻的估计误差e(n)=d(n)-WT(n)u(n)(2.1)所以代价函数J(n)二E{d2(n)・2P「W(n)+wT(n)E[u(n)uT(n)]W(N)}P=E[d(n)u(n)]由此可得J(n)的梯度(具体推导见参考文献[1」)Vj(n)=2E[u(n)uT(n)]W(n)-2P(2.3)2.2LMS算法及其基本变型自适应算法屮最常用的下降算法为最陡下降算法,其更新方向向量取第n次迭代的代价函数J(n)的负梯度它的统一形式为w(n+l)=w(n)-uVj(n)式中w(

3、n)为第n次迭代的权向量,■▽J(n)为第n次迭代的更新方向向量,〃为第n次迭代的更新步长,它用来控制稳定性和收敛速度。若将▽J(n)中的真实梯度向量用瞬时梯度向量代替,我们可得到由Windrow和Hoff在60年代初提岀的著名的最小均方误差自适应算法(简称LMS算法):wg+1)=w(n)4-2//e(n)u(n)(2.5)上式表明,LMS算法是一种递归运算,它不需要对信号的统计特性有先验的了解,而只是使用它们的瞬时估计值,运算得到的只是权重系数的估计值,但随着时间的增加,权重系数逐步调整,估计值也逐步改善,最终得到收敛值。收敛的条件是:

4、(2.6)'max式中人疵的输入和输出采样需要作大约2N+1次乘一加运算。是输入数据协方差矩阵的本征值。实际上,w(n)永远不会收敛到理论上的最佳值,而是在最佳值上下振荡,如图2.2所示。卩值控制了门适应的“增益”,它的大小应该在算法的收敛性能和系数的振荡幅度这两个因素Z间折屮。LMS算法简单而且易于实现,,是许多实时应用的首选算法,它对每一次新的输入和输出采样需要作人约2N+1次乘■加运算。2.2.1基木LMS算法其运算步骤如下:①初始化设置w(n)(n=o,1,2,…,N・l)为任意值(一般均为零),然后对每一次采样作以下各步的循环运算

5、:N-I②计算滤波器输出:)心)=VV(??)W(/2-Z)/=1③计算估计误差:e(n)=d(n)・y(n)④更新N个滤波器权重系数:w(n)=w(n-l)+2uu(n)e(n)(n=O,1,2,…,N-1)⑤循环返冋到②。图2.3基木LMS算法的学习曲线式中w(n)为抽头权向量,e(n)为滤波器在n时刻的估计误差,U为常数,d(n)为期望响应,当期望信号未知时,可直接用滤波器的实际输出y(n)代替d(n),u(n)为输入信号。

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。