《前馈神经网络续》ppt课件

《前馈神经网络续》ppt课件

ID:40098385

大小:3.17 MB

页数:68页

时间:2019-07-21

《前馈神经网络续》ppt课件_第1页
《前馈神经网络续》ppt课件_第2页
《前馈神经网络续》ppt课件_第3页
《前馈神经网络续》ppt课件_第4页
《前馈神经网络续》ppt课件_第5页
资源描述:

《《前馈神经网络续》ppt课件》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、例采用BP网络映射下图曲线规律。分析:这是X到Y的映射问题,网络采用单输入输出节点,设一个中间隐层隐层先考虑4个节点,即1——4——1BP网络结构。按表中数据开始进行学习:由于则W1i=w1i(0)=[0.20.30.40.5]T对y6d6进行精度判断,未达精度要求继续误差反传训练。按表中数据依次训练学习,学习次数足够高时,可能达到学习目的,实现权值成熟,实现X到Y的映射精度。2000次学习训练18000此学习训练一般网络学习训练次数很高,采用手工计算是不可能的,需要用计算机程序求解。3.4.3BP算法的程序实现前面推导的B

2、P网络算法是BP算法基础,称标准BP算法。目前神经网络的实现仍以软件编程为主。现仍以前述三层BP网络为例,说明标准BP算法的编程步骤:输入向量X:X=[x1x2….xi….xn]T输出层输出向量O:隐层权值矩阵V:隐层第j个神经元的权列向量——;输出层间权值矩阵W:输出层第k个神经元对应的权列向量——;网络期望输出向量:d=标准BP算法的程序实现网络正向传播阶段误差反向传播阶段(以本节三层BP网络为例)目前实际应用中有两种权值调整方法。上述标准BP算法中,每输入一个样本,都要回传误差并调整权值,亦称单样本训练,只针对每个样本

3、产生的误差进行调整,难免顾此失彼,实践表明,使整个训练次数增加,导致收敛速度过慢。另一种方法是在所有样本输入后,计算网络的总误差E总:E总=然后根据总误差E总计算各层的误差信号并调整权值,这种累积误差的批处理方式称为批(Batch)训练或周期(epoch)训练。批训练遵循了以减小全局误差为目标的原则,因而可以保证误差向减小方向变化。在样本数较多时,批训练比单样本训练时的收敛速度快。检查训练精度可用E=E总,也可用ERME:EP—不同样本的训练误差(共有P对样本)批训练BP算法流程程序可用一般高级语言编写,如C等,但考虑方便,

4、最好采用MATLAB语言,特别是MATLAB环境中开发了工具箱(Toolboxes),其中神经网络开发工具(NeuralNetwork)提供很丰富的手段来完成BP等ANN设计与分析.NeuralNetwork中提供了网络初始化函数用语构建基本网络,可自动生成权值,提供各种转移函数,提供各种训练或学习方法与手段,并实现仿真运算,监视网络训练误差等.BP网络的训练,可概括归纳为输入已知数据,权值初始化,训练网络三大步.用神经网络工具箱训练BP网络,权值初始化和训练网络都可调用BP网络的相应工具函数。调用时,用户只需要将这些工具函

5、数视为黑箱,知道输入什么得到什么即可,不必考虑工具函数内部究竟如何。函数功能newff创建一前馈BP网络(网络初始化函数)Initff前馈网络初始化(不超3层初始化函数)purelin线性传递(转移)函数tansig正切S型传递函数(双极性S函数)logsig对数正切S型传递函数(单极性S函数)deltalinpurelin神经元的δ函数deltatantansig神经元的δ函数deltaloglogsig神经元的δ函数BP网络的一些重要函数和功能(与版本有关)函数功能trainbpBP算法训练函数(标准)trainbpx快

6、速BP算法训练函数trainlmLevenberg-Marquardt训练函数traingd梯度下降训练函数traingdm梯度下降、动量训练函数traingda梯度下降、自适应学习率训练函数traingdx梯度下降、动量和自适应学习训练函数simuff前馈网络仿真函数(网络计算和测试网络)errsurf计算误差曲面函数plotes绘制误差曲面函数ploterr绘制网络误差相对训练步曲线基本神经元模型传递函数(转移函数)线性传递函数purelin(s)即y=s;对数S型传递函数logsig(s)即y=1/(1+e-s);双曲

7、正切S型传递函数tansig(s)即=tansigs)即y=(1-e-s)/(1+e-s)曲线。初始化函数initff,可获得至多三层的前馈网络各层的初始权值和阈值。函数的形式参数中,X为输入矢量;n1、n2,n3分别为第1,2,3层的神经元数目;f1、f2、f3分别为第1,2,3层神经元的传递函数;W1、W2、W3分别为第1,2,3层的权值矩阵;b1,b2,b3分别为第1,2,3层的神经元偏置(阈值)。在输入矢量X的数据时,应该包含所有输入值中的最大和最小值,这样才能保证经过initff处理后得到最佳的初始值。例如:有一双

8、层网络,有两个输入,定义了其最大和最小值,X=[0,10;-5,5]。第1层(即隐层)神经元数和传递函数分别是n1=4,f1=tansig,第2层(即输出层)的n2=3,f2=purelin,调用格式:[W1,b1,W2,b2]=initff([0,10;-5,5],4,'tansig',

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。