人工神经网络原理与仿真实例第2版 教学课件 作者 高隽 第3章 多层前向网络及BP学习算法 .ppt

人工神经网络原理与仿真实例第2版 教学课件 作者 高隽 第3章 多层前向网络及BP学习算法 .ppt

ID:50330905

大小:318.00 KB

页数:47页

时间:2020-03-08

人工神经网络原理与仿真实例第2版 教学课件 作者 高隽 第3章 多层前向网络及BP学习算法 .ppt_第1页
人工神经网络原理与仿真实例第2版 教学课件 作者 高隽 第3章 多层前向网络及BP学习算法 .ppt_第2页
人工神经网络原理与仿真实例第2版 教学课件 作者 高隽 第3章 多层前向网络及BP学习算法 .ppt_第3页
人工神经网络原理与仿真实例第2版 教学课件 作者 高隽 第3章 多层前向网络及BP学习算法 .ppt_第4页
人工神经网络原理与仿真实例第2版 教学课件 作者 高隽 第3章 多层前向网络及BP学习算法 .ppt_第5页
资源描述:

《人工神经网络原理与仿真实例第2版 教学课件 作者 高隽 第3章 多层前向网络及BP学习算法 .ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、第3章多层前向网络及BP学习算法3.1多层感知器3.2BP学习算法3.3径向基网络3.4仿真实例合肥工业大学计算机与信息学院图像信息处理研究室Tel:2901393Email:images@hfut.edu.cnhttp://www1.hfut.edu.cn/organ/images3.1多层感知器单层感知器只能解决线性可分的分类问题,要增强网络的分类能力唯一的方法是采用多层网络,即在输入与输出层之间加上隐含层,从而构成多层感知器(MultilayerPerceptrons,MLP)。这种由输入层、隐含层(一层或者多层)和输出层构成的神经网络

2、称为多层前向神经网络。合肥工业大学计算机与信息学院图像信息处理研究室Tel:2901393Email:images@hfut.edu.cnhttp://www1.hfut.edu.cn/organ/images多层感知器多层前向神经网络输入层中的每个源节点的激励模式(输入向量)单元组成了应用于第二层(如第一隐层)中神经元(计算节点)的输入信号,第二层输出信号成为第三层的输入,其余层类似。网络每一层的神经元只含有作为它们输入前一层的输出信号,网络输出层(终止层)神经元的输出信号组成了对网络中输入层(起始层)源节点产生的激励模式的全部响应。即信号

3、从输入层输入,经隐层传给输出层,由输出层得到输出信号。合肥工业大学计算机与信息学院图像信息处理研究室Tel:2901393Email:images@hfut.edu.cnhttp://www1.hfut.edu.cn/organ/images多层感知器多层感知器同单层感知器相比具有四个明显的特点:(1)除了输入输出层,多层感知器含有一层或多层隐单元,隐单元从输入模式中提取更多有用的信息,使网络可以完成更复杂的任务。(2)多层感知器中每个神经元的激励函数是可微的Sigmoid函数合肥工业大学计算机与信息学院图像信息处理研究室Tel:290139

4、3Email:images@hfut.edu.cnhttp://www1.hfut.edu.cn/organ/images多层感知器(3)多层感知器的多个突触使得网络更具连通性,连接域的变化或连接权值的变化都会引起连通性的变化。(4)多层感知器具有独特的学习算法,该学习算法就是著名的BP算法,所以多层感知器也常常被称之为BP网络。多层感知器所具有的这些特点,使得它具有强大的计算能力。多层感知器是目前应用最为广泛的一种神经网络。合肥工业大学计算机与信息学院图像信息处理研究室Tel:2901393Email:images@hfut.edu.cnh

5、ttp://www1.hfut.edu.cn/organ/images3.2BP学习算法反向传播算法(Back-Propagationalgorithm,BP)BP学习过程:(1)工作信号正向传播:输入信号从输入层经隐单元,传向输出层,在输出端产生输出信号,这是工作信号的正向传播。在信号的向前传递过程中网络的权值是固定不变的,每一层神经元的状态只影响下一层神经元的状态。如果在输出层不能得到期望的输出,则转入误差信号反向传播。合肥工业大学计算机与信息学院图像信息处理研究室Tel:2901393Email:images@hfut.edu.cnht

6、tp://www1.hfut.edu.cn/organ/imagesBP学习算法(2)误差信号反向传播:网络的实际输出与期望输出之间差值即为误差信号,误差信号由输出端开始逐层向后传播,这是误差信号的反向传播。在误差信号反向传播的过程中,网络的权值由误差反馈进行调节。通过权值的不断修正使网络的实际输出更接近期望输出。合肥工业大学计算机与信息学院图像信息处理研究室Tel:2901393Email:images@hfut.edu.cnhttp://www1.hfut.edu.cn/organ/images合肥工业大学计算机与信息学院图像信息处理研究

7、室Tel:2901393Email:images@hfut.edu.cnhttp://www1.hfut.edu.cn/organ/images神经元的输入用u表示,激励输出用v表示,u,v的上标表示层,下标表示层中的某个神经元,如表示I层(即第1隐层)的第i个神经元的输入。设所有的神经元的激励函数均用Sigmoid函数。设训练样本集为X=[X1,X2,…,Xk,…,XN],对应任一训练样本:Xk=[xk1,xk2,…,kM]T,(k=1,2,…,N)的实际输出为:Yk=[yk1,yk2,…,ykP]T,期望输出为dk=[dk1,dk2,…,

8、dkP]T。设n为迭代次数,权值和实际输出是n的函数。合肥工业大学计算机与信息学院图像信息处理研究室Tel:2901393Email:images@hfut.edu

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。