哈工大智能控制神经网络课件第二课感知机与BP网络.ppt

哈工大智能控制神经网络课件第二课感知机与BP网络.ppt

ID:59331123

大小:452.00 KB

页数:37页

时间:2020-09-20

哈工大智能控制神经网络课件第二课感知机与BP网络.ppt_第1页
哈工大智能控制神经网络课件第二课感知机与BP网络.ppt_第2页
哈工大智能控制神经网络课件第二课感知机与BP网络.ppt_第3页
哈工大智能控制神经网络课件第二课感知机与BP网络.ppt_第4页
哈工大智能控制神经网络课件第二课感知机与BP网络.ppt_第5页
资源描述:

《哈工大智能控制神经网络课件第二课感知机与BP网络.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、人工神经网络理论及应用屈桢深哈尔滨工业大学2.感知机与BP网络主要内容神经元数学模型感知器多层前馈网络与BP算法※BP算法评述图2-2-2MP神经元模型(a)神经元数学模型神经元数学模型:向量描述输入有时也记为u神经元数学模型——作用函数优点:1.无限次可微;2.导数形式简单※神经元数学模型——作用函数3.对称型阶跃函数神经元数学模型——作用函数神经网络(前馈式)结构单个神经元单层神经元多层神经元:输入层,输出层,隐含层u1u21y11w1y22wy三层神经元学习过程就是调整权值的过程。Hebb规则包含感知

2、层,连接层和反应层。感知器(感知机)感知层:接受二值输入;连接层:根据学习规则不断调整权值输出层:取为对称型阶跃函数原始感知器由单个神经元组成,改进模型可由单层或多层神经元构成。单层感知器学习算法单层感知器用于两类模式分类时相当于在高维样本空间中,用一个超平面将两类样本分开。已证明若输入的两类模式是线性可分集合(指存在一个超平面能将其分开),则算法一定收敛。局限性若输入模式为线性不可分集合,网络的学习算法不收敛,不能进行正确分类。线性可分集合(1)二维平面上的两类模式,见表。使用单个感知器分类线性可分集合(

3、1)三维空间上的两类模式,见表u3u1u2线性可分集合(2)使用单个感知器分类线性可分集合(2)可引伸到n>3维空间上的线性可分集合,一定可找到一超平面,将输入模式分为两类。由n输入/单输出的单层感知器实现。二维平面上的两类模式——异或(XOR)问题,见表。二维平面中不存在一条直线,将输入模式分为两类,此输入模式称线性不可分集合.可见:单层感知器不能解决异或问题。线性不可分集合多层感知器u1u21y11w1y22wy因此得到多层感知器(续)三层感知器解决异或问题三层感知器可识别任一凸多边形或无界的凸区域。更

4、多层感知器网络,可识别更为复杂的图形。多层感知器逼近能力感知器局限性:仅中间层->输出层权值可调多层前馈网络与BP学习算法多层前馈网络的反向传播(BP)学习算法,简称BP算法,是有导师的学习,它是梯度下降法在多层前馈网中的应用。网络结构见图,u、y是网络的输入、输出向量,神经元用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层(图中是单隐层),前层至后层节点通过权联接。由于用BP学习算法,所以常称BP神经网络。BP学习算法已知网络的输入/输出样本,即导师信号。BP学习算法由正向传播和反向传

5、播组成:正向传播是输入信号从输入层经隐层,传向输出层,若输出层得到了期望的输出,则学习算法结束;否则,转至反向传播。反向传播是将误差(样本输出与网络输出之差)按原联接通路反向计算,由梯度下降法调整各层节点的权值和阈值,使误差减小。正向传播反向传播BP学习算法基本思想设算法的输入输出样本(导师信号)为{u1,t1},{u2,t2},…{uQ,tQ}即共Q个样本。或记为{uq,tq},q=1,…Q网络训练的目的,是使对每一个输入样本,调整网络参数,使输出均方误差最小化。考虑迭代算法,设初始权值为w0,k时刻权值

6、为wk,则使用泰勒级数展开,有:问题:如何选择,使J最小?BP学习算法基本思想(续)最直接的方法就是选择这样每一步都能保证,从而使J最终可收敛到最小。这就是梯度下降算法,也是BP学习算法的基本思想。设置初始权系数w0为较小的随机非零值;给定输入/输出样本对,计算网络输出,完成前向传播计算目标函数J。如J<ε,训练成功,退出;否则转入④反向传播计算由输出层,按梯度下降法将误差反向传播,逐层调整权值。BP学习算法步骤所有加黑斜体表示向量;非黑体为标量;左上角数字表示层数;BP网络输入u为n维,输出为m维;为方便

7、观察,有时相乘关系用.表示;BP学习算法步骤:推导准备考虑三层神经网络。对于当前样本,期望输出为t,输入为u隐含层输出:对于第i个神经元,BP学习算法步骤:前向传播,选取为LogSigmoid函数输出层:BP学习算法步骤:计算误差BP学习步骤:误差反传(输出层)因此需要求首先考虑输出层权值2w。根据链式求导法则,,(为什么?)BP学习步骤:误差反传(输出层)注意到2wij仅和yi(ei)有关,因此,根据LogSigmoid函数性质BP学习步骤:误差反传(隐含层)注意到1wij仅和1yi有关1y…1wunym

8、y12w……u1BP学习步骤:误差反传(隐含层)以为例说明求法。由表达式(见前向传播),可见代入上式,有因此即误差进行反向传输BP学习步骤:误差反传(隐含层)综合上述结果对比Hebb规则如遇到隐含层多于1层,可依次类推BP算法演示演示BP学习算法评述优点学习完全自主;可逼近任意非线性函数;BP学习算法评述缺点算法非全局收敛;收敛速度慢;学习速率α选择;神经网络如何设计(几层?节点数?)

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。