人工神经网络及其应用实例

人工神经网络及其应用实例

ID:37866819

大小:693.37 KB

页数:25页

时间:2019-06-01

人工神经网络及其应用实例_第1页
人工神经网络及其应用实例_第2页
人工神经网络及其应用实例_第3页
人工神经网络及其应用实例_第4页
人工神经网络及其应用实例_第5页
资源描述:

《人工神经网络及其应用实例》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、人工神经网络及其应用实例人工神经网络是在现代神经科学研究成果基础上提出的一种抽象数学模型,它以某种简化、抽象和模拟的方式,反映了大脑功能的若干基本特征,但并非其逼真的描写。人工神经网络可概括定义为:由大量简单元件广泛互连而成的复杂网络系统。所谓简单元件,即人工神经元,是指它可用电子元件、光学元件等模拟,仅起简单的输入输出变换yx()的作用。下图是3中常用的元件类型:线性元件:yx0.3,可用线性代数法分析,但是功能有限,现在已不太常用。21.510.50-0.5-1-1.5-2-6-4-20246连续型非线性元件:yxtanh(),便于解析性计算及器件模拟,是

2、当前研究的主要元件之一。Page1of2521.510.50-0.5-1-1.5-2-6-4-202461,x0离散型非线性元件:y,便于理论分析及阈值逻辑器件1,x0实现,也是当前研究的主要元件之一。21.510.50-0.5-1-1.5-2-6-4-20246Page2of25每一神经元有许多输入、输出键,各神经元之间以连接键(又称突触)相连,它决定神经元之间的连接强度(突触强度)和性质(兴奋或抑制),即决定神经元间相互作用的强弱和正负,共有三种类型:兴奋型连接、抑制型连接、无连接。这样,N个神经元(一般N很大)构成一个相互影响的复杂网络系统,通过调

3、整网络参数,可使人工神经网络具有所需要的特定功能,即学习、训练或自组织过程。一个简单的人工神经网络结构图如下所示:上图中,左侧为输入层(输入层的神经元个数由输入的维度决定),右侧为输出层(输出层的神经元个数由输出的维度决定),输入层与输出层之间即为隐层。输入层节点上的神经元接收外部环境的输入模式,并由它传递给相连隐层上的各个神经元。隐层是神经元网络的内部处理层,这些神经元在网络内部构成中间层,不直接与外部输入、输出打交道。人工神经网络所具有的模式变换能力主要体现在隐层的神经元上。输出层用于产生神经网络的输出模式。多层神经网络结构中有代表性的有前向网络(BP网络)模型、

4、Page3of25多层侧抑制神经网络模型和带有反馈的多层神经网络模型等。本文主要探讨前向网络模型。多层前向神经网络不具有侧抑制和反馈的连接方式,即不具有本层之间或指向前一层的连接弧,只有指向下一层的连接弧。代表是BP神经网络:输入模式由输入层进入网络,经中间各隐层的顺序变换,最后由输出层产生一个输出模式,如下图所示:输入层隐层输出层多层前向神经网络由隐层神经元的非线性处理衍生它的能力,这个任务的关键在于将神经元的加权输入非线性转换成一个输出的非线性激励函数。下图给出了一个接收n个输入xx,,,x的神经元:12nb1xw11w2x2ywnxnPage4of25神经元

5、的输出由下式给出:ny()wxjjbj1这里输入的加权和(括号内部分)由一个非线性函数传递,b表示与偏差输入相关的权值,w表示与第j个输入相关的权值。j使用最广泛的函数是S形函数,其曲线家族包括对数函数和双曲正切函数,这些都可用来对人口动态系统、经济学系统等建模。另外所用的其他函数有高斯函数、正弦函数、反正切函数,在此不一一展开介绍,本文主要使用的激励函数是对数函数,函数表达式为:1yLu()u1e函数曲线如下图所示:10.80.60.40.20-0.2-10-8-6-4-20246810对于有限输入量,对数函数输出范围为y(0,1)。在输入为u

6、0时,输出值为中间值y0.5。输出在u0附近随着输入的增加以相对快的Page5of25速率增加并非常慢地到达上限。对于u0,输出起初减少得很快,然后随着下限的接近将会变慢。训练神经元的规则有很多种,这里首先介绍利用delta规则的学习,神经元选择为一个单输入单输出的简单情形,数学描述如下:1uwxby,u1e该神经元具有一个输入x,权重为w,偏差输入为b,目标输出为t,预报输出为y。则预报误差为:11Etyttuwxb11ee为消除当误差在整个输入模式上求和时引起的误差符号问题,在delta规则里使用的误差指示是平方误差,定义为:

7、12211Et()wxb221e根据delta规则,最优权值(使平方误差最小)可以在训练过程中从初始权值出发,沿负梯度方向下降得到。将平方误差对wb,(神经元的可调整参数)进行微分,得:ueEu2ue(1)uueExu2wuw(1e)uueEu2bub(1e)根据delta原则,权值改变应与误差梯度的负值成比例,引入学习率,每次迭代中的权值改变可表示为:uewExu2we(1)uebEu2b

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。