秦晓飞系列-深度学习-1.3浅层神经网络ppt课件.ppt

秦晓飞系列-深度学习-1.3浅层神经网络ppt课件.ppt

ID:59191256

大小:1.12 MB

页数:32页

时间:2020-09-26

秦晓飞系列-深度学习-1.3浅层神经网络ppt课件.ppt_第1页
秦晓飞系列-深度学习-1.3浅层神经网络ppt课件.ppt_第2页
秦晓飞系列-深度学习-1.3浅层神经网络ppt课件.ppt_第3页
秦晓飞系列-深度学习-1.3浅层神经网络ppt课件.ppt_第4页
秦晓飞系列-深度学习-1.3浅层神经网络ppt课件.ppt_第5页
资源描述:

《秦晓飞系列-深度学习-1.3浅层神经网络ppt课件.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、浅层神经网络ShallowNeuralNetworks主讲教师:秦晓飞上海理工大学光电学院3.1NeuralNetworkOverviewWeuseasingleneurontoimplementlogisticregression3.1NeuralNetworkOverviewWeusesingleneuronasLEGObrickstobuildasinglehiddenlayerneuralnetwork3.2NeuralNetworkRepresentationWeusea3inputs,1output,1hiddenlayerwith4neuronSNNas

2、aexample:3.2NeuralNetworkRepresentationinputlayerhiddenlayeroutputlayer“Hidden”layermeansinthetrainingset,thereisnoknownvalueaboutthislayer’soutputs.Wecallthisa2-layerNN.Thenumberoflayersonlyincludelayerswithparameters,whichareneedtolearn.3.3ComputingaNeuralNetwork’sOutputWeusea3inputs,

3、1output,1hiddenlayerwith4neuronSNNasaexample:3.3ComputingaNeuralNetwork’sOutput3.3ComputingaNeuralNetwork’sOutputHowtovectorizethesemultineuroncalculation?3.3ComputingaNeuralNetwork’sOutputTheoutputlayerisasingleneuronthatactaslogisticregression.Thesefourequationsaretheforwardpropagatio

4、nofaSNN,thathandlesonlyonetrainingexample.Howaboutthewholetrainingexampleset?3.4VectorizingacrossMultipleExamples3.4VectorizingacrossMultipleExamplesfori=1tomHowtoremovethisforloop?3.4VectorizingacrossMultipleExamplesfori=1tom#trainingexamples#neuronnodes#trainingexamples#neuronnodes3.5

5、JustificationforVectorizedImplementation3.5JustificationforVectorizedImplementationfori=1tom3.6ActivationFunctions3.6ActivationFunctionsWhenzislarge,thederivativesofσandtanhwillvanish.ReLUisnotderivableat0,butithaslittlechancetogetthereinpractice.ReLU’sderivativewillvanishwhenz<0,butwhe

6、nnetworklayerhasenoughneurons,itwillgetenoughzsgreaterthan0,andhave1asderivatives,whichwillletthegradientdecentgoon.3.7WhyNeedaNonlinear ActivationFunction?3.7WhyNeedaNonlinearActivationFunction?Linear/IdentityactivationOnehiddenlayerSNNisequivalenttologisticregressionifthehiddenlayerus

7、elinearactivationfunction.Neveruselinearactivationunlessinthelastlayeroflinearregressionproblem.3.8DerivativesofActivationFunctions3.8DerivativesofActivationFunctions3.8DerivativesofActivationFunctions3.9GradientDescentforNeuralNetworks3.9GradientDescentforNeuralNetworksParamet

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。