《强化学习简介》ppt课件

《强化学习简介》ppt课件

ID:25215616

大小:2.00 MB

页数:48页

时间:2018-11-18

《强化学习简介》ppt课件_第1页
《强化学习简介》ppt课件_第2页
《强化学习简介》ppt课件_第3页
《强化学习简介》ppt课件_第4页
《强化学习简介》ppt课件_第5页
资源描述:

《《强化学习简介》ppt课件》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、强化学习简介ReinforcementLearning22什么是机器学习(MachineLearning)?机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。1959年美国的塞缪尔设计了一个下棋程序,这个程序具有学习能力,它可以在不断的对弈中改善自己的棋艺。4年后,这个程序战胜了设计者本人。又过了3年,这个程序战胜了美国一个保持8年之久的常胜不败的冠军。33机器学习的分类?机器学习监督学习:计算机获得简单的输入

2、给出期望的输出,过程是通过一个“训练模型”,学习通用的准则来从输入映射到输出。无监督学习:没有给出标记用来学习算法,让它自己去发现输入的结构。无监督学习自己可以被当成一个目标或者一个实现结果的途径(特征学习)。强化学习:一个计算机程序与动态环境交互,同时表现出确切目标(比如驾驶一辆交通工具或者玩一个游戏对抗一个对手)。这个程序的奖惩机制会作为反馈,实现它在问题领域中的导航。4强化学习(reinforcementlearning)与监督学习、非监督学习的区别没有监督者,只有奖励信号反馈是延迟的,不是顺时的时序性强,不适用于独立分布的数据自治智能体(agent)的行

3、为会影响后续信息的接收5思考:五子棋:棋手通过数学公式计算,发现位置1比位置2价值大,这是强化学习吗?这不叫强化学习,叫规划如果通过几次尝试,走位置1比走位置2赢棋的可能性大,得出经验,则为强化学习6强化学习模型几个定义自治智能体Agent学习的主体,如小猫、小狗、人、机器人、控制程序等Agent的特点1、主动对环境做出试探2、环境对试探动作反馈是评价性的(好或坏)3、在行动-评价的环境中获得知识,改进行动方案,达到预期目的7奖励信号(rewards)奖励信号R是一个标量信号表示agent在步骤T中所产生动作好坏Agent的任务是最大化累积奖励信号8强化学习模型

4、9例子图中黄点是机器人,目的是走到绿色的方块reward+1000,黑色方块是墙壁,撞到reward-10,红色方块是陷阱,撞到reward-1000,其他reward+010111213强化学习基本要素强化学习基本要素及其关系14策略定义了agent在给定时间内的行为方式,一个策略就是从环境感知的状态到在这些状态中可采取动作的一个映射。可能是一个查找表,也可能是一个函数确定性策略:a=π(s)随机策略:π(a∣s)=P[At=a∣St=s]15回报函数是强化学习问题中的目标,它把环境中感知到的状态映射为单独的一个奖赏回报函数可以作为改变策略的标准16值函数:一

5、个状态起agent所能积累的回报的总和。在决策和评价决策中考虑最多的是值函数17环境模型模拟了环境的行为,即给定一个状态和动作,模型可以预测必定导致的下一个状态和下一个奖赏。模型一般用于规划规划是算出来的,强化学习是试出来的18马尔可夫过程马尔可夫奖励过程马尔可夫决策过程马尔科夫决策过程(MDP)19马尔科夫性:所谓马尔科夫性是指系统的下一个状态s(t+1)仅与当前状态s(t)有关,而与以前的状态无关。马尔可夫过程定义:状态s(t)是马尔科夫的,当且仅当P[St+1∣St]=P[St+1∣S1;:::;St]20对于一个马尔科夫状态s和接下来的状态s′,状态转移

6、概率定义为通常马尔科夫过程是一个二元组(S,P),且满足:S是有限状态集合,P是状态转移概率。状态转移概率矩阵为:2122以下状态序列称为马尔科夫链,假设从C1开始2324对于游戏或者机器人,马尔科夫过程不足以描述其特点,因为不管是游戏还是机器人,他们都是通过动作与环境进行交互,并从环境中获得奖励,而马尔科夫过程中不存在动作和奖励。25马尔可夫奖励过程马尔可夫奖励过程(MRP)是一种带有价值的马尔科夫链,由元组(S,P,R,γ)来表示S为有限的状态集P为状态转移概率R为奖励函数γ为折扣因子,γ∈[0,1]2627强化学习是找到最优的策略,这里的最优是指得到的总回

7、报最大。当给定一个策略时,我们就可以计算累积回报。首先定义累积回报:28当给定策略π时,假设从状态C1出发,学生状态序列可能为:在策略π下,可以计算累积回报G1,此时G1有多个可能值。由于策略π是随机的,因此累积回报也是随机的。为了评价状态s1的价值,我们需要定义一个确定量来描述状态s1的价值,很自然的想法是利用累积回报来衡量状态s1的价值。然而,累积回报G1是个随机变量,不是一个确定值,因此无法进行描述。但其期望是个确定值,可以作为状态值函数的定义。29当智能体采用策略π时,累积回报服从一个分布,累积回报在状态s处的期望值定义为状态值函数:30例31例32例3

8、3例34贝尔曼方程状态值

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。