机器人自主学习.doc

机器人自主学习.doc

ID:59185285

大小:22.00 KB

页数:6页

时间:2020-09-10

机器人自主学习.doc_第1页
机器人自主学习.doc_第2页
机器人自主学习.doc_第3页
机器人自主学习.doc_第4页
机器人自主学习.doc_第5页
资源描述:

《机器人自主学习.doc》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、检索主题:机器人自学习数据库:中国知识资源总库——中国期刊全文数据库检索方法:用高级检索,主题词:自学习关键词:机器人检索结果:174篇,其中关于机器人的161篇;控制系统的9篇;特征量提取10篇,其余为模糊性理论和混合控制。文献综述L1000自主学习功能1.概括L1000的自学习功能,适用于各种应用场合。下面是其具体应用。详细内容请参考产品的使用说明书。不论用于何种场合,请首先确保安全回路,检查接线,并检查PG(编码器)/电机主回路的旋转方向,在确认安全后再进行自学习。有时需要一部分手动的设定确认工作。表中「有电机的详细参数」,是指电机的测试报告,或电机铭牌值记载的数据

2、,可以直接或通过换算设定L1000的E5(PM时)、或E2(IM时)大部分参数。「电机可以旋转」是指电机单体可以进行旋转型自学习的状态。()内的编号,显示的是进行自学习的顺序。2.使用情况2.1PM用带PG矢量控制(1)不论用于何种场合,请首先确保安全回路,检查接线,并检查PG(编码器)/电机主回路的旋转方向。(2)自学习完成后,仅在电机电缆长度大幅改变时(50m以上),需要进行的自学习。通常无需使用。(3)所有调试完成后,请按下面步骤运行,确认参数(感应电压值)是否妥当,若有需要再进行调整。①使电梯以高速(或中速),进行上升/下降的恒速运行,从数字操作器监视U6-07(

3、q轴的ACR输出)、U6-08(d轴的ACR输出)。恒速运行中的U6-07和U6-08的值在±10%以下,感应电压值不需要再调整。若超过±10%,请按步骤②进行再次调整。②使电梯以高速(或中速),进行上升/下降的恒速运行,从数字操作器监视U1-05(电机速度反馈)、U1-06(输出电压指令)。从电机速度反馈的监视值(U1-05)和电机额定转速(E1-04),计算测定时的电机分速(min-1)。E5-24(电机的感应电压系数2)=((上升时的U1-06的电压值〔V〕+下降时的U1-06的电压值〔V〕)×1000)/(2×测定时的电机分速〔min-1〕)〔mV/min-1〕(

4、4)使用L1000A时,电机的感应电压系数通常使用E5-24的值。沿用L7B的数据时,在设定E5-24=0.0后,E5-09请设定与L7B相同的值。(5)若L7B的感应电压系数E5-09〔mV/(rad/s)〕,换算成L1000A用的感应电压系数E5-24〔mV/min-1〕2.2IM用无PGV/f可控制(1)不论用于何种场合,请首先确保安全回路,检查接线,并检查PG(编码器)/电机主回路的旋转方向。(2)V/f控制模式下,仅在自学习完成后,电机电缆长度大幅改变时(50m以上),需要进行的自学习方式。2.3障代码障代码:0串行传输错误1变频器过流2+12V欠电压3主回路欠

5、压4CPU之WDT错误5GS(门锁)错误6位置开关错误7开关门指令错误9关门操作错误A开关门超速A位置计数器出错B位置监测器出错C编码器错误D过负载DGS断开指示EDLD余量不足F超速检查FGS释放时指示3.机器人自学习的现状与提高未知环境下移动机器人缺少先验知识,移动机器人自主学习以提高对环境的适应能力,是实现移动机器人在未知、复杂环境中成功应用的关键。反应式导航是提高移动机器人在未知环境下实时性和适应性的重要手段。近年来,在诸多反应式导航方法中,强化学习由于无需监督和先验知识、自学习和在线学习的特点使其具有在未知环境下导航的优越性。针对标准强化学习速度较慢,本文提出基

6、于Q学习和粗糙集的自主导航方法。通过强化学习,机器人能够实现未知环境下的自主导航。由于机器人导航的知识具有不完备性,而粗糙集是处理不完备性的一种有效的数学工具。首先利用粗糙集理论处理机器人的初始导航知识,简化导航系统的复杂性。然后将它与Q学习结合,加快了机器人学习的速度,从而提高了导航系统的避碰能力。同时,由于在复杂连续环境下,强化学习系统面临“维数灾难”问题,需要采取量化的方法,降低输入空间的复杂度,而径向基神经网络(RBFNN)具有较强的函数逼近能力及泛化能力,由此提出了基于RBF神经网络的Q学习方法并将其应用于单机器人的自主导航。用径向基神经网络逼近状态空间和Q函数

7、,使学习系统具有良好的泛化能力。最后,在TeamBots平台上将提出的两种导航方法仿真实现。仿真结果显示,基于Q学习和粗糙集的自主机器人导航方法较与标准Q学习相比,可以增加自主机器人对环境的适应性,提高避碰能力,加速导航学习过程;基于RBF神经网络的Q学习导航方法具有较强的避碰能力,提高了机器人对环境的适应能力。·[1]罗飞,余达太,孙一康.模糊Hybrid控制及其在机器人装配作业中的应用[J].北京科技大学学报.1994(04)·[2]董长军,李慧,李占贤,李少峰.复杂环境下爬行探索机器人结构设计及控制[J].机械制造.20

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。