现在人们对无模型强化学习的一个普遍看法是,这种基于随机搜索策略的方法在参数空间中比那些探索行为空间的方法表现出更差的样本复杂性。uc berkeley的研究人员通过引入随机搜索方法,推翻了这种说法。以下是论智对作者benjamin recht博文的编译。
我们已经看到,随机搜索在简单的线性问题上表现得很好,而且似乎比一些强化学习方法(例如策略梯度)更好。然而随着问题难度增加,随机搜索是否会崩溃?答案是否定的。但是,请继续读下去!
让我们在强化学习社区感兴趣的问题上应用随机搜索。深度强化学习领域一直把大量时间和精力用于由openai维护的、基于mujoco模拟器的一套基准测试中。这里,最优控制问题指的是让一个有腿机器人在一个方向上尽可能快地行走,越远越好。其中一些任务非常简单,但是有些任务很难,比如这种有22个自由度的复杂人形模型。有腿机器人的运动由hamilton方程控制,但是从这些模型中计划动作是非常具有挑战性的,因为没有设计目标函数的最佳方法,并且模型是分段线性的。只要机器人的任何部位碰到坚硬物体,模型就会变化,因此会出现此前没有的作用于机器人的法向力。于是,让机器人无需处理复杂的非凸非线性模型而正常工作,对强化学习来说是个有趣的挑战。
最近,salimans及其在openai的合作者表示,随机搜索在这些标准测试中表现的很好,尤其是加上几个算法增强后很适合神经网络控制器。在另一项实验中,rajeswaran等人表示,自然策略梯度可以学习用于完成标准的先行策略。也就是说,他们证明静态线性状态的反馈——就像我们在lqr(linear quadratic regulator)中使用的那样——也足以控制这些复杂的机器人模拟器。但这仍然有一个问题:简单随机搜索能找到适合mujoco任务的线性控制器吗?
我的学生aurelia guy和horia mania对此进行了测试,他们编写了一个非常简单的随机搜索版本(是我之前发布的iqrpols.py中的一个)。令人惊讶的是,这个简单的算法学习了swimmer-v1,hopper-v1,walker2d-v1和ant-v1任务中的线性策略,这些策略实现了之前文章中提出的奖励阈值。不错!
但是只有随机搜索还不够完美。aurelia和horia完全不能用人形模型做出有趣的事。试了很多次参数调整后,他们决定改进随机搜索,让它训练地更快。horia注意到许多强化学习的论文利用状态的统计数据,并且在将状态传递给神经网络之前能够将状态白化。所以他开始保持在线估计状态,在将他们传递给线性控制器之前将它们白化。有了这个简单的窍门,aurelia和horia现在可以让人形机器人做出最佳表现。这实际上是salimans等人在标准值上达到的“成功阈值”的两倍。只需要线性控制器、随机搜索和一个简单的技巧。
另外还有一件简单的事情就是,代码比openai的进化策略论文中的要快15倍。我们可以用更少的计算获得更高的奖励。用户可以在一小时内在标准18核ec2实例上训练一个高性能人形模型。
现在,随着在线状态的更新,随机搜索不仅超过了人形模型的最佳水平,而且还超越了swimmer-v1、hopper-v1、halfcheetah-v1。但在walker2d-v1和ant-v1上的表现还不是很好。但是我们可以再添加一个小技巧。我们可以放弃不会产生良好回报的采样方向。这增加了一个超参数,但有了这一额外的调整,随机搜索实际上可能会达到或超过openai的gym中所有mujoco标准的最佳性能。注意,这里并不限制与策略梯度的比较。就我所知,这些策略比任何无模型强化学习的应用结果要好,无论是actor critic method还是value function estimation method等等更深奥的东西。对于这类mujoco问题,似乎纯粹的随机搜索优于深度强化学习和神经网络。
通过一些小调整得到的随机搜索结果胜过了mujoco任务中的所有其他方法,并且速度更快。论文和代码都已公布。
从随机搜索中,我们有了以下几点收获:
基准很难
我认为所有这一切唯一合理的结论就是这些mujoco demo很容易,毫无疑问。但是,用这些标准测试nips、icml或iclr中的论文可能不再合适。这就出现了一个重要的问题:什么是强化学习的良好标准?显然,我们需要的不仅仅是mountain car。我认为具有未知动作的lqr是一个合理的任务,因为确定新实例并了解性能的限制是很容易的。但是该领域应该花更多时间了解如何建立有难度的标准。
不要在模拟器上抱太大希望
这些标准比较容易的一部分原因是mujoco不是一个完美的模拟器。mujoco非常快,并且对于概念验证非常有用。但为了快速起见,它必须在接触点周围进行平滑处理(接触的不连续是使腿部运动困难的原因)。因此,你只能让其中一个模拟器走路,并不意味着你可以让真正的机器人走路。的确,这里有四种让奖励可以达到6000的步态,但看起来都不太现实:
即使是表现最好的模型(奖励达到11600),如下图所示,这种看起来很蠢的步态也不可能应用在现实中:
努力将算法简化
在简单算法中添加超参数和算法小部件,可以在足够小的一组基准测试中提高其性能。我不确定是否放弃最好的方向或状态归一化会对新的随机搜索问题起作用,但这对mujoco的标准和有用。通过添加更多可调参数,甚至可以获得更多回报。
使用之前先探索
注意,由于随机搜索方法很快,我们可以评估它在许多随机种子上的表现。这些无模型的方法在这些基准上都表现出惊人的巨大差异。例如,在人形任务中,即使我们提供了我们认为是好的参数,模型的训练时间也慢了四分之一。对于那些随机种子,它会找到相当奇特的步态。如果将注意力限定在三个随机种子上用于随机搜索,通常具有误导性,因为你可能会将性能调整为随机数生成器的特性。
这种现象在lqr上也出现了。我们可以将算法向一些随机种子进行微调,然后在新的随机种子上看到完全不同的行为。henderson等人用深度强化学习方法观察了这些现象,但我认为如此高的变量将成为所有无模型方法的通用症状。仅通过模拟就能解释很多边界情况。正如我在上一篇文章中所说的:“通过抛弃模型和知识,我们永远不知道是否可以从少数实例和随机种子中学到足够的东西进行概括。”
比特币将会成为未来的主要货币
大陆TWS热销,台湾相关供应链受惠
KTW128矿用防爆对讲机的技术规格及特点性能介绍
澳航计划在2020年4月底开通布里斯班直飞芝加哥和旧金山航线
压力传感器缺陷,英菲尼迪召回1797辆QX56
简单随机搜索:无模型强化学习的高效途径
3V和5V 12位轨到轨微功DAC兼具灵活性和性能
长七A火箭成功发射 创了五院大中型遥感卫星研制的新纪录!
直播预告 | NVIDIA 交换网络创新加速高性能应用
中频发电机的噪声影响研究及EMI滤波电路设计
基于多任务操作系统uC/OS实现电梯系统的软件设计
Windows 10向更多用户开放Meet Now功能
线电压和相电压的区别与联系
基于模拟音频连接器的全双工数据流实现方案
骁龙835对比骁龙821
在高速应用中使用JFET输入放大器的优势
高色纯度OLED器件在显示领域的前景和挑战
联想停止对华为供货?联想内部人士:谣言,造谣者已道歉
"黑飞"现象普遍 民用无人机离规范管理有多远
爱尔兰2030年开始禁止销售燃油车?还存在不确定性