(1)试错学习一开始是和行为心理学等工作联系在一起的,主要包括以下几个关键部分:
尝试:采取一系列动作或行为来尝试解决问题或实现目标。
错误:在尝试的过程中可能会出现错误,这些错误可能是环境的不确定性导致的,也可能是自身的不当行为导致的。
结果:每次尝试的后果,无论是积极的还是消极的,都会对下一次尝试产生影响。
学习:通过不断地尝试并出现错误,自身会逐渐积累经验,了解哪些动作或行为会产生有利的结果,从而在下一次尝试中做出更加明智的选择
(2)试错学习虽然是强化学习中最鲜明的要素之一,但并不是强化学习的全部,强化学习还包含其它的学习形式例如观察学习(对应模仿学习、离线强化学习等技术)
(3)在学习过程中个人做出的每一次尝试都是是一次决策, 我们把好的结果称为奖励( reward ),坏的结果称为惩罚( punishment )或者负的奖励。最终通过一次次的决策来实现目标,这个目标通常是以最大化累积的奖励来呈现的,这个过程就是序列决策
(1)不同于游戏领域,在机器人中实现强化学习的成本往往较高,一方面观测环境的状态需要大量的传感器,另一方面则是试错学习带来的实验成本,在训练过程中如果机器人决策稍有失误就有可能导致设备损坏,因此在实际应用中往往需要结合其他的方法来辅助强化学习进行决策。其中最典型的方法之一就是建立一个仿真环境,通过仿真环境来模拟真实环境,这样就可以大大降低实验成本
(2)强化学习在金融领域也有所应用,例如股票交易、期货交易、外汇交易等。在股票交易中,我们的目标是通过买卖股票来最大化我们的资产
(1)在多个智能体的环境下进行强化学习
(2)与单智能体环境不同,在多智能体环境中通常存在非静态问题,即环境的状态不仅由智能体的动作决定,还受到其他智能体的动作的影响
(3)其次存在信号问题,即智能体之间可能需要进行通信以合作或竞争,如何高效地通信并从信号中学习是一个难题。还存在信誉分配问题,在多智能体的合作任务中,确定每个智能体对于整体目标的贡献(或责任)是一个挑战
(1)以模仿学习为代表的从专家数据中学习策略、以逆强化学习为代表的从人类数据中学习奖励函数和、以及从人类反馈中学习为代表的从人类标注的数据中学习奖励模型来进行微调。此外,还包括离线强化学习、世界模型等等,这些方法都利用了数据来辅助强化学习,因此本书将它们同归为一类从数据中学习的方法
(2)模仿学习是指在奖励函数难以明确定义或者策略本身就很难学出来的情况下,我们可以通过模仿人类的行为来学习到一个较好的策略。最典型的模仿策略之一就是行为克隆,即将每一个状态-动作对视为一个训练样本,并使用监督学习的方法(如神经网络)来学习一个策略。但这种方法容易受到分布漂移的影响。智能体可能会遇到从未见过的状态,导致策略出错
(3)逆强化学习是指通过观察人类的行为来学习到一个奖励函数,然后通过强化学习来学习一个策略。由于需要专家数据,逆强化学习会受到噪声的影响,因此如何从噪声数据中学习到一个较好的奖励函数也是一个难题
在强化学习中,探索策略是一个非常重要的问题,即如何在探索和利用之间做出权衡。在探索的过程中,智能体会尝试一些未知的动作,从而可能会获得更多的奖励,但同时也可能会遭受到惩罚。而在利用的过程中,智能体会选择已知的动作,从而可能会获得较少的奖励,但同时也可能会遭受较少的惩罚。因此,如何在探索和利用之间做出权衡是一个非常重要的问题
(1)在实际应用中,智能体往往需要在实时或者在线环境中进行决策,例如自动驾驶、机器人等等。在这种情况下训练不仅会降低效率(实时环境响应动作更慢),而且还会带来安全隐患(训练过程中可能会出现意外)
(2)解决这一问题的思路之一就是离线强化学习,即在离线环境中进行训练,然后将训练好的模型部署到在线环境中进行决策。但这种方法也存在着一定的问题,例如离线环境和在线环境之间可能存在着分布漂移,即两个环境的状态分布不同,这就导致了训练好的模型在在线环境中可能会出现意外
(3)另外有一种是近两年比较流行的思路,即世界模型,即在离线环境中训练一个世界模型,然后将世界模型部署到在线环境中进行决策。世界模型的思路是将环境分为两个部分,一个是世界模型,另一个是控制器。世界模型的作用是预测下一个状态,而控制器的作用是根据当前的状态来决策动作。这样就可以在离线环境中训练世界模型,然后将世界模型部署到在线环境中进行决策,从而避免了在线环境中的训练过程,提高了效率,同时也避免了在线环境中的安全隐患
(1)在实际应用中,智能体往往需要同时解决多个任务,例如机器人需要同时完成抓取、搬运、放置等任务,而不是单一的抓取任务。在这种情况下,如何在多个任务之间做出权衡是一个难题
(2)联合训练的思路是将多个任务的奖励进行加权求和,然后通过强化学习来学习一个策略
(3)分层强化学习的思路是将多个任务分为两个层次,一个是高层策略,另一个是低层策略。高层策略的作用是决策当前的任务,而低层策略的作用是决策当前任务的动作。这样就可以通过强化学习来学习高层策略和低层策略,从而解决多任务强化学习的问题
(1)深度学习在强化学习中扮演的角色主要是提供了一个强大的函数拟合能力,使得智能体能够处理复杂、高维度和非线性的环境。深度学习与强化学习之间的关系相当于眼睛和大脑的关系,眼睛是帮助大脑决策更好地观测世界的工具,对于一些没有眼睛的动物例如蚯蚓也可以通过其他的感官来观测并解析状态。再比如,同样大脑水平下,即相同的强化学习算法条件下,正常人要比双目失明的人日常的决策要更方便。但是,即使深度学习部分是相同的,例如正常大人和小孩都能通过眼睛观测世界,然由于大脑决策水平的差异也会让两者表现有所差异
(2)尽管强化学习算法很多,但基本上就分为两类,即基于价值的和基于策略梯度的算法