在线强化学习(on-policy MC RL),是指:智能体在策略评估时为获取完整轨迹所采用的采样策略 π s a m p l e ( a ∣ s ) \pi_{sample}(a|s) πsample?(a∣s),与策略控制时要改进的策略 π ( a ∣ s ) \pi(a|s) π(a∣s)都是同一个策略,即: π = π s a m p l e \pi=\pi_{sample} π=πsample?。
简而言之:所谓在线,就是在对一个初始策略评估的同时,利用 ? ? \epsilon- ??贪心算法对它进行及时改进。
所在离线强化学习(off-policy MC RL),是指:智能体在策略评估时为获取完整轨迹所采用的采样策略 π s a m p l e ( a ∣ s ) \pi_{sample}(a|s) πsample?(a∣s),与策略控制时要改进的策略 π ( a ∣ s ) \pi(a|s) π(a∣s)不是同一个策略,即: π ≠ π s a m p l e \pi\ne\pi_{sample} π=πsample?。
由于以上缺点,人们已经发展出了离线强化学习算法,它可以进一步细分为