Supervised learning
或者 Unsupervised learning
又或者 self-supervised learning
来进行训练模型。label-based
+ 梯度下降的训练方式。RL 倾向于一种全新的训练策略。在下面的描述中,会使用以下缩写:
environment
-> e
environment state
-> es
action
-> a
Reinforcement learning
-> RL
比如 alphaGo,在 000 时刻的 alphago 看到的 es
是一个空棋盘,所以他选择 a
是下载某个地方一颗棋子
这个时候,对手就是 e
,他会有所行动,也就是 es
发生改变:棋盘上多了一颗对方的白子
于是 alphago 根据当前的 es
再采取新的 a
:下在另一个位置黑子
但是下棋这个任务非常特殊,因为如果我们把 对弈胜利
的 reward=1,而 对弈失败
的 reward=-1 那么就会发现,只有在这个棋局的最后一个 a
之后才会产生 reward,其他步骤模型都没有得到任何的反馈,那么这个就非常不好,因为我们知道在我们熟知的一些监督任务中,每个 step 或者 epoch,模型都会根据当前的 loss 做梯度下降来更新参数。但是如果下棋只有最后一个步骤有 reward,那模型很难学到东西。这种困难的问题叫做 sparse reward
(稀疏奖励) 。这种问题在 RL 中是经常出现的。
label
e
)进行下棋,然后根据大量的训练来获得真正的下棋能力,面对不同的对手都可以随机应变。supervised learning + RL
也就是先通过监督学习获得一个能力还行但很死板的初代版本,然后让两个 alphago 互相采用 RL 的方式进行对弈(3000万盘)在这个游戏中, RL 负责操控最下面这个绿色的东西,他可以有三种操作 left, right, fire
他的任务是负责杀死这些 alien
杀掉这些 alien
可以获得 reward
最开始的时候的 es
是 s1s_1s1 (es
也叫 observation),根据这个画面,agent 采取的动作 a1a_1a1 是向右移动,因此这个步骤的 reward=0
然后在 s2s_2s2 的时候,agent 选择 fire
并且成功射杀一个 alien,从而获得了 reward=5
的收益
经过了多个回合之后,最终 agent 采取了 aTa_TaT 获得了 reward
为 rTr_TrT 然后游戏就结束了。
这一局游戏称为一个 episode
,整个 episode
过程获得的 reward
的总和 rtotalr_{total}rtotal 是我们希望 maximize 的。
从这个过程中我们可以总结出 RL 的难点在于:
RL 的模型分成两个主要的分支:基于 policy 的方法和 基于 value 的方法;但是当前表现效果最好的 A3C 是将 value 和 policy 结合起来
而 critic 的方式则是充当一个 批评者,通过不断纠正 agent 的行为来获得更好的结果
actor
函数(也可以表示成 π\piπ),这个函数可以根据 es
(observation)输出一个最有效的 a
帮助 agent 获得最大的收益;actor函数
在很多地方也叫做 policy
actor
就是这个函数es
),在这里就是当前时刻的游戏影像,我们可以先通过 CNN 来提取这个图像的特征,然后把特征向量放到一个分类网络中得到最终是 left, right, fire
的三分类问题。在这里这个分类网络就可以看做是这个 actor
函数,因为他的输出就是针对当前影像的 actionleft, right, fire
的概率分布是 0.7, 0.2, 0.1
那么就代表有 70% 的几率是左移。但是不同于分类任务的是,RL 在这里并不会针对采取 left
这个 action,而是按照 0.7 的概率进行这个行为。(而普通的分类任务中,假设分类 猫,狗
的概率分布是 0.7,0.3
那么这个 sample 的 predict_label=猫
,但是 RL 并不如此)。predicted_label
如果他和 groundtruth
的差距足够小,即 loss(predicted_label, groundtruth)
足够小,那么我们认为这个目标函数是好的observation
sis_isi,采取的 action
可以表示为 ai=πθ(si)a_i = \pi_{\theta}(s_i)ai=πθ(si)reward
表示为 rir_iriepisode
的游戏之后,整个过程的 reward
的总和可以表示为 Rθ=∑t=1TrtR_{\theta}=\sum_{t=1}^Tr_tRθ=t=1∑Trtleft, right, fire
三种行为的概率分别为 0.7,0.2,0.1
那么第一次的结果可能是 left
这个action
,但是第二次有可能是 right
因为虽然 right
的概率比 left
小,但是也是有概率发生的。这也就产生了一个问题,就是一次的 RθR_{\theta}Rθ 并不能完全衡量 RL 目标函数的好坏,我们应该用 Rθˉ\bar{R_{\theta}}Rθˉ 也就是 RθR_{\theta}Rθ 的期望值来表示 RL 目标函数的好坏。loss
值,看做是 −Rθˉ- \bar{R_{\theta}}−Rθˉ 然后最小化 loss
就可以得到我们想要的解。episode
的过程看成一个 trajectory
τ\tauτ,其中 τ={s1,a1,r1,s2,a2,r2,...sT,aT,rT}\tau=\{s_1, a_1, r_1, s_2, a_2, r_2,...s_T, a_T, r_T\}τ={s1,a1,r1,s2,a2,r2,...sT,aT,rT}R(τ)=∑n=1N(rn)R(\tau)=\sum_{n=1}^N(r_n)R(τ)=n=1∑N(rn)
actor
函数 πθ\pi_{\theta}πθ,那么理论上会有很多个不同的 τ\tauτ,我们假设当前 τ\tauτ 出现的概率是 P(τ∣θ)P(\tau|\theta)P(τ∣θ) 因为这个 τ\tauτ 的出现概率是跟这个目标函数的参数 θ\thetaθ 相关episode
的 reward
的期望为:agent
在 actor
函数参数不变的情况下(使用同一个 πθ\pi_{\theta}πθ)进行 NNN 次游戏,NNN 次游戏的结果可以表示为 {τ1,τ2,...τN}\{\tau^1, \tau^2, ...\tau^N\}{τ1,τ2,...τN} 这个过程相当于从概率分布为 P(τ∣θ)P(\tau|\theta)P(τ∣θ) 的分布中采样 NNN 次。episode
的 reward
期望值,从而衡量当前的目标函数的好坏因为我们要最大化 Rθˉ\bar{R_{\theta}}Rθˉ 因此,我们采用 gradient asent
的方法,当然也可以取负号,然后用 gradient descent
进行优化,都是一样的。
从这个式子看,∇Rθˉ\nabla \bar{R_{\theta}}∇Rθˉ 代表的是整个 目标函数的优化方向,而根据最终的式子来看,这个公式非常直觉,因为如果把公式里面只保留最重要的部分,也就是:
∇Rθˉ=R(τn)∇logp(atn∣stn,θ)\nabla \bar{R_{\theta}}=R(\tau^n)\nabla logp(a_t^n|s_t^n,\theta)∇Rθˉ=R(τn)∇logp(atn∣stn,θ)
当使用 πθ\pi_{\theta}πθ 作为 actor
函数时,当面对 stns_t^nstn 这个 environment state
,此时如果 R(τ)>0R(\tau)>0R(τ)>0 那我们希望调整参数 θ\thetaθ 来让 p(atn∣stn)p(a_t^n|s^n_t)p(atn∣stn) 的概率越大越好,当 R(τ)<0R(\tau)<0R(τ)<0 则希望面对 stns^n_tstn 时,减小 atna_t^natn 的概率。
可能理解起来稍微有些绕,好好想想,其实这个结论非常符合常识和直觉
但是这个式子仍然存在一个小问题,就是 R(τn)R(\tau^n)R(τn) 有可能全都是正数,这可能造成一部分问题就是所有的行为 aia_iai 都是被鼓励发生的(更详细的解释可以参考李宏毅老师的视频,在一小时01分钟左右)
为了解决这个问题,人们让 R(τn)R(\tau^n)R(τn) 减一个 baseline 的值,从而构造出 R(τn)R(\tau^n)R(τn) 有正有负的情况
至于这个 bbb 是怎么算出来的,我们后面再说。
episode
的总的 reward
值。这种做法其实可以看做是 version 0 ,但这种做法存在很大的问题,下面的内容就是不同的 version 存在的问题以及如何通过下一个 version 进行修正。environment
-> e
environment state
-> es
action
-> a
Reinforcement learning
-> RL
actor
函数得到 a1a_1a1 同时产生 r1r_1r1(第一个 action
对应的 reward
),然后以此递推下去,直到这个 episode
结束,那么所有的 reward
的总和就是reward
增大贡献的 aaa 会被越来越重视。就像上图中 right
这个行为本身不产生 reward
,fire
产生 reward
所以如果按照 version 0
这个 agent 就会一直选择开火,而不移动,但我们都知道移动对于 fire
来说是很重要的。所以这种优化目标会让模型变得短视reward
相加得到 a1a_1a1 的累加 reward
G1G_1G1 来代替 version 0
当中的 r1r_1r1,同样的,可以得到 G2,G3,...,GNG_2, G_3,...,G_NG2,G3,...,GNreward
比较低的 action
version 1
仍然也存在问题:当整个 episode
步骤过于长的时候,将第 NNN 步的 reward
归功于 r1r_1r1 未免太牵强了。因此 version 2
采取了 discount factor
version 1
的主要思想,但是在计算 GGG 的时候,对于前面的 action
的 reward
都乘一个衰减系数 γ\gammaγ,就是说:我承认前面步骤的影响,但是离我越远的 action
对我的影响应该越小插入一个小问题:
虽然现在的目标函数被定义的越来越完善,但是对于围棋这种只有最后才有reward
而中间没有reward
的操作,看起来还是束手无策啊。
- 但其实如果按照上面的目标函数去解决下围棋的这种情景,那么假设最后下棋赢了,那么就会认为所有的步骤都是
postive
的,有效的,而如果输了,那么所有的步骤都是negative
的- 虽然这看起来好像很离谱,但是初代的 alphago 就是这么训练的。
- 因为并不是一盘棋,是下几千万局,这个过程中有赢有输,每个
action
的reward
会调整很多次,所以虽然很难 train 但是还是可以 train 出来
version 3
是对 version 2
进一步优化,优化的方式是将每一项的 G′G^{'}G′ 变成 G′−bG^{'}-bG′−b 这个我们在上面提过。因为有些场景下,如果所有的 G′G^{'}G′ 都是正值,那么就不太好,所以我们倾向于让他们减去一个共同的数据 bbb 来保证过程中的 G′G^{'}G′ 有正有负。这种方法可以看成是一种 标准化
epoch
进行循环 (Ei,...,ETE_i,...,E_TEi,...,ET),每个 epoch
中执行: epoch
的 actor
函数(参数表示为 θi−1\theta^{i-1}θi−1)actor
得到 a1,...,ana_1, ..., a_na1,...,anaction
对应的 reward
A1,...,ANA_1,..., A_NA1,...,ANreward
得到损失函数(或者优化目标)epoch
之外先整理好,但是 RL
训练过程中数据的收集是在 epoch
内部完成的,那为什么收集一次数据只能用于一个 epoch
迭代,而不能一直用呢?epoch
的 actor
参数是 θ1\theta_1θ1 然后根据这个 actor
产生的 τ={s1,a1,G1′,s2,a2,G2′,...,sN,aN,GN′}\tau=\{s_1, a_1, G^{'}_1, s_2, a_2, G^{'}_2, ..., s_N, a_N, G^{'}_N\}τ={s1,a1,G1′,s2,a2,G2′,...,sN,aN,GN′} 将 actor
的参数更新成了 θ2\theta_2θ2 那么这个时候根据 s1s_1s1 actor
会产生 a1^\hat{a_1}a1^和 G1′^\hat{G^{'}_1}G1′^ 所以需要把这些重新收集起来用于优化 θ2→θ3\theta_2\rightarrow\theta_3θ2→θ3。On Policy
的方法Off Policy
的方法alien
还有很多并且屏障(粉红色的三坨东西)还是满的,所以游戏不太可能在短期内结束,而击杀 alien
又可以获得 reward
,那么给定这个 sss,VπV^\piVπ 就会认为:按照当前的情况来看,当游戏结束的时候得到的奖励的值可以比较大(Vπ(s)V^\pi(s)Vπ(s)) 比较大,但是第二个图 alien
就很稀疏,并且屏障也都已经被 alien 给打没了,所以他的对应的 Vπ(s)V^\pi(s)Vπ(s) 就比较小
上一篇:时不我待(第十八课)项目环境搭建