主要参考了B站UP主“shuhuai008”,包含自己的理解。
有任何的书写错误、排版错误、概念错误等,希望大家包含指正。
由于字数限制,分成两篇博客。
【机器学习】线性分类【上】广义线性模型
【机器学习】线性分类【下】经典线性分类算法
下面将简单介绍几个经典的线性分类模型,包括感知机、线性判别分析、逻辑回归(及softmax)、高斯判别分析和朴素贝叶斯分类器。
规定符号。
数据集 D={(x1,y1),(x2,y2),…,(xn,yn)}D=\{(x_1,y_1),(x_2,y_2),\dots,(x_n,y_n)\}D={(x1,y1),(x2,y2),…,(xn,yn)},向量 xi∈Rpx_i\in\mathbb{R}^pxi∈Rp 为样本,yi∈Ry_i\in \mathbb Ryi∈R 为标签,i=1,2,…,ni=1,2,\dots,ni=1,2,…,n;W∈RpW\in \mathbb R^pW∈Rp 为模型参数(权重)。
记
X=(x1x2…xn)T=(x1Tx2T⋮xnT)=(x11x12…x1px11x12…x2p⋮⋮⋮xn1xn2…xnp)n×pY=(y1y2…yn)n×1TW=(w1w2…wp)p×1TX= \left( \begin{matrix} x_1 & x_2 & \dots & x_n \end{matrix} \right)^T =\left( \begin{matrix} x_1^T \\ x_2^T \\ \vdots \\ x_n^T \end{matrix} \right) =\left( \begin{matrix} x_{11} & x_{12} & \dots & x_{1p} \\ x_{11} & x_{12} & \dots & x_{2p} \\ \vdots & \vdots & & \vdots \\ x_{n1} & x_{n2} & \dots & x_{np} \\ \end{matrix} \right)_{n\times p} \\ \\ Y=\left( \begin{matrix} y_1 & y_2 & \dots & y_n \end{matrix} \right)^T_{n\times 1} \\\\ W=\left( \begin{matrix} w_1 & w_2 & \dots & w_p \end{matrix} \right)^T_{p\times 1} X=(x1x2…xn)T=⎝⎜⎜⎜⎛x1Tx2T⋮xnT⎠⎟⎟⎟⎞=⎝⎜⎜⎜⎛x11x11⋮xn1x12x12⋮xn2………x1px2p⋮xnp⎠⎟⎟⎟⎞n×pY=(y1y2…yn)n×1TW=(w1w2…wp)p×1T
本来是这篇文章应该是在探讨线性分类的相关知识,但是还是忍不住地补充了许多其他类似的知识。即使如此,在讨论广义线性回归时,我们也会不自觉地将回归应用于分类,这主要是因为分类问题更加直观,便于理解。当然,这与“线性回归”和“线性分类”本身就不分家脱不了干系。
人们根据输入输出变量的不同类型,对预测任务给予不同的名称:输入变量与输出变量均为连续变量的预测问题称为回归问题;输出变量为有限个离散变量的预测问题称为分类问题。
现在的机器学习或者深度学习在处理分类问题上,都倾向于先将数据连续化,再将数据离散化,从而实现分类的效果;其中的数据连续化处理就可以认为是线性回归,因此现在的分类问题已经离不开回归了。提几个简单的模型,聚类算法是一种分类算法,它的输入样本的特征完全可以是连续的,而且我们更希望特征是连续的,方便对特征进行度量,这种算法属于直接使用现有的连续数据,所以无需将数据连续化;又比如 softmax 就是用于将离散的独热编码(one-hot)转换成连续的概率表示的一种方法。
显然,线性回归和线性分类在具体的算法实现上已经没有很明显的界限了,但是它们追求的目标是明显不同的,也就是像定义所说,一个得到连续结果,一个得到离散结果。
这里我讨论了一下回归与分类,是希望大家对后面出现的一些名词不要过度纠结,比如逻辑回归居然是用于分类的等等。与其纠结算法是回归还是分类,不如花时间熟悉具体的算法。
感知机(Perceptron)(感知机线性分析,PLA)是机器学习中最简单的一个分类模型,也是神经网络的基础。
如果样本是线性可分的,那么可以采用朴素感知机算法确定最佳分类超平面保证样本同类同侧异类异侧。模型的预测函数为
f(x)=sign(WTx)f(x)={\rm sign}(W^Tx) f(x)=sign(WTx)
其中,函数 sign(⋅)={1⋅≥0−1⋅<0\rm sign(·)=\left\{\begin{matrix} 1& ·\ge 0 \\ -1& ·\lt 0 \end{matrix}\right.sign(⋅)={1−1⋅≥0⋅<0 。如果 WTx≥0W^Tx\ge 0WTx≥0 则样本 xxx 被分为正样本(标签为 111),否则分为负样本(标签为 −1-1−1)。训练朴素感知机模型的目标是找到一个法向量为 WWW 超平面的超平面将两类样本完全分开。模型采用错误驱动的思想进行训练,将损失函数定义为被错误分类的样本个数
L(W)=∑i=1n1{yiWTxi<0}L(W)=\sum_{i=1}^n 1\{y_iW^Tx_i<0\} L(W)=i=1∑n1{yiWTxi<0}
当样本为正样本时,即 yi=1y_i=1yi=1 时,对应的正确预测为 WTxi≥0W^Tx_i\ge0WTxi≥0;当样本为负样本时,即 yi=−1y_i=-1yi=−1 时,对应的正确预测为 WTxi<0W^Tx_i\lt0WTxi<0 。综合表示为当分类正确时 yiWTxi≥0y_iW^Tx_i\ge0yiWTxi≥0,因此 yiWTxi<0y_iW^Tx_i\lt0yiWTxi<0 对应分类错误。
我们知道函数 1⋅1{·}1⋅ 是不可导的,损失函数无法采用梯度下降等方式进行迭代更新。我们对损失函数进行等价变形
L(W)=∑(xi,yi)∈M−yiWTxi(8)L(W)=\sum_{(x_i,y_i)\in M} -y_iW^Tx_i \tag{8} L(W)=(xi,yi)∈M∑−yiWTxi(8)
其中,MMM 为被错误分类的样本及其对应标签的集合。式 (8)(8)(8) 的想法是,yiWTxi<0y_iW^Tx_i<0yiWTxi<0 的样本为错误分类样本,我们保证全部错误样本的 yiWTxiy_iW^Tx_iyiWTxi 尽可能大,也就保证了错误样本尽可能少;又因为我们一般希望极小化损失函数,所以添加负号。对于式 (8)(8)(8) 我们可以采用 SGD 算法更新模型参数,对式 (8)(8)(8) 计算偏导得
∇WL=−yixi(9)\nabla_W L = -y_ix_i\tag{9} ∇WL=−yixi(9)
参数更新
Wt+1=Wt+yixi(10)W^{t+1}=W^{t}+y_ix_i\tag{10} Wt+1=Wt+yixi(10)
朴素感知机算法完整流程描述为,随机初始化 W0W^{0}W0,只要找到一个错误分类的样本就可以根据式 (9)(9)(9) 计算对应的梯度值并根据式(10)(10)(10) 更新参数 WWW,不断迭代直至全部样本分类正确。
朴素感知机算法中,在判断迭代是否结束时需要遍历全部样本进行判断,但是其实只要遇到一个分类错误的样本就可以说明算法还需要继续迭代,且此时也找到了一个错误分类的样本可以用于新的迭代中继续更新模型参数。这就是朴素感知机算法相较于下面要讲到的口袋算法更高效的原因。
朴素感知机算法并不是完美的,只有在数据线性可分的前提下才能使用,而这个前提条件往往无法事先知道;另外,即便数据线性可分,由于采用 SGD 算法更新模型参数可能出现越过最值点的情况,出现震荡现象,所以算法的收敛时间无法保证。口袋算法(pocket algorithm)就是用来解决这两个问题的。
针对无法线性分类的问题,口袋算法思想是选择一个错误分类样本最少的超平面。对于每次迭代,如果使用本次迭代得到的 W^\hat WW^ 对样本集进行分类的效果比之前迭代得到的最佳 WWW 的分类效果更好,那么就用本次迭代得到的模型参数 W^\hat WW^ 作为在完成的迭代中最佳的模型参数,否则不会更新模型参数,如此重复下去直至达到规定迭代次数。其中分类效果好坏的判断依据是错分样本的个数。
口袋算法每次贪心地选择最佳的模型参数,如果新迭代到的模型参数更好就替换,如果不好就不换,不再是一味按照梯度减小的方向进行更新,从而解决了线性不可分的数据集无法采用 SGD 更新模型参数的问题。设置迭代次数保证了算法能够在规定时间结束。我们可以发现,其实口袋算法也可以用于处理线性可分的数据,只需要将算法结束条件修改为全部样本分类正确,就与朴素感知机算法很相似了。
口袋算法完整流程描述为,随机初始化 W0W^{0}W0,随机找到一个错分样本根据式 (9)(9)(9) 计算对应的梯度值并根据式 (10)(10)(10) 计算用该错分样本更新得到的模型参数,记为 W^\hat WW^。遍历全部样本,统计在模型参数为 W^\hat WW^ 时错分样本的个数,与已经统计完成的更新前的模型参数 WWW 对应的错分样本个数作比较。如果 W^\hat WW^ 更好,则 W←W^W\leftarrow \hat WW←W^ 并保存 W^\hat WW^ 对应的错分样本个数;否则模型参数依然为 WWW,不做更新。直至满足结束条件。
与朴素感知机算法流程对比。虽然口袋算法同样采用对某个错分样本进行修正的方式更新参数,但更新不一定发生,只有更新后分类错误的点减少时,才会实际更新;而且终止条件也不必要求是所有样本均分类正确,可以选择设置最大迭代次数。
与朴素感知机算法效率对比。虽然随机找到一个错分样本计算梯度不需要遍历完整个数据集,但是每次迭代都要几乎完整遍历一遍数据集,因为需要统计本次迭代得到的模型参数对应的错分样本个数,因此这显然比朴素感知机算法效率要低。
严格来说,在引入偏置 bbb 的前提下,WWW 对应决策面的法向量,bbb 对应决策面的位置,WWW 和 bbb 共同确定具体的决策面。在二维平面中,决策面为直线,那么 WWW 对应的就是直线的法向量(类似斜率的作用),而 bbb 确定了直线位置(类似截距的作用)。由于我们为了方便表示,忽略了偏置项,所以会显得些许不严谨。
线性判别分析(Linear Discriminant Analysis,LDA)的目标是确定一个超平面,使得高维坐标系中的点投影到该超平面上满足,同类点尽可能近,异类点尽可能远。对比图 222 的两个投影方向,显然右图更符合 LDA “同类近异类远”的目标。
我个人习惯将“投影方向”认为是“投影面”的法向量。
图 2 选择不同的投影超平面对应的投影效果
同类点近是通过类内方差尽可能小体现,异类点远是通过类均值之差尽可能大体现,根据这两个条件我们将定性问题转化成为定量问题。
投影方向(投影面的法向量方向)为 WWW,不妨假设 ∣∣W∣∣=1||W||=1∣∣W∣∣=1,那么样本投影到投影面为 zi=WTxiz_i=W^Tx_izi=WTxi,其实即使 ∣∣W∣∣≠1||W||\ne 1∣∣W∣∣=1 也可以采用这种方式定义。
以二分类为例,可以计算出第一类 C1C_1C1 的均值和类内方差为
zˉ1=1N1∑xi∈C1zi=1N1∑xi∈C1WTxiS1=1N1∑xi∈C1(zi−zˉ1)(zi−zˉ1)T\bar z_1 = \frac{1}{N_1} \sum_{x_i\in C_1} z_i=\frac{1}{N_1}\sum_{x_i\in C_1}W^Tx_i\\ S_1=\frac{1}{N_1}\sum_{x_i\in C_1}(z_i-\bar z_1)(z_i-\bar z_1)^T zˉ1=N11xi∈C1∑zi=N11xi∈C1∑WTxiS1=N11xi∈C1∑(zi−zˉ1)(zi−zˉ1)T
其中,zˉ1\bar z_1zˉ1 表示第一类样本投影后的均值,S1S_1S1 表示第一类样本投影后的类内方差,N1N_1N1 表示第一类样本的数量。
类似地,计算出第一类 C1C_1C1 投影后的均值和类内方差为
zˉ2=1N2∑xi∈C2zi=1N2∑xi∈C2WTxiS2=1N2∑xi∈C2(zi−zˉ2)(zi−zˉ2)T\bar z_2 = \frac{1}{N_2} \sum_{x_i\in C_2} z_i=\frac{1}{N_2}\sum_{x_i\in C_2}W^Tx_i\\ S_2=\frac{1}{N_2}\sum_{x_i\in C_2}(z_i-\bar z_2)(z_i-\bar z_2)^T zˉ2=N21xi∈C2∑zi=N21xi∈C2∑WTxiS2=N21xi∈C2∑(zi−zˉ2)(zi−zˉ2)T
类间距离通过 (zˉ1−zˉ2)2(\bar z_1 - \bar z_2)^2(zˉ1−zˉ2)2 来度量,类内散度通过 S1+S2S_1+S_2S1+S2 来度量,所以可以定义损失函数
J(W)=(zˉ1−zˉ2)2S1+S2J(W)=\frac{(\bar z_1 - \bar z_2)^2}{S_1+S_2} J(W)=S1+S2(zˉ1−zˉ2)2
对损失函数的分子进行变形
(zˉ1−zˉ2)2=(1N1∑xi∈C1WTxi−1N2∑xi∈C2WTxi)2=(WT(1N1∑xi∈C1Txi−1N2∑xi∈C2xi))2=(WT(xˉ1−xˉ2))2=WT(xˉ1−xˉ2)(xˉ1−xˉ2)TW\begin{aligned} (\bar z_1 - \bar z_2)^2 & = \left( \frac{1}{N_1}\sum_{x_i\in C_1} W^Tx_i-\frac{1}{N_2}\sum_{x_i\in C_2} W^Tx_i \right)^2 \\ &= \left(W^T\Big( \frac{1}{N_1}\sum_{x_i\in C_1} Tx_i-\frac{1}{N_2}\sum_{x_i\in C_2} x_i \Big)\right)^2 \\ &= \big(W^T(\bar x_1-\bar x_2)\big)^2 \\ &= W^T(\bar x_1-\bar x_2)(\bar x_1-\bar x_2)^TW \end{aligned} (zˉ1−zˉ2)2=(N11xi∈C1∑WTxi−N21xi∈C2∑WTxi)2=(WT(N11xi∈C1∑Txi−N21xi∈C2∑xi))2=(WT(xˉ1−xˉ2))2=WT(xˉ1−xˉ2)(xˉ1−xˉ2)TW
对分母变形
S1+S2=1N1∑xi∈C1(zi−zˉ1)(zi−zˉ1)T+1N2∑xi∈C2(zi−zˉ2)(zi−zˉ2)T=1N1∑xi∈C1(WTxi−1N1∑xj∈C1WTxj)(WTxi−1N1∑xj∈C1WTxj)T+1N2∑xi∈C2(WTxi−1N2∑xj∈C2WTxj)(WTxi−1N2∑xj∈C2WTxj)T=WT1N1∑xi∈C1((xi−xˉ1)(xi−xˉ1)T)W+WT1N2∑xi∈C2((xi−xˉ2)(xi−xˉ2)T)W=WTSaW+WTSbW=WT(SC1+SC2)W\begin{aligned} S_1+S_2 &=\frac{1}{N_1}\sum_{x_i\in C_1}(z_i-\bar z_1)(z_i-\bar z_1)^T + \frac{1}{N_2}\sum_{x_i\in C_2}(z_i-\bar z_2)(z_i-\bar z_2)^T\\ &= \frac{1}{N_1}\sum_{x_i\in C_1}\Big(W^Tx_i-\frac{1}{N_1}\sum_{x_j\in C_1}W^Tx_j\Big)\Big(W^Tx_i-\frac{1}{N_1}\sum_{x_j\in C_1}W^Tx_j\Big)^T + \frac{1}{N_2}\sum_{x_i\in C_2}\Big(W^Tx_i-\frac{1}{N_2}\sum_{x_j\in C_2}W^Tx_j\Big)\Big(W^Tx_i-\frac{1}{N_2}\sum_{x_j\in C_2}W^Tx_j\Big)^T\\ &= W^T\frac{1}{N_1}\sum_{x_i\in C_1}\Big((x_i-\bar x_1)(x_i-\bar x_1)^T\Big)W + W^T\frac{1}{N_2}\sum_{x_i\in C_2}\Big((x_i-\bar x_2)(x_i-\bar x_2)^T\Big)W \\ &= W^TS_{a}W + W^T S_bW \\ &= W^T(S_{C_1}+S_{C_2})W \end{aligned} S1+S2=N11xi∈C1∑(zi−zˉ1)(zi−zˉ1)T+N21xi∈C2∑(zi−zˉ2)(zi−zˉ2)T=N11xi∈C1∑(WTxi−N11xj∈C1∑WTxj)(WTxi−N11xj∈C1∑WTxj)T+N21xi∈C2∑(WTxi−N21xj∈C2∑WTxj)(WTxi−N21xj∈C2∑WTxj)T=WTN11xi∈C1∑((xi−xˉ1)(xi−xˉ1)T)W+WTN21xi∈C2∑((xi−xˉ2)(xi−xˉ2)T)W=WTSaW+WTSbW=WT(SC1+SC2)W
其中,SaS_aSa 和 SbS_bSb 分别表示投影前两类样本的方差。因此,损失函数进一步表示为
J(W)=WT(xˉ1−xˉ2)(xˉ1−xˉ2)TWWT(Sa+Sb)WJ(W)=\frac{W^T(\bar x_1-\bar x_2)(\bar x_1-\bar x_2)^TW}{W^T(S_a+S_b)W} J(W)=WT(Sa+Sb)WWT(xˉ1−xˉ2)(xˉ1−xˉ2)TW
记投影前的类间方差 Sb=(xˉ1−xˉ2)(xˉ1−xˉ2)TS_b=(\bar x_1-\bar x_2)(\bar x_1 - \bar x_2)^TSb=(xˉ1−xˉ2)(xˉ1−xˉ2)T ,投影前的类内方差 Sw=SC1+SC2S_w=S_{C_1}+S_{C_2}Sw=SC1+SC2,损失函数可以被进一步表示为
J(W)=WTSbWWTSwW=(WTSbW)(WTSwW)−1J(W)=\frac{W^TS_bW}{W^TS_wW}=(W^TS_bW)(W^TS_wW)^{-1} J(W)=WTSwWWTSbW=(WTSbW)(WTSwW)−1
计算梯度
∇WJ=2SbW⋅(WTSwW)−1+(WTSbW)⋅(−1)(WTSwW)−2⋅2SwW\nabla_W J = 2S_bW·(W^TS_wW)^{-1} + (W^TS_bW)·(-1)(W^TS_wW)^{-2}·2S_wW ∇WJ=2SbW⋅(WTSwW)−1+(WTSbW)⋅(−1)(WTSwW)−2⋅2SwW
令梯度为零
SbW−(WTSbW)⋅(WTSwW)−1⋅SwW=0SbW=WTSbWWTSwWSwWW=WTSbWWTSwWSw−1SbW\begin{aligned} S_bW - (W^TS_bW)·(W^TS_wW)^{-1}·S_wW &=0 \\ S_bW&=\frac{W^TS_bW}{W^TS_wW} S_wW \\ W&=\frac{W^TS_bW}{W^TS_w W}S_w^{-1}S_bW \end{aligned} SbW−(WTSbW)⋅(WTSwW)−1⋅SwWSbWW=0=WTSwWWTSbWSwW=WTSwWWTSbWSw−1SbW
即
W^=WTSbWWTSwWSw−1SbW(11)\hat W=\frac{W^TS_bW}{W^TS_w W}S_w^{-1}S_bW \tag{11} W^=WTSwWWTSbWSw−1SbW(11)
根据矩阵维度可以看出 WTSbWWTSwW\frac{W^TS_bW}{W^TS_wW}WTSwWWTSbW 为常数;Sb=(xˉ1−xˉ2)(xˉ1−xˉ2)TS_b=(\bar x_1-\bar x_2)(\bar x_1 - \bar x_2)^TSb=(xˉ1−xˉ2)(xˉ1−xˉ2)T,所以式 (11)(11)(11) 中后半部分的 SbW=(xˉ1−xˉ2)(xˉ1−xˉ2)TWS_bW=(\bar x_1-\bar x_2)(\bar x_1 - \bar x_2)^TWSbW=(xˉ1−xˉ2)(xˉ1−xˉ2)TW,其中 (xˉ1−xˉ2)TW(\bar x_1-\bar x_2)^TW(xˉ1−xˉ2)TW 为常数。因此 W=kSw−1(xˉ1−xˉ2)W=kS_w^{-1}(\bar x_1-\bar x_2)W=kSw−1(xˉ1−xˉ2) ,即 W∝Sw−1(xˉ1−xˉ2)W\propto S_w^{-1}(\bar x_1-\bar x_2)W∝Sw−1(xˉ1−xˉ2) 。之所以可以忽略系数,是因为我们只是希望找到一个合适的投影方向,即投影面法向量,而法向量的长度不影响向量的方向,因此无需关心系数。
我们在上面从概率分布的角度讲解了如何获取预测函数,但是没提到如何训练模型,也就是只说了模型如何用,没说如何训练。下面就模型训练进行讲解。
交叉熵(cross-entropy)主要用于度量两个概率分布间的差异性信息。假设 ppp 和 qqq 为两个分布,交叉熵 H(p,q)H(p,q)H(p,q) 定义为
H(p,q)=−∑xp(x)logq(x)H(p,q) = -\sum_x p(x)\log q(x) H(p,q)=−x∑p(x)logq(x)
机器学习中,我们通常将分布理解为向量,所以交叉熵 H(p,q)H(p,q)H(p,q) 也可以表示为
H(p,q)=−∑ipilogqi(12)H(p,q) = -\sum_i p_i\log q_i \tag{12} H(p,q)=−i∑pilogqi(12)
我们知道 logistics 对应的概率质量分布为 P(y∣x)=py(1−p)1−yP(y\mid x)=p^y(1-p)^{1-y}P(y∣x)=py(1−p)1−y 。如果采用最大似然估计(MLE)构造损失函数以求解最优参数,则有
W^=argmaxWlog(P(Y∣X))=argmaxWlog(∏i=1NP(yi∣xi))=argmaxW∑i=1NlogP(yi∣xi)=argmaxW∑i=1Nlogpiyi(1−pi)1−yi=argmaxW∑i=1N(yilogpi+(1−yi)log(1−pi))\begin{aligned} \hat W&={\rm arg}\max_W \log(P(Y\mid X)) \\ &={\rm arg}\max_W\log (\prod_{i=1}^N P(y_i\mid x_i)) \\ &={\rm arg}\max_W\sum_{i=1}^N \log P(y_i\mid x_i) \\ &={\rm arg}\max_W\sum_{i=1}^N \log p_i^{y_i}(1-p_i)^{1-y_i} \\ &={\rm arg}\max_W\sum_{i=1}^N \big(y_i\log p_i+(1-y_i)\log(1-p_i)\big) \end{aligned} W^=argWmaxlog(P(Y∣X))=argWmaxlog(i=1∏NP(yi∣xi))=argWmaxi=1∑NlogP(yi∣xi)=argWmaxi=1∑Nlogpiyi(1−pi)1−yi=argWmaxi=1∑N(yilogpi+(1−yi)log(1−pi))
令 L(W)=∑i=1N(yilogpi+(1−yi)log(1−pi))L(W)=\sum_{i=1}^N \big(y_i\log p_i+(1-y_i)\log(1-p_i)\big)L(W)=∑i=1N(yilogpi+(1−yi)log(1−pi)),其中 ppp 为预测函数 σ(WTx)\sigma(W^Tx)σ(WTx),我们知道 sigmoid 函数的导数为 σ′=σ(1−σ)\sigma'=\sigma(1-\sigma)σ′=σ(1−σ),所以 LLL 的梯度为
∇WL=∑i=1N(yi1pipi(1−pi)xi+(1−yi)11−pi(−1)pi(1−pi)xi)=∑i=1N(yi−pi)xi\begin{aligned} \nabla_WL &=\sum_{i=1}^N\Big(y_i\frac{1}{p_i}p_i(1-p_i)x_i+(1-y_i)\frac{1}{1-p_i}(-1)p_i(1-p_i)x_i\Big) \\ &=\sum_{i=1}^N (y_i-p_i)x_i \end{aligned} ∇WL=i=1∑N(yipi1pi(1−pi)xi+(1−yi)1−pi1(−1)pi(1−pi)xi)=i=1∑N(yi−pi)xi
可以采用 SGD 等算法迭代更新模型参数。
其实损失函数 LLL 也可以理解为交叉熵的形式。令 ai=(yi1−yi)Ta_i = \left(\begin{matrix} y_i & 1-y_i \end{matrix}\right)^Tai=(yi1−yi)T,bi=(pi1−pi)Tb_i = \left(\begin{matrix} p_i & 1-p_i \end{matrix}\right)^Tbi=(pi1−pi)T,单样本的交叉熵对应式 (12)(12)(12) 为
H(ai,bi)=−∑j=12aijlogbij=−aiT⋅bi=−(yilogpi+(1−yi)log(1−pi))\begin{aligned} H(a_i,b_i)&=-\sum_{j=1}^2 a_{ij}\log b_{ij} \\ &= -a_i^T·b_i \\ &= -\big( y_i\log p_i + (1-y_i)\log(1-p_i) \big) \end{aligned} H(ai,bi)=−j=1∑2aijlogbij=−aiT⋅bi=−(yilogpi+(1−yi)log(1−pi))
考虑将全部样本的交叉熵之和作为损失函数,则
J(W)=−∑i=1N(yilogpi+(1−yi)log(1−pi))J(W) =- \sum_{i=1}^N \big( y_i\log p_i + (1-y_i)\log(1-p_i) \big) J(W)=−i=1∑N(yilogpi+(1−yi)log(1−pi))
显然,交叉熵对应的最小化 J(W)J(W)J(W) 与 MLE 对应的最大化 L(W)L(W)L(W) 是等价的。
多分类的情况实际上就是对二分类的扩展,同样考虑交叉熵的形式。
令 ai=(yi1yi2…yim)Ta_i = \left(\begin{matrix} y_{i1} & y_{i2} & \dots & y_{im} \end{matrix}\right)^Tai=(yi1yi2…yim)T,bi=1∑j=1mexp(pij)(exp(pi1)exp(pi2)…exp(pim))Tb_i = \frac{1}{\sum_{j=1}^m\exp{(p_{ij}})}\Big(\begin{matrix}\exp({p_{i1}}) & \exp(p_{i2}) & \dots & \exp(p_{im})\end{matrix}\Big)^Tbi=∑j=1mexp(pij)1(exp(pi1)exp(pi2)…exp(pim))T ,其中 mmm 为类别数目,aia_iai 为以 one-hot 形式表示样本 iii 的标签 yiy_iyi。单样本的交叉熵对应式 (12)(12)(12) 为
H(ai,bi)=−∑j=1maijlogbij\begin{aligned} H(a_i,b_i)&=-\sum_{j=1}^m a_{ij}\log b_{ij} \\ \end{aligned} H(ai,bi)=−j=1∑maijlogbij
考虑将全部样本的交叉熵之和作为损失函数,则
J(W)=−∑i=1N∑j=1maijlogbijJ(W) = -\sum_{i=1}^N\sum_{j=1}^m a_{ij}\log b_{ij} J(W)=−i=1∑Nj=1∑maijlogbij
其中 aia_iai 为 one-hot 数据,∣∣bi∣∣=1||b_i||=1∣∣bi∣∣=1,所以进一步简化表示为
J(W)=−∑i=1Nlogexp(pik)∑j=1mexp(pij)J(W) = -\sum_{i=1}^N \log\frac{\exp(p_{ik})}{\sum_{j=1}^m \exp(p_{ij})} J(W)=−i=1∑Nlog∑j=1mexp(pij)exp(pik)
其中 kkk 表示样本 iii 对应标签 yiy_iyi,亦满足 yik=1y_{ik}=1yik=1。
我们可以稍微总结一下交叉熵损失函数与 sigmoid(或 softmax)的关系。交叉熵损失函数是指将全部样本的交叉熵之和作为损失函数,用于计算交叉熵的两个向量 ppp 和 qqq 分别是样本标签的独热编码和一组通过 sigmoid 函数(或 softmax 函数)计算得到的该样本在每种类别的概率值。可见,将 sigmoid 函数(或 softmax 函数)作为内函数,交叉熵函数作为外函数复合起来,得到单个样本的交叉熵损失,再复合上加和函数,得到最终的模型损失函数。
高斯判别分析(Gaussian Discriminative Analysis,GDA)的思想是对联合概率 P(x,y)P(x,y)P(x,y) 进行建模,通过最大化对数似然估计计算出模型参数,属于生成模型。
以二分类为例理解高斯判别分析模型。假设
y∼Bernoulli(ϕ)x∣y=0∼N(μ0,Σ)x∣y=1∼N(μ1,Σ)\begin{aligned} y&\sim Bernoulli(ϕ) \\ x\mid y=0 &\sim N(\mu_0,\Sigma)\\ x\mid y=1 &\sim N(\mu_1,\Sigma) \end{aligned} yx∣y=0x∣y=1∼Bernoulli(ϕ)∼N(μ0,Σ)∼N(μ1,Σ)
其中,μ\muμ 为均值向量,Σ\SigmaΣ 为协方差对角矩阵。对应的概率分布为
P(y)=ϕy(1−ϕ)1−yP(x∣y=0)=1(2π)d2∣Σ∣12exp(−12(x−μ0)TΣ−1(x−μ0))P(x∣y=1)=1(2π)d2∣Σ∣12exp(−12(x−μ1)TΣ−1(x−μ1))\begin{aligned} P(y) &= \phi^y(1-\phi)^{1-y} \\ P(x\mid y=0)&=\frac{1}{(2\pi)^\frac{d}{2}|\Sigma|^\frac{1}{2}}\exp \left( -\frac{1}{2}(x-\mu_0)^T\Sigma^{-1}(x-\mu_0) \right)\\ P(x\mid y=1)&=\frac{1}{(2\pi)^\frac{d}{2}|\Sigma|^\frac{1}{2}}\exp \left( -\frac{1}{2}(x-\mu_1)^T\Sigma^{-1}(x-\mu_1) \right)\\ \end{aligned} P(y)P(x∣y=0)P(x∣y=1)=ϕy(1−ϕ)1−y=(2π)2d∣Σ∣211exp(−21(x−μ0)TΣ−1(x−μ0))=(2π)2d∣Σ∣211exp(−21(x−μ1)TΣ−1(x−μ1))
将对数似然函数作为损失函数
LL(ϕ,μ0,μ1,Σ)=log∏i=1NP(xi,yi;ϕ,μ0,μ1,Σ)=log∏i=1NP(xi∣yi;μ0,μ1,Σ)P(yi;ϕ)=∑i=1N(logP(xi∣yi;μ0,μ1,Σ)+logP(yi;ϕ))=∑i=1N(logP(xi∣yi=0;μ0,Σ)1−yiP(xi∣yi=1;μ1,Σ)yi+logP(yi;ϕ))=∑i=1N((1−yi)logP(xi∣yi=0;μ0,Σ)+yilogP(xi∣yi=1;μ1,Σ)+logP(yi;ϕ))=∑i=1N((1−yi)(−d2log2π−12log∣Σ∣−12(xi−μ0)TΣ−1(xi−μ0))+yi(−d2log2π−12log∣Σ∣−12(xi−μ1)TΣ(xi−μ1))+logϕyi(1−ϕ)1−yi)\begin{aligned} LL(\phi,\mu_0,\mu_1,\Sigma)&=\log\prod_{i=1}^N P(x_i,y_i;\phi, \mu_0, \mu_1, \Sigma) \\ &=\log \prod_{i=1}^N P(x_i\mid y_i;\mu_0,\mu_1,\Sigma)P(y_i;\phi) \\ &=\sum_{i=1}^N \Big(\log P(x_i\mid y_i;\mu_0,\mu_1,\Sigma)+\log P(y_i;\phi)\Big) \\ &=\sum_{i=1}^N \Big(\log P(x_i\mid y_i=0;\mu_0,\Sigma)^{1-y_i} P(x_i\mid y_i=1;\mu_1,\Sigma)^{y_i}+\log P(y_i;\phi)\Big) \\ &=\sum_{i=1}^N \Big((1-y_i)\log P(x_i\mid y_i=0;\mu_0,\Sigma)+y_i\log P(x_i\mid y_i=1;\mu_1,\Sigma)+\log P(y_i;\phi)\Big) \\ &=\sum_{i=1}^N\Big( (1-y_i)\big( -\frac{d}{2}\log2\pi -\frac{1}{2}\log|\Sigma|-\frac{1}{2}(x_i-\mu_0)^T\Sigma^{-1}(x_i-\mu_0) \big) + y_i\big( -\frac{d}{2} \log2\pi-\frac{1}{2}\log|\Sigma|-\frac{1}{2}(x_i-\mu_1)^T\Sigma(x_i-\mu_1) \big) + \log \phi^{y_i}(1-\phi)^{1-y_i} \Big) \end{aligned} LL(ϕ,μ0,μ1,Σ)=logi=1∏NP(xi,yi;ϕ,μ0,μ1,Σ)=logi=1∏NP(xi∣yi;μ0,μ1,Σ)P(yi;ϕ)=i=1∑N(logP(xi∣yi;μ0,μ1,Σ)+logP(yi;ϕ))=i=1∑N(logP(xi∣yi=0;μ0,Σ)1−yiP(xi∣yi=1;μ1,Σ)yi+logP(yi;ϕ))=i=1∑N((1−yi)logP(xi∣yi=0;μ0,Σ)+yilogP(xi∣yi=1;μ1,Σ)+logP(yi;ϕ))=i=1∑N((1−yi)(−2dlog2π−21log∣Σ∣−21(xi−μ0)TΣ−1(xi−μ0))+yi(−2dlog2π−21log∣Σ∣−21(xi−μ1)TΣ(xi−μ1))+logϕyi(1−ϕ)1−yi)
对模型参数 ϕ\phiϕ,μ0\mu_0μ0,μ1\mu_1μ1 和 Σ\SigmaΣ 分别计算偏导,并令偏导数等于零,得
ϕ=1N∑i=1N1{yi=1}μ0=1N∑i=1N1{yi=0}xiμ1=1N∑i=1N1{yi=1}xiΣ=1N∑i=1N(yi(xi−μ1)(xi−μ1)T+(1−yi)(xi−μ0)(xi−μ0)T)\phi = \frac{1}{N}\sum_{i=1}^N 1\{y_i=1\} \\ \mu_0 = \frac{1}{N}\sum_{i=1}^N 1\{y_i=0\}x_i \\ \mu_1 = \frac{1}{N}\sum_{i=1}^N 1\{y_i=1\}x_i \\ \Sigma = \frac{1}{N}\sum_{i=1}^N\Big( y_i(x_i-\mu_1)(x_i-\mu_1)^T + (1-y_i)(x_i-\mu_0)(x_i-\mu_0)^T \Big) ϕ=N1i=1∑N1{yi=1}μ0=N1i=1∑N1{yi=0}xiμ1=N1i=1∑N1{yi=1}xiΣ=N1i=1∑N(yi(xi−μ1)(xi−μ1)T+(1−yi)(xi−μ0)(xi−μ0)T)
具体的数学推导和公式讲解见本小节后半部分。
对于二分类而言,GDA 训练两个多元高斯分布。想要对输入样本进行分类,只需要把样本输入到参数已知的两个高斯分布中,取输出概率大者对应的类别作为样本类别便实现了预测;另外这类基于概率的模型一般都具有生成数据的功能,按照选择某一个类别对应的多元高斯分布,用该分布对每个特征逐一随机采样构造一个属于该类别的生成样本。
可以借助图 333 辅助理解。既可以理解为,根据已知样本和对应类别计算两个高斯分布的参数;也可以理解为,利用两个已知参数的分布,选取其中一个分布,按照概率随机采样,来实现生成样本。
图 3 二分类高斯判别分析模型
损失函数关于模型参数更新公式完整推导。
多元高斯模型假设每个特征相互独立,且服从正态分布。多元高斯分布函数中的参数 Σ\SigmaΣ 为 d×dd\times dd×d 维协方差矩阵,由于不同特征独立,所以 Σ\SigmaΣ 为对角矩阵,∣Σ∣|\Sigma|∣Σ∣ 表示协方差矩阵的行列式 ∣Σ∣=σ1σ2…σd|\Sigma|=\sigma_1\sigma_2\dots\sigma_d∣Σ∣=σ1σ2…σd,其中 σi\sigma_iσi 表示全部样本第 iii 维特征的方差。
另外,我们还需要了解几个会用到的求导公式
trABC=trCAB=BCA∂trAX∂X=∂XA∂X=AT∂uTv∂x=∂u∂xv+∂v∂xu∂log∣X∣∂X=(X−1)T∂trX−1A∂X=−(X−1)TAT(X−1)T{\rm tr}ABC={\rm tr}CAB={\rm } BCA \\ \frac{\partial {\rm tr} AX}{\partial X} = \frac{\partial{\rm} XA}{\partial X}=A^T \\ \frac{\partial u^Tv}{\partial x} =\frac{\partial u}{\partial x}v + \frac{\partial v}{\partial x}u \\ \frac{\partial \log|X|}{\partial X} = (X^{-1})^T \\ \frac{\partial {\rm tr}X^{-1}A}{\partial X} = -(X^{-1})^TA^T(X^{-1})^T trABC=trCAB=BCA∂X∂trAX=∂X∂XA=AT∂x∂uTv=∂x∂uv+∂x∂vu∂X∂log∣X∣=(X−1)T∂X∂trX−1A=−(X−1)TAT(X−1)T
对 ϕ\phiϕ 计算偏导
∇ϕLL=∂∑i=1Nlog(ϕyi(1−ϕ)1−yi)∂ϕ=∂∑i=1N(yilogϕ+(1−yi)log(1−ϕ))∂ϕ=∑i=1N(yiϕ−1−yi1−ϕ)=∑i=1Nyi−ϕϕ(1−ϕ)\begin{aligned} \nabla_\phi LL& = \frac{\partial \sum_{i=1}^N\log \big (\phi^{y_i} (1-\phi)^{1-y_i} \big)}{\partial \phi} \\ &=\frac{\partial \sum_{i=1}^N \big ( y_i\log\phi+(1-y_i) \log(1-\phi) \big)}{\partial \phi} \\ &=\sum_{i=1}^N \Big(\frac{y_i}{\phi}-\frac{1-y_i}{1-\phi} \Big) \\ &=\sum_{i=1}^N\frac{y_i-\phi}{\phi(1-\phi)} \end{aligned} ∇ϕLL=∂ϕ∂∑i=1Nlog(ϕyi(1−ϕ)1−yi)=∂ϕ∂∑i=1N(yilogϕ+(1−yi)log(1−ϕ))=i=1∑N(ϕyi−1−ϕ1−yi)=i=1∑Nϕ(1−ϕ)yi−ϕ令偏导等于零,得
∇ϕLL=0∑i=1Nyi−ϕϕ(1−ϕ)=0∑i=1N(yi−ϕ)=0∑i=1Nyi=mϕϕ=1N∑i=1N1{yi=1}\begin{aligned} \nabla_\phi LL &= 0 \\ \sum_{i=1}^N \frac{y_i-\phi}{\phi(1-\phi)}&=0 \\ \sum_{i=1}^N \big (y_i-\phi \big) &= 0 \\ \sum_{i=1}^N y_i &= m\phi \\ \phi &= \frac{1}{N} \sum_{i=1}^N 1\{y_i=1\} \end{aligned} ∇ϕLLi=1∑Nϕ(1−ϕ)yi−ϕi=1∑N(yi−ϕ)i=1∑Nyiϕ=0=0=0=mϕ=N1i=1∑N1{yi=1}
对 μ0\mu_0μ0 计算偏导
∇μ0LL=∂∑i=1N(1−yi)(−12(xi−μ0)TΣ−1(xi−μ0))∂μ0=−12∑i=1N(1−yi)(∂(xi−μ0)∂μ0Σ−1(xi−μ0)+∂Σ−1(xi−μ0)∂μ0(xi−μ0))=−12∑i=1N(1−yi)(−Σ−1(xi−μ0)−(Σ−1)T(xi−μ0))=−12∑i=1N(1−yi)(−2Σ−1(xi−μ0))=∑i=1N(1−yi)Σ−1(xi−μ0)\begin{aligned} \nabla_{\mu_0} LL&=\frac{\partial \sum_{i=1}^N (1-y_i)\big( -\frac{1}{2}(x_i-\mu_0)^T\Sigma^{-1}(x_i-\mu_0) \big)}{\partial \mu_0} \\ &=-\frac{1}{2}\sum_{i=1}^N (1-y_i)\big( \frac{\partial (x_i-\mu_0)}{\partial \mu_0}\Sigma^{-1}(x_i-\mu_0)+\frac{\partial \Sigma^{-1} (x_i-\mu_0)}{\partial \mu_0}(x_i-\mu_0) \big) \\ &=-\frac{1}{2}\sum_{i=1}^N (1-y_i)\big( -\Sigma^{-1}(x_i-\mu_0)-(\Sigma^{-1})^T(x_i-\mu_0) \big) \\ &=-\frac{1}{2}\sum_{i=1}^N (1-y_i)\big( -2\Sigma^{-1}(x_i-\mu_0) \big) \\ &=\sum_{i=1}^N (1-y_i)\Sigma^{-1}(x_i-\mu_0) \\ \end{aligned} ∇μ0LL=∂μ0∂∑i=1N(1−yi)(−21(xi−μ0)TΣ−1(xi−μ0))=−21i=1∑N(1−yi)(∂μ0∂(xi−μ0)Σ−1(xi−μ0)+∂μ0∂Σ−1(xi−μ0)(xi−μ0))=−21i=1∑N(1−yi)(−Σ−1(xi−μ0)−(Σ−1)T(xi−μ0))=−21i=1∑N(1−yi)(−2Σ−1(xi−μ0))=i=1∑N(1−yi)Σ−1(xi−μ0)
令偏导等于零,得
∇μ0LL=0∑i=1N(1−yi)Σ−1(xi−μ0)=0∑i=1N(1−yi)ΣΣ−1(xi−μ0)=0∑i=1N(1−yi)(xi−μ0)=0μ0=1N∑i=1N1{yi=0}xi\begin{aligned} \nabla_{\mu_0}LL &= 0\\ \sum_{i=1}^N (1-y_i)\Sigma^{-1}(x_i-\mu_0) &= 0\\ \sum_{i=1}^N (1-y_i)\Sigma\Sigma^{-1}(x_i-\mu_0) &= 0\\ \sum_{i=1}^N (1-y_i)(x_i-\mu_0) &= 0\\ \mu_0&=\frac{1}{N}\sum_{i=1}^N 1\{y_i=0\}x_i \end{aligned} ∇μ0LLi=1∑N(1−yi)Σ−1(xi−μ0)i=1∑N(1−yi)ΣΣ−1(xi−μ0)i=1∑N(1−yi)(xi−μ0)μ0=0=0=0=0=N1i=1∑N1{yi=0}xi
同理可以计算出 LLLLLL 关于 μ1\mu_1μ1 偏导等于零的解析解
μ1=1N∑i=1N1{yi=1}xi\mu_1 = \frac{1}{N}\sum_{i=1}^N 1\{y_i=1\}x_i μ1=N1i=1∑N1{yi=1}xi
对 Σ\SigmaΣ 计算偏导
∇ΣLL=∂∑i=1Nyi(−12(xi−μ1)TΣ−1(xi−μ1))∂Σ+∂∑i=1N(1−yi)(−12(xi−μ0)TΣ−1(xi−μ0))∂Σ+∂∑i=1N−12log∣Σ∣∂Σ=∑i=1Nyi∂tr(−12(xi−μ1)TΣ−1(xi−μ1))∂Σ+∑i=1N(1−yi)∂tr(−12(xi−μ0)TΣ−1(xi−μ0))∂Σ+∑i=1N∂(−12log∣Σ∣)∂Σ=−12∑i=1Nyi∂tr(Σ−1(xi−μ1)(xi−μ1)T)∂Σ−12∑i=1N(1−yi)∂tr(Σ−1(xi−μ0)(xi−μ0)T)∂Σ−12∑i=1N(Σ−1)T=−12∑i=1Nyi(−(Σ−1)T((xi−μ1)(xi−μ1)T)T(Σ−1)T)−12∑i=1N(1−yi)(−(Σ−1)T((xi−μ0)(xi−μ0)T)T(Σ−1)T)−12N(Σ−1)T=12∑i=1Nyi(Σ−1(xi−μ1)(xi−μ1)TΣ−1)+12∑i=1N(1−yi)(Σ−1(xi−μ0)(xi−μ0)TΣ−1)−12NΣ−1=12(∑i=1Nyi(Σ−1(xi−μ1)(xi−μ1)TΣ−1)+∑i=1N(1−yi)(Σ−1(xi−μ0)(xi−μ0)TΣ−1)−NΣ−1)\begin{aligned} \nabla_\Sigma LL &= \frac{\partial \sum_{i=1}^N y_i\big(-\frac{1}{2} (x_i-\mu_1)^T\Sigma^{-1} (x_i-\mu_1) \big) }{\partial \Sigma} + \frac{\partial \sum_{i=1}^N (1-y_i)\big(-\frac{1}{2} (x_i-\mu_0)^T\Sigma^{-1} (x_i-\mu_0) \big) }{\partial \Sigma} + \frac{ \partial \sum_{i=1}^N-\frac{1}{2}\log |\Sigma| }{\partial \Sigma} \\ &=\sum_{i=1}^N y_i\frac{\partial{\rm tr} \big(−\frac{1}{2} (x_i-\mu_1)^T\Sigma^{-1} (x_i-\mu_1) \big) }{\partial \Sigma} + \sum_{i=1}^N (1-y_i)\frac{\partial{\rm tr} \big(−\frac{1}{2} (x_i-\mu_0)^T\Sigma^{-1} (x_i-\mu_0) \big) }{\partial \Sigma} + \sum_{i=1}^N\frac{\partial \big( -\frac{1}{2}\log|\Sigma| \big)}{\partial \Sigma} \\ &=−\frac{1}{2}\sum_{i=1}^N y_i\frac{\partial{\rm tr} \big(\Sigma^{-1} (x_i-\mu_1)(x_i-\mu_1)^T \big) }{\partial \Sigma} -\frac{1}{2}\sum_{i=1}^N (1-y_i)\frac{\partial{\rm tr} \big(\Sigma^{-1} (x_i-\mu_0) (x_i-\mu_0)^T \big) }{\partial \Sigma} -\frac{1}{2} \sum_{i=1}^N(\Sigma^{-1} )^T\\ &=−\frac{1}{2}\sum_{i=1}^N y_i \Big(-(\Sigma^{-1})^T \big((x_i-\mu_1)(x_i-\mu_1)^T\big)^T (\Sigma^{-1})^T \Big) −\frac{1}{2}\sum_{i=1}^N (1-y_i) \Big(-(\Sigma^{-1})^T \big((x_i-\mu_0)(x_i-\mu_0)^T\big)^T (\Sigma^{-1})^T \Big) -\frac{1}{2} N(\Sigma^{-1} )^T\\ &=\frac{1}{2}\sum_{i=1}^N y_i \Big(\Sigma^{-1} (x_i-\mu_1)(x_i-\mu_1)^T \Sigma^{-1}\Big) +\frac{1}{2}\sum_{i=1}^N (1-y_i) \Big(\Sigma^{-1} (x_i-\mu_0)(x_i-\mu_0)^T \Sigma^{-1} \Big) -\frac{1}{2} N\Sigma^{-1}\\ &=\frac{1}{2}\left(\sum_{i=1}^N y_i \Big(\Sigma^{-1} (x_i-\mu_1)(x_i-\mu_1)^T \Sigma^{-1}\Big) +\sum_{i=1}^N (1-y_i) \Big(\Sigma^{-1} (x_i-\mu_0)(x_i-\mu_0)^T \Sigma^{-1} \Big) - N\Sigma^{-1} \right)\\ \end{aligned} ∇ΣLL=∂Σ∂∑i=1Nyi(−21(xi−μ1)TΣ−1(xi−μ1))+∂Σ∂∑i=1N(1−yi)(−21(xi−μ0)TΣ−1(xi−μ0))+∂Σ∂∑i=1N−21log∣Σ∣=i=1∑Nyi∂Σ∂tr(−21(xi−μ1)TΣ−1(xi−μ1))+i=1∑N(1−yi)∂Σ∂tr(−21(xi−μ0)TΣ−1(xi−μ0))+i=1∑N∂Σ∂(−21log∣Σ∣)=−21i=1∑Nyi∂Σ∂tr(Σ−1(xi−μ1)(xi−μ1)T)−21i=1∑N(1−yi)∂Σ∂tr(Σ−1(xi−μ0)(xi−μ0)T)−21i=1∑N(Σ−1)T=−21i=1∑Nyi(−(Σ−1)T((xi−μ1)(xi−μ1)T)T(Σ−1)T)−21i=1∑N(1−yi)(−(Σ−1)T((xi−μ0)(xi−μ0)T)T(Σ−1)T)−21N(Σ−1)T=21i=1∑Nyi(Σ−1(xi−μ1)(xi−μ1)TΣ−1)+21i=1∑N(1−yi)(Σ−1(xi−μ0)(xi−μ0)TΣ−1)−21NΣ−1=21(i=1∑Nyi(Σ−1(xi−μ1)(xi−μ1)TΣ−1)+i=1∑N(1−yi)(Σ−1(xi−μ0)(xi−μ0)TΣ−1)−NΣ−1)
令偏导等于零,得
∇ΣLL=012(∑i=1Nyi(Σ−1(xi−μ1)(xi−μ1)TΣ−1)+∑i=1N(1−yi)(Σ−1(xi−μ0)(xi−μ0)TΣ−1)−NΣ−1)=0∑i=1Nyi(ΣΣ−1(xi−μ1)(xi−μ1)TΣΣ−1)+∑i=1N(1−yi)(ΣΣ−1(xi−μ0)(xi−μ0)TΣΣ−1)−NΣΣ−1Σ=Σ0Σ∑i=1Nyi(xi−μ1)(xi−μ1)T+∑i=1N(1−yi)(xi−μ0)(xi−μ0)T−NΣ=0∑i=1N(yi(xi−μ1)(xi−μ1)T+(1−yi)(xi−μ0)(xi−μ0)T)−NΣ=0Σ=1N∑i=1N(yi(xi−μ1)(xi−μ1)T+(1−yi)(xi−μ0)(xi−μ0)T)\begin{aligned} \nabla_\Sigma LL &=0 \\ \frac{1}{2}\left(\sum_{i=1}^N y_i \Big(\Sigma^{-1} (x_i-\mu_1)(x_i-\mu_1)^T \Sigma^{-1}\Big) +\sum_{i=1}^N (1-y_i) \Big(\Sigma^{-1} (x_i-\mu_0)(x_i-\mu_0)^T \Sigma^{-1} \Big) - N\Sigma^{-1} \right)&= 0\\ \sum_{i=1}^N y_i \Big(\Sigma\Sigma^{-1} (x_i-\mu_1)(x_i-\mu_1)^T \Sigma\Sigma^{-1}\Big) +\sum_{i=1}^N (1-y_i) \Big(\Sigma\Sigma^{-1} (x_i-\mu_0)(x_i-\mu_0)^T \Sigma\Sigma^{-1} \Big) - N\Sigma\Sigma^{-1}\Sigma&= \Sigma0\Sigma\\ \sum_{i=1}^N y_i (x_i-\mu_1)(x_i-\mu_1)^T +\sum_{i=1}^N (1-y_i) (x_i-\mu_0)(x_i-\mu_0)^T - N\Sigma&= 0\\ \sum_{i=1}^N\Big( y_i (x_i-\mu_1)(x_i-\mu_1)^T + (1-y_i) (x_i-\mu_0)(x_i-\mu_0)^T \Big)- N\Sigma&= 0\\ \Sigma = \frac{1}{N}\sum_{i=1}^N\Big( y_i(x_i-\mu_1)(x_i-\mu_1)^T + (1-y_i)(x_i-\mu_0)(x_i-\mu_0)^T \Big) \end{aligned} ∇ΣLL21(i=1∑Nyi(Σ−1(xi−μ1)(xi−μ1)TΣ−1)+i=1∑N(1−yi)(Σ−1(xi−μ0)(xi−μ0)TΣ−1)−NΣ−1)i=1∑Nyi(ΣΣ−1(xi−μ1)(xi−μ1)TΣΣ−1)+i=1∑N(1−yi)(ΣΣ−1(xi−μ0)(xi−μ0)TΣΣ−1)−NΣΣ−1Σi=1∑Nyi(xi−μ1)(xi−μ1)T+i=1∑N(1−yi)(xi−μ0)(xi−μ0)T−NΣi=1∑N(yi(xi−μ1)(xi−μ1)T+(1−yi)(xi−μ0)(xi−μ0)T)−NΣΣ=N1i=1∑N(yi(xi−μ1)(xi−μ1)T+(1−yi)(xi−μ0)(xi−μ0)T)=0=0=Σ0Σ=0=0
关于贝叶斯分类器的知识,我已经出过一篇详细的博客,所以这里仅强调一下朴素贝叶斯的假设条件。
我们知道贝叶斯分类器都是在一些假设下进行的,根据假设条件的不同可以分为多种贝叶斯分类器,比如朴素贝叶斯(naive Bayes classifiers)、半朴素贝叶斯(semi-naive Bayes classifiers)和贝叶斯网(Bayesian network)等等。朴素贝叶斯的假设为属性条件独立性假设(attribute conditional independence assumption),这使得朴素贝叶斯的应用场景大大受限,但是计算难度也有效地降低。通过放宽假设条件,可以让模型的应用更加广泛,但随之而来的就是计算难度的增加,比如半朴素贝叶斯等。
详细学习“贝叶斯分类器”的相关知识请移步:REF [12] 和 REF [13] 。
[1] 机器学习-白板推导系列(四)-线性分类(Linear Classification)- bilibili
[2] 伯努利分布、二项分布、多类别分布、多项分布 - 知乎
[3] 指数分布族函数与广义线性模型(Generalized Linear Models,GLM)- CSDN博客
[4] Linear Regression- Wikipedia
[5] Generalized Linear Model - Wikipedia
[6] Exponential Family - Wikipedia
[7] 【机器学习】PLA (感知机算法 Perceptron Learning Algorithm) - CSDN博客
[8] 【人工智能】传统机器学习算法(QDU)- CSDN博客
[9] 损失函数|交叉熵损失函数 - 知乎
[10] 高斯判别分析(Gaussian Discriminative Analysis)- CSDN博客
[11] 机器学习-白板推导系列(八)-指数族分布(Exponential Family Distribution)- bilibili
[12] 【机器学习】贝叶斯分类器【上】- CSDN博客
[13] 【机器学习】贝叶斯分类器【下】- CSDN博客