李宏毅机器学习课程笔记-10.2生成模型中的半监督学习

生成模型中的半监督学习:Semi-supervised Learning for Generative Model

有监督生成模型

有监督生成模型:Supervised Generative Model

如下图所示,在有监督生成模型中,得到$P(C_1),P(C_2),\mu^1,\mu^2,\Sigma$后,就可以计算出$x$属于类别$C_i$的概率$P(C_i|x)$。

img

半监督生成模型

半监督生成模型:Semi-supervised Generative Model

基于有监督生成模型,当有了无标签数据之后(下图中绿色圆点),我们会明显发现有监督生成模型中的$P(C_1),P(C_2),\mu^1,\mu^2,\Sigma$并不够正确,比如2个类别的分布应该接近于下图中虚线圆圈、先验概率$P(C_1)$应该小于$P(C_2)$,所以应该使用无标签数据重新估计$P(C_1),P(C_2),\mu^1,\mu^2,\Sigma$。

img

直观理解

具体来讲,按照以下步骤进行计算:

  1. 初始化参数:$\theta=\{P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\}$

    可以随机初始化,也可以用有标签数据估算

  2. 通过$\theta$计算每个样本$x^u$属于类别$C_i$的概率$P_\theta(C_i|x^u)$

  3. 更新参数$\theta$(其实重点就是如何同时利用有标签数据和无标签数据实现半监督)

    • $P(C_1)=\frac{N_1+\sum_{x^u}P(C_1|x^u)}{N}$,其中$N$是所有样本的数量、$N_1$是属于类别$C_1$的样本的数量。
    • $\mu^1=\frac{1}{N_1}\sum_{x^r\in C_1}x^r+\frac{1}{\sum_{x^u}P(C_1|x^u)}\sum_{x^u}P(C_1|x^u)x^u$,其中$x^r,x^u$分别指有标签的样本和无标签的样本

    同理可知其它参数的计算和更新方法

  4. 返回第2步

理论上,上述步骤是可以收敛的,但参数$\theta$的初始化值会影响结果。其实上面的第2步是EM算法中的E,第3步是EM算法中的M。

理论推导

$\theta=\{P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\}$

  • Maximum likelihood with labelled data

    使得$logL(\theta)=\sum_{x^r}logP_\theta(x^r, \hat y^r)$最大(有一个Closed-form solution),其中每个有标注样本$x^r$的$P_\theta(x^r,\hat y^r)=P_\theta(x^r|\hat y^r)P(\hat y^r)$。

  • Maximum likelihood with labelled & unlabeled data

    使得$logL(\theta)=\sum_{x^r}logP_\theta(x^r, \hat y^r)+\sum_{x^u}logP_\theta(x^u)$最大(该式并不是凹函数,所以需要迭代求解),其中每个无标注样本$x^u$的$P_\theta(x^u)=P_\theta(x^u|C_1)P(C_1)+P_\theta(x^u|C_2)P(C_2)$


Github(github.com):@chouxianyu

Github Pages(github.io):@臭咸鱼

知乎(zhihu.com):@臭咸鱼

博客园(cnblogs.com):@臭咸鱼

B站(bilibili.com):@绝版臭咸鱼

微信公众号:@臭咸鱼

转载请注明出处,欢迎讨论和交流!