复现经典:《统计学习方法》第22章 无监督学习方法总结

2020-06-11 15:26:33 浏览数 (1)

第22章 无监督学习方法总结

本文是李航老师的《统计学习方法》一书的代码复现。作者:黄海广 备注:代码都可以在github中下载。

无监督学习方法的关系和特点

第2篇详细介绍了八种常用的统计机器学习方法,即聚类方法(包括层次聚类与k均值聚类)、奇异值分解(SVD)、主成分分析(PCA)、无监督学习方法总结 22.1无监潜在语义分析(LSA)、概率潜在语义分析(PLSA)、马尔可夫链蒙特卡罗法(CMC,包括 Metropolis-Hastings-算法和吉布斯抽样)、潜在狄利克雷分配(LDA)、 PageRank算法。此外,还简单介绍了另外三种常用的统计机器学习方法,即非负矩阵分解(NMF)变分推理、幂法。这些方法通常用于无监督学习的聚类、降维、话题分析以及图分析。

表 无监督学习方法的特点

方法

模型

策略

算法

聚类

层次聚类

聚类树

类内样本距离最小

启发式算法

k均值聚类

k中心聚类

样本与类中心距离最小

迭代算法

高斯混合模型

高斯混合模型

似然函数最大

EM算法

降维

PCA

低维正交空间

方差最大

SVD

话题分析

LSA

矩阵分解模型

平方损失最小

SVD

NMF

矩阵分解模型

平方损失最小

非负矩阵分解

PLSA

PLSA模型

似然函数最大

EM算法

LDA

LDA模型

后验概率估计

吉布斯抽样,变分推理

图分析

PageRank

有向图上的马尔可夫链

平稳分布求解

幂法

表 含有隐变量概率模型的学习方法的特点

算法

基本原理

收敛性

收敛速度

实现难易度

适合问题

EM算法

迭代计算、后验概率估计

收敛于局部最优

较快

容易

简单模型

变分推理

迭代计算、后验概率近似估计

收敛于局部最优

较慢

较复杂

复杂模型

吉布斯抽样

随机抽样、后验概率估计

依概率收敛于全局最优

较慢

容易

复杂模型

表 矩阵分解的角度看话题模型

下载地址

https://github.com/fengdu78/lihang-code

参考资料:

[1] 《统计学习方法》: https://baike.baidu.com/item/统计学习方法/10430179

[2] 黄海广: https://github.com/fengdu78

[3] github: https://github.com/fengdu78/lihang-code

0 人点赞