用 SHAP 可视化解释机器学习模型实用指南(下)

2021-10-14 15:24:04 浏览数 (2)

大家好,我是云朵君!

导读: SHAP是Python开发的一个"模型解释"包,是一种博弈论方法来解释任何机器学习模型的输出。本文重点介绍11种shap可视化图形来解释任何机器学习模型的使用方法。上篇用 SHAP 可视化解释机器学习模型实用指南(上)已经介绍了特征重要性和特征效果可视化,而本篇将继续介绍shap用于模型预测的可解释性。

0 人点赞