XAI 6个顶级的可解释AI 的Python框架推荐

【XAI 6个顶级的可解释AI 的Python框架推荐】随着人工智能的发展为了解决具有挑战性的问题,人们创造了更复杂、更不透明的模型 。AI就像一个黑匣子,能自己做出决定,但是人们并不清楚其中缘由 。建立一个AI模型,输入数据,然后再输出结果,但有一个问题就是我们不能解释AI为何会得出这样的结论 。需要了解AI如何得出某个结论背后的原因,而不是仅仅接受一个在没有上下文或解释的情况下输出的结果 。
可解释性旨在帮助人们理解:

  • 如何学习的?
  • 学到了什么?
  • 针对一个特定输入为什么会做出如此决策?
  • 决策是否可靠?
在本文中,我将介绍6个用于可解释性的Python/ target=_blank class=infotextkey>Python框架 。
SHAPSHapley Additive explanation (SHapley Additive explanation)是一种解释任何机器学习模型输出的博弈论方法 。它利用博弈论中的经典Shapley值及其相关扩展将最优信贷分配与局部解释联系起来(详见论文的细节和引用) 。
数据集中每个特征对模型预测的贡献由Shapley值解释 。Lundberg和Lee的SHAP算法最初发表于2017年,这个算法被社区在许多不同的领域广泛采用 。
XAI 6个顶级的可解释AI 的Python框架推荐

文章插图
 
使用pip或conda安装shap库 。
# install with pippip install shap# install with condaconda install -c conda-forge shap
XAI 6个顶级的可解释AI 的Python框架推荐

文章插图
 
使用Shap库构建瀑布图
XAI 6个顶级的可解释AI 的Python框架推荐

文章插图
 
使用Shap库构建Beeswarm图
XAI 6个顶级的可解释AI 的Python框架推荐

文章插图
 
使用Shap库构建部分依赖图
LIME在可解释性领域,最早出名的方法之一是LIME 。它可以帮助解释机器学习模型正在学习什么以及为什么他们以某种方式预测 。Lime目前支持对表格的数据,文本分类器和图像分类器的解释 。
知道为什么模型会以这种方式进行预测对于调整算法是至关重要的 。借助LIME的解释,能够理解为什么模型以这种方式运行 。如果模型没有按照计划运行,那么很可能在数据准备阶段就犯了错误 。
XAI 6个顶级的可解释AI 的Python框架推荐

文章插图
 
使用pip安装
pip install lime
XAI 6个顶级的可解释AI 的Python框架推荐

文章插图
 
LIME 构建的局部解释图
XAI 6个顶级的可解释AI 的Python框架推荐

文章插图
 
LIME构建的Beeswarm 图
Shapash“ Shapash是一个使机器学习对每个人都可以进行解释和理解Python库 。Shapash提供了几种类型的可视化,显示了每个人都能理解的明确标签 。数据科学家可以更轻松地理解他们的模型并分享结果 。最终用户可以使用最标准的摘要来理解模型是如何做出判断的 。”
为了表达数据中包含故事、见解和模型的发现,互动性和漂亮的图表必不可少 。业务和数据科学家/分析师向AI/ML结果展示和互动的最佳方法是将其可视化并且放到web中 。Shapash库可以生成交互式仪表盘,并收集了许多可视化图表 。与外形/石灰解释性有关 。它可以使用SHAP/Lime作为后端,也就是说他只提供了更好看的图表 。
XAI 6个顶级的可解释AI 的Python框架推荐


推荐阅读