|谷歌开源NLP模型可视化工具LIT,模型训练不再「黑箱」


机器之心报道
编辑:陈萍、魔王
深度学习模型的训练就像是「黑箱操作」 , 知道输入是什么、输出是什么 , 但中间过程就像个黑匣子 , 这使得研究人员可能花费大量时间找出模型运行不正常的原因 。 假如有一款可视化的工具 , 能够帮助研究人员更好地理解模型行为 , 这应该是件非常棒的事 。
近日 , Google 研究人员发布了一款语言可解释性工具 (Language Interpretability Tool, LIT) , 这是一个开源平台 , 用于可视化和理解自然语言处理模型 。
论文地址:https://arxiv.org/pdf/2008.05122.pdf
项目地址:https://github.com/PAIR-code/lit
LIT 重点关注模型行为的核心问题 , 包括:为什么模型做出这样的预测?什么时候性能不佳?在输入变化可控的情况下会发生什么?LIT 将局部解释、聚合分析和反事实生成集成到一个流线型的、基于浏览器的界面中 , 以实现快速探索和错误分析 。
|谷歌开源NLP模型可视化工具LIT,模型训练不再「黑箱」
本文插图

该研究支持多种自然语言处理任务 , 包括探索情感分析的反事实、度量共指系统中的性别偏见 , 以及探索文本生成中的局部行为 。
此外 LIT 还支持多种模型 , 包括分类、seq2seq 和结构化预测模型 。 并且它具备高度可扩展性 , 可通过声明式、框架无关的 API 进行扩展 。
相关 demo , 参见视频:
00:00/00:00倍速
可以针对新颖的工作流程进行重新配置 , 并且这些组件是独立的 , 可移植的 , 且易于实现 。
用户界面
LIT 位于一个单页 web 应用中 , 由多个工具栏和包含多个独立模块的主体部分组成 。 如果模块适用于当前模型和数据集 , 它们将自动显示 。 例如 , 显示分类结果的模块仅在模型返回 MulticlassPreds 时显示 。
|谷歌开源NLP模型可视化工具LIT,模型训练不再「黑箱」
本文插图

LIT 用户界面
|谷歌开源NLP模型可视化工具LIT,模型训练不再「黑箱」
本文插图

LIT 的布局设计图 。
功能
LIT 通过基于浏览器的用户界面(UI)支持各种调试工作流 。 功能包括:
局部解释:通过模型预测的显著图、注意力和丰富可视化图来执行 。
聚合分析:包括自定义度量指标、切片和装箱(slicing and binning) , 以及嵌入空间的可视化 。
反事实生成:通过手动编辑或生成插件进行反事实推理 , 动态地创建和评估新示例 。
并排模式:比较两个或多个模型 , 或基于一对示例的一个模型 。
高度可扩展性:可扩展到新的模型类型 , 包括分类、回归、span 标注 , seq2seq 和语言建模 。
框架无关:与 TensorFlow、PyTorch 等兼容 。
下面我们来看 LIT 的几个主要模块:
探索数据集:用户可以使用不同的标准跨模块(如数据表和嵌入模块)交互式地探索数据集 , 从而旋转、缩放和平移 PCA 或 UMAP 投影 , 以探索集群和全局结构 。
|谷歌开源NLP模型可视化工具LIT,模型训练不再「黑箱」
本文插图

比较模型:通过在全局设置控件中加载多个模型 , LIT 可以对它们进行比较 。 然后复制显示每个模型信息的子模块 , 以便于在两个模型之间进行比较 。 其他模块(如嵌入模块和度量模块)同时得到更新 , 以显示所有模型的最新信息 。
|谷歌开源NLP模型可视化工具LIT,模型训练不再「黑箱」
本文插图

比较数据点:切换到选择工具栏中的「Compare datapoints」按钮 , 使 LIT 进入数据点比较模式 。 在这种模式下 , 主数据点选择作为参考数据点 , 并且在后续设置中都会以其为参考点进行比较 。 参考数据点在数据表中以蓝色边框突出显示 。


推荐阅读