178页,四年图神经网络研究精华,图卷积网络作者博士论文公布( 二 )

  • 提出对比训练的结构化世界模型(contrastively-trained structured world model, C-SWM) , 用于在无监督的情况下从原始像素观察中学习环境的对象分解模型 。
  • 接下来 , 我们来看这篇博士论文各章节的具体内容 。
    背景
    该论文前两章是「引言」和「背景」 , 介绍了相关的背景知识等内容 。
    178页,四年图神经网络研究精华,图卷积网络作者博士论文公布
    本文插图

    在这一部分中 , Thomas Kipf 列举了该论文试图解决的 5 个研究问题:
    • 问题 1:针对图结构数据集上的大规模节点分类任务 , 我们能否开发出深度神经网络模型并提供高效实现?
    • 问题 2:图神经网络能否用于链路预测和无监督节点表示学习?
    • 问题 3:深度神经网络能否推断实体间的隐藏关系和交互 , 如物理系统中的力?
    • 问题 4:如何改进神经网络模型 , 使之能够推断序列数据中的事件结构和 latent program description?
    • 问题 5:深度神经网络能否通过与环境的交互 , 学会发现和构建对象、关系和动作效果的有效表示?
    带着这些问题 , 我们来看 Thomas Kipf 的具体成果 。
    图卷积网络
    Thomas Kipf 提出图卷积网络(GCN) , 用于执行图结构数据中节点的半监督分类任务 。 GCN 是图神经网络的一种形式 , 在图中执行参数化的消息传递操作 , 被建模为谱图卷积的一阶近似值 。 截至 GCN 发表时 , 它在多个无向图数据集的节点级分类任务中实现了 SOTA 性能 。
    178页,四年图神经网络研究精华,图卷积网络作者博士论文公布
    本文插图

    多层 GCN 执行半监督分类任务图示 。
    使用图自编码器(GAE)执行链接预测
    图自编码器(GAE)可用于图结构数据中的无监督学习和链接预测 , 该方法由 Kipf 和其导师 Max Welling 于 2016 年提出 。 GAE 的主要组件是:基于图神经网络的编码器 , 基于成对评分函数重建图链接的解码器 。
    Kipf 进一步提出了一个模型变体:使用变分推断训练得到的概率生成模型——变分 GAE(variational GAE) 。 GAE 和变分 GAE 非常适合没有节点标签情况下的图表示学习 。
    使用图卷积网络处理关系数据
    Thomas Kipf 提出关系 GCN(R-GCN) , 将 GCN 模型扩展到具有多个边类型的有向关系图 。 R-GCN 非常适用于关系数据的建模 。 该论文第五章还展示了 R-GCN 在知识库中执行半监督实体分类的示例 。
    178页,四年图神经网络研究精华,图卷积网络作者博士论文公布
    本文插图

    R-GCN 模型中单个节点更新的计算图 。
    神经关系推断(NRI)
    得益于交互系统中发现的潜在关系结构 , Kipf 提出了神经关系推断(neural relational inference, NRI)模型 。 NRI 将图神经网络与基于图边缘类型的概率潜变量模型结合起来 。 此外 , Kipf 还使用 NRI 建模相互作用的动力系统 , 如物理学中的多粒子系统 。
    178页,四年图神经网络研究精华,图卷积网络作者博士论文公布
    本文插图

    针对序列行为数据的结构发现模型
    Kipf 等人提出了一个针对序列行为数据的结构发现模型——组合式模仿学习和执行(compositional imitation learning and execution, CompILE) 。 CompILE 利用一种新型可微分序列分割机制 , 来发现和自编码模仿学习环境下有意义的行为子序列或子程序 。 此外 , 该模型还可以执行和重新组合潜码 , 来生成新的行为 。
    178页,四年图神经网络研究精华,图卷积网络作者博士论文公布
    本文插图

    CompILE 模型图示 。
    C-SWM
    Kipf 等人提出对比训练的结构化世界模型(contrastively-trained structured world model, C-SWM) , 用于在无监督的情况下从原始像素观察中学习环境的对象分解模型 。


    推荐阅读