没有完整图时,如何使用图深度学习?需要了解流形学习2.0版本( 二 )


没有完整图时,如何使用图深度学习?需要了解流形学习2.0版本
本文插图
DGM 提供了一种基于输入数据构造图并在图上扩散特征的机制 。 (图源:[5])
当应用于医学领域问题时 , DGM 显示出优秀的结果 , 例如根据脑成像数据预测疾病 。 在这些任务中 , 研究者获取到多个患者的电子健康记录 , 包括人口统计学特征(如年龄、性别等)和大脑成像特征 , 并尝试预测患者是否患有神经系统疾病 。 之前的工作展示了 GNN 在这类任务中的应用 , 方法是在一个根据人口统计学特征手工构建的「病人图」上进行特征扩散 。 而 DGM 提供了学习图的优势 , 可以传达某些特征在特定诊断任务中是如何相互依赖的 。 其次 , DGM 在点云分类任务中也击败了 DGCNN , 不过优势很小 。
流形学习
DGCNN 和 DGM 在概念上与流形学习或非线性降维算法相似 , 流形学习很早就已出现并流行 , 且目前仍用于数据可视化 。 流形学习方法的基本假设是数据具有内在的低维结构 。 虽然数据可以在数百甚至数千维的空间中表示 , 但它却只有几个自由度 , 示例如下:
没有完整图时,如何使用图深度学习?需要了解流形学习2.0版本
本文插图
虽然这个数据集中的手部图像是高维的(64x64 像素构成 4096 个维度) , 但它们本质上是低维的 , 可以用两个自由度来解释:手腕旋转和手指伸展 。 流形学习算法能够捕捉数据集的这种内在低维结构 , 并将其在欧几里德空间中进行表示 。 (图源 [9])
再比如球面上的一点(即三维欧式空间上的点) , 可以用三元组来表示其坐标:
没有完整图时,如何使用图深度学习?需要了解流形学习2.0版本
本文插图
但事实上这个三维坐标只有两个变量 θ 和 φ , 也可以说它的自由度为 2 , 正好对应了它是一个二维的流形 。
流形学习的目的是捕捉这些自由度 , 并将数据的维数降至其固有维数 。 流形学习与 PCA 等线性降维方法的重要区别在于 , 由于数据的非欧几里德结构 , 我们可能无法通过线性投影恢复流形 。 如下图所示 , 线性降维(左)为线性降维 , 流形学习(右)为非线性降维 。
没有完整图时,如何使用图深度学习?需要了解流形学习2.0版本
本文插图
流形学习算法在恢复「流形」方法上各不相同 , 但它们有一个共同的蓝图 。
首先 , 创建一个数据表示 , 通过构造一个 k 近邻图来获取其局部结构 。 其次 , 计算数据的低维表示(嵌入) , 并试图保留原始数据的结构 。 这是大多数流形学习方法的区别所在 。 这种新的表示将原来的非欧几里德结构「展平」成一个更容易处理的欧几里德空间 。 第三 , 一旦计算出表示 , 就会对其应用机器学习算法(通常是聚类) 。
没有完整图时,如何使用图深度学习?需要了解流形学习2.0版本
本文插图
多种流形学习方法的蓝图:首先 , 将数据表示为图;其次 , 计算该图的低维嵌入;第三 , 将 ML 算法应用于这种低维表示 。
这其中面临的一项挑战是图构建与 ML 算法的分离 , 有时需要精确的参数调整(例如邻域数或邻域半径) , 以确定如何构建图才能使下游任务正常运行 。 流形学习算法更严重的缺点或许是:数据很少表示为低维的原始形式 。 例如 , 在处理图像时 , 必须使用各种人工制定的特征提取技术作为预处理步骤 。
图深度学习提供了一种现代方法 , 即用单个图神经网络代替上文提到的三个阶段 。 例如 , 在 DGCNN 或 DGM 中 , 图的构造和学习是同一架构的一部分:
没有完整图时,如何使用图深度学习?需要了解流形学习2.0版本
本文插图


推荐阅读