小熊回收站|Embedding之LINE算法解读,Graph
(1)适用广 , 适合任意类型的网络 , 不论是有向图还是无向图还是带权图 。
(2)信息全 , 目标函数(objectivefunction)同时考虑了网络局部特征和全局特征 。
(3)效率高 , 提出一种边采样的算法 , 可以很好地解决SGD的效率问题 。
(4)时间快 , 提出了十分高效网络表示方法 , 在小时范围内的单机节点上学习百万级顶点网络的表示 。
下面一下来看看这篇文章吧 。
重要定义了解LINE算法之前需要了解一下论文里面的几个重要概念 。
信息网络
信息网络定义为G=(V,E)其中V是顶点集合 , 顶点表示数据对象 , E是顶点之间的边缘的集合 , 每条边表示两个数据对象之间的关系 。 每条边e(E)表示为有序对e=(u,v) , 并且与权重Wuv>0相关联 , 权重表示关系的强度 。 如果G是无向的 , 我们有(u,v)!=(v,u)和Wuv=Wvu;如果G是有向的 , 我们有(u,v)!=(v,u)和Wuv!=Wvu,一般情况下我们认为权重非负 。
一阶相似性
网络中的一阶相似性是两个顶点之间的局部点对的邻近度 。 对于有边(u,v)连接的每对顶点 , 该边的权重Wuv表示u和v之间的一阶相似性 , 如果在u和v之间没有观察到边 , 他们的一阶相似性为0 。
二阶相似性
二阶相似性指的是一对顶点之间的接近程度(u,v)在网络中是其邻域网络结构之间的相似性 。 数学上 , 让
给定大网络G=(V,E) , 大规模信息网络嵌入是将每个顶点v(V)表示为低维空间(d)中的向量 , 学习一个函数:
算法介绍一阶相似性
对每个无向边(i,j) , 定义顶点vi和vj的联合概率分布为:
推荐阅读