论文题目:《GraRep: Learning Graph Representations with Global Structural Information》
发表时间:  CIKM
论文作者:  Shaosheng Cao; Wei Lu;  Qiongkai Xu
论文地址:  Download
Github:      Go


Abstract

  在本文中,我们提出了一种新的学习加权图顶点表示的GraRep模型。该模型学习低维向量来表示出现在图中的顶点,与现有的工作不同,它将图的全局结构信息集成到学习过程中。


1. Introduction

  先引入 NE 的概念,然后介绍一下  DeepWalk ,但是作者抛出了一个问题,虽然  DeepWalk  确实有效果,但是为什么这么定义损失函数就可以得出效果呢?损失函数的可解释性并没有在  DeepWalk  论文中被谈及。

  文中提到  skip-gram  模型其实就是用来量化两个节点的  $k$  阶关系(k-step relationship),所谓  $k$  阶关系就是两个顶点可以通过  $k$  步相连的关系。skip-gram  实际上是将节点之间的这种关系投影到一个平凡子空间(common subspace)中。而本文则是将k阶关系投影到独立的子空间(distict subspace)中。简单来说就是,skip-gram  模型将网络节点表示成向量后,节点的  $1$  到  $k$  阶关系全都综合反映到这个向量中。而GraRep则选择将  $1$  到  $k$  总共  $k$ 种关系分开,分别形成  $k$ 个向量,每个向量表示一种关系。

  另一种方法 LINE,则是根本无法获取到  $k>2$  的节点关系。作者认为节点之间的  $k$  阶关系对把握网络的全局特征非常重要,越高阶的关系(也就是 $k$  越大)被考虑进来,得到的网络表示结果会越好。

  本文的大致思路是通过矩阵分解的(matrix factorization)方法分别学习网络节点的  $k$  阶关系表示,然后将  $k$  个表示结合起来作为最终的表示结果。

  总结一下贡献:

    • 提出学习图节点潜在向量表达的模型,能够捕获全局结构信息
    • 从概率观点对  DeepWalk  中同一采样的理解
    • 分析了负抽样相关的  Skip-Gram  模型的不足。

2. RELATED WORK

2.1 Linear Sequence Representation Methods

  由 streams of words 组成的 Natural language corpora 可以看作是特殊的图结构,即  linear chains。目前,学习单词表征的方法有两种主要方法:neural embedding methods 和  matrix factorization based approaches 。

  Neural embedding methods 采用 a fixed slide window 去捕捉当前单词的上下文词,例子:  skip-gram。

  虽然这些方法可能在某些任务上产生良好的性能,但由于它们使用单独的 local context windows ,而不是 global co-occurrence counts,因此它们在某些情况很差地捕获有用的信息。另一方面,矩阵分解的方法可以很好的利用  global statistics。

2.2 Graph Representation Approaches

  经典的降维方法:

    multidimensional scaling (MDS)、IsoMap 、LLE 、and Laplacian Eigenmaps 。

  举例描述最近的一些 Graph Representation Approaches 。

3. Grarep model

3.1 Graphs and Their Representations

  Definition 1. (Graph) A graph is defined as $G=(V, E)$. $V=\left\{v_{1}, v_{2}, \ldots, v_{n}\right\}$ is the set of vertices with each $V$ indicating one object while $E=\left\{e_{i, j}\right\}$ is the set of edges with each $E$ indicating the relationship between two vertices. A path is a sequence of edges which connect a sequence of vertices.

  Some definitions:

    • $S$:adjacency matrix 。对于无权图:$S_{i, j}=1$ if and only if there exists an edge from $v_{i}$ to $v_{j}$, and $S_{i, j}=0$ otherwise。对于带权图:$S_{i, j}$ is a real number called the weight of the edge $e_{i, j}$ 。
    • $D$:diagonal matrix。

        $D_{i j}= \begin{cases}\sum_{p} S_{i p}, & \text { if } i=j \\ 0, & \text { if } i \neq j\end{cases}$

  定义从一个顶点  $v_i$  到  $v_j$  另一个顶点的转换概率,定义以下  (1-step) probability transition matrix :

    $A=D^{-1} S$

  该公式可以参考《邻接矩阵、度矩阵》

  Definition 2. (Graph Representations with Global Structural Information) Given a graph $G$, the task of Learning Graph Representations with Global Structural Information aims to learn a global representation matrix $W \in \mathbb{R}^{|V| \times d}$ for the complete graph, whose $i$-th row $W_{i}$ is a $d$-dimensional vector representing the vertex $v_{i}$ in the graph $G$ where the global structural information of the graph can be captured in such vectors.

  在本文中,全局结构信息有两个功能:

    1. the capture of long distance relationship between two different vertices
    2. the consideration of distinct connections in terms of different transitional steps.

  为了验证这一点,Figure 1 给出了一些说明性的例子,说明了 k-step (对于 k=1、2、3、4 )关系信息的重要性,这些信息需要在顶点 A1 A2 之间捕获。

        

  

   Here, (a) and (e) show the importance of capturing the simple 1-step information between the two vertices which are directly connected to each other, where one has a stronger relation and the other has a weaker relation.

  In (b) and (f), 2-step information is shown, where in (b) both vertices share many common neighbors, and in (f) only one neighbor is shared between them. Clearly, 2- step information is important in capturing how strong the connection between the two vertices is – the more common neighbors they share, the stronger the relation between them is.

  In (c) and (g), the importance of 3-step information is illustrated. Specifically, in (g), despite the strong relation between  A1 and B, the relation between A1 and A2 can be weakened due to the two weaker edges connecting B and C, as well as C and A2. In contrast, in (c), the relation between A1 and A2 remains strong because of the large number of common neighbors between B and A2 which strengthened  their relation. Clearly such 3-step information is essential to be captured when learning a good graph representation with global structural information.

  Similarly, the 4-step information can also be crucial in revealing the global structural properties of the graph, as illustrated in (d) and (h). Here, in (d), the relation between A1 and A2 is clearly strong, while in (h) the two vertices are unrelated since there does not exist a path from one vertex to the other. In the absence of 4-step relational information, such important distinctions can not be properly captured.

上图解释

  总结:一阶邻居带来的信息很重要,k-step 之间的邻居信息受到中间邻居之间的影响。

  现在思考是否考虑对不同的 k-step 进行区别对待?当然。

      

  我们认为,在学习图表示时,区别对待不同的  k-step  信息是必要的。我们在 Figure 2 的 (a) 中提供了一个简单的图。让我们重点学习图中  A  顶点的表示。我们可以看到, A  在学习其表示时接收到两种类型的信息:来自  B  的 1-step 信息,以及来自所有  C  顶点的  2-step  信息。我们注意到,如果我们不区分这两种不同类型的信息,我们可以构建一个替代图,如 Figure 2 中的(b)所示,其中  a  接收的信息与 (a) 完全相同,但具有完全不同的结构。

3.2 Loss Function On Graph

  现在考虑从顶点  $w$  到顶点 $c$  ,设从顶点  $w$  到顶点 $c$ 的概率转移为 $p_{k}(c \mid w)$。我们已经知道  $1-step$  是什么,为了计算 $k-step$ ,我们引入了下面的  k-step probability transition matrix:

    $A^{k}=\underbrace{A \cdots A}_{k}$

   我们可以观察到,$A_{i, j}^{k}$  恰好是指从顶点 $i$  到顶点  $j$  的转移概率,其中转移恰好由  $k$ 步组成。这将直接导致:

    $p_{k}(c \mid w)=A_{w, c}^{k}$

  其中,  $A_{w, c}^{k}$  是矩阵  $ A^{k}  $  的第  $w$  行和第  $c$  列中的元素。.

  那么优化目标就是:对于任意的一个  $(w,c)$  的组合,最大化这个组合所代表的路径在图中的概率,最小化除了这个组合外在图中的概率。换句话说,对于所有的  $(w,c)$   组合对,如果   $(w,c)$  所代表的路径在图中,那么增大它的概率;如果  $(w,c)$   所代表的路径不在图中,那么减小它的概率。

  本文使用了 NCE 损失函数来反应这种特性,损失函数的定义是:

    $L_{k}=\sum \limits _{w \in V} L_{k}(w)$

  其中

    $L_{k}(w)=\left(\sum \limits _{c \in V} p_{k}(c \mid w) \log \sigma(\vec{w} \cdot \vec{c})\right)+\lambda \mathbb{E}_{c^{\prime} \sim p_{k}(V)}\left[\log \sigma\left(-\vec{w} \cdot \vec{c}^{\prime}\right)\right]  \quad \quad \quad  (1)$

    $\sigma(x)=\left(1+e^{-x}\right)^{-1}$ ;

    $\lambda$ 是一个表示负样本数量的超参数;

    $p_{k}(V) $ 是图中顶点上的分布;

    $\mathbb{E}_{c^{\prime} \sim p_{k}(V)}[\cdot]$ 是当  $c^{\prime}$  遵循  $p_{k}(V) $  分布时的期望值;

      $c^{\prime}$ 是通过  negative sampling  获得的;

  对于  $(1) $ 式:

    • 前项中的 $\sigma(\vec{w} \cdot \vec{c})$ 理解为 Graph 中节点对 $(w,c)$ 共同出现的概率,要最大化这个值。
    • 后项中的 $\sigma(-\vec{w} \cdot \vec{c})$  理解为 对于任意选取的节点  $c^{\prime}$  所形成的  $(w,c^{\prime})$  要最小化其出现的概率,最小化其出现概率就是最大化  $\sigma(-\vec{w} \cdot \vec{c})$  。

  对于 $(1) $  式后项negative sampling 部分中的 $\mathbb{E}_{c^{\prime} \sim p_{k}(V)}\left[\log \sigma\left(-\vec{w} \cdot \overrightarrow{c^{\prime}}\right)\right]$

    $=p_{k}(c) \cdot \log \sigma(-\vec{w} \cdot \vec{c})+\sum \limits _{c^{\prime} \in V \backslash\{c\}} p_{k}\left(c^{\prime}\right) \cdot \log \sigma\left(-\vec{w} \cdot \overrightarrow{c^{\prime}}\right)   \quad \quad \quad  (2)$

  对于  $(2) $ 式:

    • $p_{k}(V)$  是网络中节点的概率分布。negative sampling 部分实际上就是节点  $c^{\prime}$  服从  $p_{k}(V)$  分布时 $(w,c)$ 不出现的期望。对于随机采样的一个节点  $c^{\prime}$  ,如果正好选到了正确的节点  $c$,那么对应的就是  $(2) $  中前项;如果没有选到  $c$ ,那么对应的就是  $(2) $  中后项。因此对于一个特定的  $(w,c)$ 组合对来说,损失函数表达如下:

      $L_{k}(w, c)=p_{k}(c \mid w) \cdot \log \sigma(\vec{w} \cdot \vec{c})+\lambda \cdot p_{k}(c) \cdot \log \sigma(-\vec{w} \cdot \vec{c})\quad \quad \quad  (3)$

  文中提到:随着  $k$  的增长,$w$  经过  $k$  步到达  $c$  的概率会逐渐收敛到一个固定值。  

  计算  $p_{k}(c)$ :任一节点经过  $k$  步到达节点  $c$  的概率,因此等于所有  $k$  步可以到达  $c$  的路径的概率加和。

    $p_{k}(c)=\sum \limits _{w^{\prime}} q\left(w^{\prime}\right) ,  \quad p_{k}\left(c \mid w^{\prime}\right)=\frac{1}{N} \sum \limits_{w^{\prime}} A_{w^{\prime}, c}^{k}$

  其中:

    $q^{\prime}(\omega)=\frac{1}{N}, \quad p_{k}(c \mid \omega^{\prime})=A_{\omega^{\prime}, c}^{k}$

    $N$ 是图  $G$ 中的顶点数。

    $q(w^{\prime})$ 为选择  $w^{\prime}$  作为路径中的第一个顶点的概率,这里假设为均匀分布。

  将  $p_{k}(c \mid w), \quad p_{k}(c)$  代入 $(3)$  式得到:

    $L_{k}(w, c)=A_{w, c}^{k} \cdot \log \sigma(\vec{w} \cdot \vec{c})+\frac{\lambda}{N} \sum \limits _{w^{\prime}} A_{w^{\prime}, c}^{k} \cdot \log \sigma(-\vec{w} \cdot \vec{c})\quad \quad \quad  (4)$

  我们令  $e=\vec{w} \cdot \vec{c}$  ,对   $L_{k}(w) $  求偏导,并令   $\frac{\partial L_{k}}{\partial e}=0$

  推导过程如下:

    令   $x=\vec{w} \cdot \vec{c}$,   $A_{w^{\prime}, c}^{k}=A$,   $\frac{\lambda}{N} \sum_{w^{\prime}} A_{w^{\prime}, c}^{k}=B$

    那么 $L_{k}=A \log \sigma(x)+B \log \sigma(-x)$

      $\frac{\partial L_{k}}{\partial x}=A \cdot \frac{\sigma^{\prime}(x)}{\sigma(x)}+B \frac{-\sigma^{\prime}(-x)}{\sigma(-x)}=A \frac{\sigma(x)(1-\sigma(x))}{\sigma(x)}-B \cdot \frac{\sigma(-x)(1-\sigma(-x))}{\sigma(-x)}$

      $\begin{aligned}&=A \cdot(1-\sigma(x))-B(1-\sigma(-x)) \\&=A\left(1-\frac{1}{1+e^{-x}}\right)-B\left(1-\frac{1}{1+e^{x}}\right) \\&=A \cdot \frac{e^{-x}}{1+e^{-x}}-B \frac{e^{x}}{1+e^{x}} \\&=A \frac{1}{e^{x}+1}-B \frac{e^{x}}{1+e^{x}}=0 . \\&e^{x} =\frac{A}{B} ,\quad x=\log \frac{A}{B}=\log \frac{ A_{w^{\prime} , c}^{k}}{\sum \limits _{w^{\prime}} A_{w^{\prime} , c}^{k}}-\log \frac{\lambda}{N}\end{aligned}$

  最终得到:

    $\vec{w} \cdot \vec{c}=\log \left(\frac{A_{w, c}^{k}}{\sum \limits _{w^{\prime}} A_{w^{\prime}, c}^{k}}\right)-\log (\beta)$

  其中  $\beta = \frac{\lambda}{N} $。

  这得出结论,我们基本上需要将矩阵 $Y$ 分解成两个矩阵  $ W$  和  $C$  ,其中  $W$  的每一行和  $C$  的每一行分别由顶点  $w$  和  $c$  的向量表示组成,$Y$  的条目为:

  之前的工作是为了找到这样一个矩阵  $Y$  ,它编码了网络中所有节点相互之间的关系,但是这个矩阵的维数很高($|V| \times |V| $),不能直接用来作为网络的表示。因此要用矩阵分解的方法对  $Y$  进行分解,分解后形成的  $W、C$  矩阵维数要远远小于  $Y$  的维度,其中  $W$  的每一行和  $C$  的每一行分别由顶点  $w$  和  $c$  的向量表示组成,而这个  $W$  矩阵就是网络节点的表示,$C$  矩阵就是上下文节点的表示(不关心这个矩阵):

    $Y_{i, j}^{k}=W_{i}^{k} \cdot C_{j}^{k}=\log \left(\frac{A_{i, j}^{k}}{\sum \limits _{t} A_{t, j}^{k}}\right)-\log (\beta)$

3.3 Optimization with Matrix Factorization

  为了降低误差,将矩阵  $Y$  中负值全被替换为  $0$ ,形成一个新的矩阵  $X$ :

    $X_{i, j}^{k}=\max \left(Y_{i, j}^{k}, 0\right)$

  这里采用  $SVD$  分解,矩阵  $X$   被分解为:

    $X^{k}=U^{k} \Sigma^{k}\left(V^{k}\right)^{T}$

  其中  $U$  和  $V$  是正交矩阵,$Σ$  是由奇异值的有序列表组成的对角矩阵。

  接下来用SVD方法将矩阵  $X$  分解成:

    $X^{k}=U^{k} \Sigma^{k}\left(V^{k}\right)^{T}$

  因为最终的网络表示要求是  $d$  维的,那么进一步将  $X$  分解为:

    $X^{k} \approx X_{d}^{k}=U_{d}^{k} \Sigma_{d}^{k}\left(V_{d}^{k}\right)^{T}$

  其中:$\Sigma_{d}^{k}$  是由 top  d  奇异值组成 的,而且 $U_{d}^{k}$  和   $V_{d}^{k}$  分别是  $U^{k}$  和  $ V^{k}$ 前  $d$  列组成。

  最后得到:

    $X^{k} \approx X_{d}^{k}=W^{k} C^{k}$

  其中:

    $W^{k}=U_{d}^{k}\left(\Sigma_{d}^{k}\right)^{\frac{1}{2}}, \quad C^{k}=\left(\Sigma_{d}^{k}\right)^{\frac{1}{2}} V_{d}^{k T}$

4. Algorithm

  Step 1. Get  $k-step$ transition probability matrix  $A_k$  for each  $k = 1, 2, . . . , K$.

  Step 2. Get each  $k-step$  representation

  Step 3. Concatenate all  $k-step$  representations

        

CONCLUSIONS

  除了公式多,其他没啥...............那天心情好了补完。

  更多内容可以参考

  https://zhuanlan.zhihu.com/p/46446600

  https://blog.csdn.net/weixin_40675092/article/details/118225889

『总结不易,加个关注呗!』

论文解读(GraRep)《GraRep: Learning Graph Representations with Global Structural Information》的更多相关文章

  1. 论文解读 - Relational Pooling for Graph Representations

    1 简介 本文着眼于对Weisfeiler-Lehman算法(WL Test)和WL-GNN模型的分析,针对于WL测试以及WL-GNN所不能解决的环形跳跃连接图(circulant skip link ...

  2. 论文解读《Deep Attention-guided Graph Clustering with Dual Self-supervision》

    论文信息 论文标题:Deep Attention-guided Graph Clustering with Dual Self-supervision论文作者:Zhihao Peng, Hui Liu ...

  3. 论文解读GALA《Symmetric Graph Convolutional Autoencoder for Unsupervised Graph Representation Learning》

    论文信息 Title:<Symmetric Graph Convolutional Autoencoder for Unsupervised Graph Representation Learn ...

  4. 论文解读(MLGCL)《Multi-Level Graph Contrastive Learning》

    论文信息 论文标题:Structural and Semantic Contrastive Learning for Self-supervised Node Representation Learn ...

  5. 论文解读(GraphDA)《Data Augmentation for Deep Graph Learning: A Survey》

    论文信息 论文标题:Data Augmentation for Deep Graph Learning: A Survey论文作者:Kaize Ding, Zhe Xu, Hanghang Tong, ...

  6. 论文解读SDCN《Structural Deep Clustering Network》

    前言 主体思想:深度聚类需要考虑数据内在信息以及结构信息. 考虑自身信息采用 基础的 Autoencoder ,考虑结构信息采用 GCN. 1.介绍 在现实中,将结构信息集成到深度聚类中通常需要解决以 ...

  7. 论文解读(LG2AR)《Learning Graph Augmentations to Learn Graph Representations》

    论文信息 论文标题:Learning Graph Augmentations to Learn Graph Representations论文作者:Kaveh Hassani, Amir Hosein ...

  8. 论文解读(GMT)《Accurate Learning of Graph Representations with Graph Multiset Pooling》

    论文信息 论文标题:Accurate Learning of Graph Representations with Graph Multiset Pooling论文作者:Jinheon Baek, M ...

  9. 论文解读(DeepWalk)《DeepWalk: Online Learning of Social Representations》

    一.基本信息 论文题目:<DeepWalk: Online Learning of Social Representations>发表时间:  KDD 2014论文作者:  Bryan P ...

随机推荐

  1. JAVA笔记14__多线程共享数据(同步)/ 线程死锁 / 生产者与消费者应用案例 / 线程池

    /** * 多线程共享数据 * 线程同步:多个线程在同一个时间段只能有一个线程执行其指定代码,其他线程要等待此线程完成之后才可以继续执行. * 多线程共享数据的安全问题,使用同步解决. * 线程同步两 ...

  2. cf 24 Game (观察+.. 想一想)

    题意: 给一个数N,从1到N. 每次取两个数,三种操作:加.减.乘,运算完得一个数,把那俩数删了,把这个数加进去. 重复操作N-1次. 问是否可能得到24.若可以,输出每一步操作. 思路: 小于4,不 ...

  3. lamp 架构的理解

    1,lamp架构下的求情过程如下: 2,httpd服务器连接php服务器的三种方式 3,php和mysql的连接

  4. Tomcat 内存马(二)Filter型

    一.Tomcat处理请求 在前一个章节讲到,tomcat在处理请求时候,首先会经过连接器Coyote把request对象转换成ServletRequest后,传递给Catalina进行处理. 在Cat ...

  5. Linux 守护进程原理及实例(Redis、Nginx)

    1. 什么是守护进程 守护进程daemon,是指没有控制终端,运行在后台的进程,通常伴随着系统启动产生,系统关机结束.可以使用命令ps -axj查看系统的守护进程,输出如下所示: 父ID PID 组I ...

  6. Linux常用命令和快捷键整理:(2)常用快捷键

    前言: Linux常用快捷键和基本命令整理,先上思维导图: linux常用命令请见:https://www.cnblogs.com/yinzuopu/p/15516499.html 基本快捷键的使用 ...

  7. python与C结构体之间二进制数据转换

    python与C结构体之间数据转换 前言 在实际应用中,可能会遇到直接和C进行二进制字节流协议通信,这时要把数据解包成python数据,如果可能,最好与C定义的结构体完全对应上. python中有2种 ...

  8. [python]Appium+python +pytest 实现APP自动化,基于安卓

    1.安卓环境搭建 &关于app自动化,个人觉得安装过程比较复杂,脚本难度实现和web自动化差不多封装关键字即可,因此,下面会写安装.启动APP以及过程中遇到的一些坑(这一篇偏向解释给个人) & ...

  9. 几个你不知道的dubbo注册中心细节

    你会正确配置backup地址吗? 在配置dubbo注册中心时,一般会这样写 dubbo.registry.protocol=zookeeper dubbo.registry.address=127.0 ...

  10. 添加su权限

    在root用户下 visudo amy   ALL=(ALL)   NOPASSWD:ALL 在amy用户下 vim ~/.bashrc alias sd = "sudo"