3 Dynamic Network Embedding by Modeling Triadic Closure Process link:https://scholar.google.com.sg/scholar_url?url=https://ojs.aaai.org/index.php/AAAI/article/view/11257/11116&hl=zh-TW&sa=X&ei=HSiOYtaAE4a4ygS4j4ioAg&scisig=AAGBfm3pULFHq0jI…
10 Exploring Temporal Information for Dynamic Network Embedding 5 link:https://scholar.google.com.sg/scholar_url?url=https://ieeexplore.ieee.org/abstract/document/9242309/&hl=zh-TW&sa=X&ei=ZiiOYp6gEpT0yASct56wBQ&scisig=AAGBfm3bQgwV0icZGtwl…
11 GloDyNE Global Topology Preserving Dynamic Network Embedding link:http://arxiv.org/abs/2008.01935 Abstract 目前大多数现有的DNE方法的思想是捕捉最受影响的节点(而不是所有节点)或周围的拓扑变化,并相应更新节点嵌入. 这种近似虽然可以提高效率,但由于没有考虑通过高阶近似传播和接收累积拓扑变化的非活跃子网络,因此不能有效地保持动态网络在每个时间步的全局拓扑. 为了应对这一挑战,我们提出了…
2 DynGEM: Deep Embedding Method for Dynamic Graphs link:https://arxiv.org/abs/1805.11273v1 Abstract 首先这个嵌入是基于deep autoencoder的 该论文提出了三个主要优势: (1)随着时间的推移,该方法嵌入是稳定的 (2)能处理不断增长的动态图 (3)它比在动态图的每个快照上使用静态嵌入方法具有更好的运行时间 Conclusion DynGEM使用动态扩展的深度自动编码器来捕获高度非线性的…
4 Dynamic Graph Representation Learning Via Self-Attention Networks link:https://arxiv.org/abs/1812.09430 Abstract 提出了在动态图上使用自注意力 Conclusion 本文提出了使用自注意力的网络结构用于在动态图学习节点表示.具体地说,DySAT使用(1)结构邻居和(2)历史节点表示上的自我注意来计算动态节点表示,虽然实验是在没有节点特征的图上进行的,但DySAT可以很容易地推广到特…
论文概况 Multi-Perspective Sentence Similarity Modeling with Convolution Neural Networks是处理比较两个句子相似度的问题, 适用于解决智能客服问题匹配场景中用户提交的问句与知识库中问句的匹配. 文章将整个问题的解决分成两部分: 对句子进行建模, 将句子转换为某种向量表示. 这部分使用CNN完成 两个句子相似度衡量的方式. 这里是新颖的地方. 然后将衡量计算得到的相似度向量投入到Dense层中, 再根据目标接Output…
目的: 通过用Mlpconv层来替代传统的conv层,可以学习到更加抽象的特征.传统卷积层通过将前一层进行了线性组合,然后经过非线性激活得到(GLM),作者认为传统卷积层的假设是基于特征的线性可分.而Mlpconv层使用多层感知机,是一个深层的网络结构,可以近似任何非线性的函数.在网络中高层的抽象特征代表它对于相同concept的不同表现具有不变性(By abstraction we mean that the feature is invariant to the variants of th…
3 Streaming Graph Neural Networks link:https://dl.acm.org/doi/10.1145/3397271.3401092 Abstract 本文提出了一种新的动态图神经网络模型DGNN,它可以随着图的演化对动态信息进行建模.特别是,该框架可以通过捕获: 1.边的序列信息, 2.边之间的时间间隔, 3.信息传播耦合性 来不断更新节点信息. Conclusion 在本文中,提出了一种用于动态图的新图神经网络架构DGNN.该架构有两个组件构成:更新组件…
12 Inductive Representation Learning on Temporal Graphs link:https://arxiv.org/abs/2002.07962 本文提出了时间图注意(TGAT)层,以有效地聚合时间-拓扑邻域特征,并学习时间-特征之间的相互作用.对于TGAT,本文采用自注意机制作为构建模块,并基于调和分析中的经典Bochner定理(又是没见过的定理QAQ)发展了一种新的函数时间编码技术. Conclusion 本文提出了一种新颖的时间感知图注意网络,用于…
6 Predicting Dynamic Embedding Trajectory in Temporal Interaction Networks link:https://arxiv.org/abs/1908.01207 Abstract 本文提出了一种在嵌入空间中显示建模用户/项目的未来轨迹的模型JODIE.该模型基于RNN模型,用于学习用户和项目的嵌入轨迹.JODIE可以进行未来轨迹的预测.本文还提出了 t-Batch算法,利用该方法可以创建时间相同的batch,并使训练速度提高9倍.…