publish: Transactions of the Association for Computational Linguistics,2016
tasks:  predicting popularity of comments in Reddit discussions
contributions: 
     1\ graph-structured bidirectional LSTM (long-short term memory) which represents both hierarchical and temporal conversation structure.
     可以捕获层次和时间上的对话结构表示, 图结构的双向LSTM
the LSTM units include both hierachical and temporal components to the update, which distinguishes this work from prior tree-structured LSTM models.
 
     2\ the proposed model outperforms a node-independent architecture for different sets of input features. Analyses show a benefit to the model over the full course of the discussion, improving detection in both early and late stages.
     比结点独立表示架构优越,能够建模整个讨论,提高对于初始早期和晚期的阶段探测?。
  bidirectional tree state updates
   双向树状态更新
 

Methods:

1)建模图结构:

When the comment-response links are preserved, those conversations can be represented in a tree structure where comments represent nodes, the root is theoriginal post, and each new reply to a previous comment  is added as a child of that comment.

当保留了评论-响应链接时,这些对话可以用树结构表示,其中评论表示节点,根是原始的帖子,对前一个评论的每个新回复都被添加为该评论的子条目。

当贡献文件的时间戳可用时,可以用该信息对树的节点进行排序和注释。

树形结构有助于观察讨论如何展开成不同的子主题,并显示讨论的不同分支活动水平的差异。

但是尝试使用树结构来捕获信息流,以便更好地为提交评论的上下文建模,包括它所响应的历史以及随后对该评论的响应。

假设有一个树形结构的响应网络,并考虑了评论的相对顺序。
会话中的每个评论都对应于树中的一个节点,它的父节点是它要响应的评论,其子节点是它按时间顺序激发的响应评论
之前的研究发现,反应结构和时间对预测受欢迎程度都很重要 , LSTM单元包含了更新的层次和时间成分,这使得本工作有别于之前的树结构LSTM模型。我们的模型利用完整的讨论线程来预测流行度.

By introducing a forward-backward treestructured model, we provide a mechanism for leveraging early responses in predicting popularity, as well as a framework for better understanding the relative importance of these responses.

通过引入一个前后树结构模型,我们提供了一个机制来利用早期响应来预测受欢迎程度,以及一个框架来更好地理解这些响应的相对重要性。
 
2) proposed model
The proposed model is a bidirectional graph LSTM that characterizes a full threaded discussion, assuming a tree-structured response network and accounting for the relative order of the comments.
提出的模型是一个描述全线程讨论的双向图LSTM,假设响应网络是树形结构,并考虑了评论的相对顺序。
Each node in the tree is represented with a single recurrent neural network (RNN) unit that outputs a vector (embedding) that characterizes the interim state of the discussion, analogous to the vector output of an RNN unit which characterizes the word history in a sentence.
树中的每个节点都用一个递归神经网络(RNN)单元来表示,该单元输出表征讨论过渡状态的向量(嵌入),类似于RNN单元输出表征句子中单词历史的向量。
 
The RNN updates – both forward and backward – incorporate both temporal and hierarchical (tree-structured) dependencies, since commenters typically consider what has already been said in response to a parent comment. Hence, we refer to it as a graph-structured RNN rather than a tree-structured RNN.
RNN的更新——向前的和向后的——结合了时态和层次结构(树形结构)依赖,因为评论者通常会考虑对父评论的响应中已经说过的内容。因此,我们将其称为图结构的RNN,而不是树结构的RNN。
 
In the forward direction, the state vector can be thought of as a summary of the discussion pursued in a particular branch of the tree, while in the backward direction
the state vector summarizes the full response subtree that followed a particular comment.
在正向方向上,状态向量可以被认为是树的某个特定分支中所进行的讨论的总结,而在反向方向上,状态向量总结了某个特定评论之后的完整响应子树。
 
The state vectors for the forward and backward directions are concatenated for the purpose of predicting comment karma.
向前和向后方向的状态向量被连接起来,以预测评论因果报应。
 
We anticipate that the forward state will capture relevance and informativeness of the comment, and the backward process will capture sentiment and richness of the ensuing
discussion.
我们预期,正向状态将捕获评论的相关性和信息,而逆向过程将捕获后续讨论的情感和丰富内容。
 
input gate, temporal forget gate, hierarchichal forget gate, cell, and output,

当整个树结构已知时,我们可以利用全响应子树更好地表示节点状态。

 
 
 

Conversation Modeling on Reddit Using a Graph-Structured LSTM的更多相关文章

  1. zz【清华NLP】图神经网络GNN论文分门别类,16大应用200+篇论文最新推荐

    [清华NLP]图神经网络GNN论文分门别类,16大应用200+篇论文最新推荐 图神经网络研究成为当前深度学习领域的热点.最近,清华大学NLP课题组Jie Zhou, Ganqu Cui, Zhengy ...

  2. 谣言检测(ClaHi-GAT)《Rumor Detection on Twitter with Claim-Guided Hierarchical Graph Attention Networks》

    论文信息 论文标题:Rumor Detection on Twitter with Claim-Guided Hierarchical Graph Attention Networks论文作者:Erx ...

  3. 论文笔记之:Semi-supervised Classification with Graph Convolutional Networks

    Semi-supervised Classification with Graph Convolutional Networks 2018-01-16  22:33:36 1. 文章主要思想: 2. ...

  4. Graph Embedding Review:Graph Neural Network(GNN)综述

    作者简介: 吴天龙  香侬科技researcher 公众号(suanfarensheng) 导言 图(graph)是一个非常常用的数据结构,现实世界中很多很多任务可以描述为图问题,比如社交网络,蛋白体 ...

  5. MIT Graph实践概述

    MIT Graph实践概述 Features功能 •   iCloud Support •   Multi Local & Cloud Graphs •   Thread Safe •   S ...

  6. 论文阅读 Dynamic Graph Representation Learning Via Self-Attention Networks

    4 Dynamic Graph Representation Learning Via Self-Attention Networks link:https://arxiv.org/abs/1812. ...

  7. 论文解读(SimGRACE)《SimGRACE: A Simple Framework for Graph Contrastive Learning without Data Augmentation》

    论文信息 论文标题:SimGRACE: A Simple Framework for Graph Contrastive Learning without Data Augmentation论文作者: ...

  8. 《Learning Structured Representation for Text Classification via Reinforcement Learning》论文翻译.md

    摘要 表征学习是自然语言处理中的一个基本问题.本文研究了如何学习文本分类的结构化表示.与大多数既不使用结构又依赖于预先指定结构的现有表示模型不同,我们提出了一种强化学习(RL)方法,通过自动覆盖优化结 ...

  9. {ICIP2014}{收录论文列表}

    This article come from HEREARS-L1: Learning Tuesday 10:30–12:30; Oral Session; Room: Leonard de Vinc ...

随机推荐

  1. 用 GraphScope 像 NetworkX 一样做图分析

    NetworkX 是 Python 上最常用的图分析包,GraphScoep 兼容 NetworkX 接口.本文中我们将分享如何用 GraphScope 像 NetworkX 一样在(大)图上进行分析 ...

  2. C++中 指针的指针是什么?指针的引用又是什么?你可能需要看看这篇文章

    关于变量的定义 我们都知道变量的定义包括一个基本数据类型(base type)和一组声明符,在同一条定义语句中,输入基本数据类型不同,但是声明符的形式却可以不同. //如:i是一个int的整数,a是一 ...

  3. JavaScript の querySelector 使用说明

    本文记录,JavaScript 中 querySelector 的使用方法.小白贡献,语失莫怪. // 两种 query 的 method (方法) document.querySelector(se ...

  4. 【第二课】从零开始学习Linux(学习笔记)

    之前工作会接触Linux,会常用的命令和服务,看过一些书,缺乏系统的学习和整理,现在放空自己,从零开始学习. 每日学习打卡: 2022-04-04

  5. 开发一款让我们慢慢变好的微信小程序

    1. 前言 朋友,你还记得你想学编程最初的目的是什么吗? 先说说我的吧,我最初想学编程的目的只有一点,感觉编程很酷,会写代码的人很厉害!.随着后面参加工作,我马上产生了让我能够在编程这条路上继续走下去 ...

  6. Spring mvc 使用@RequestBody 500错误

    今天在使用@RequestBody的时候,遇到一个http500错误,记录一下 让我们来看看我是怎么样错的,贴上代码 @PostMapping("/User") public Us ...

  7. HashMap中红黑树插入节点的调整过程

    如果有对红黑树的定义及调整过程有过研究,其实很容易理解HashMap中的红黑树插入节点的调整过程. "红黑树定义及调整过程"的参考文章:<红黑树原理.查找效率.插入及变化规则 ...

  8. [题解] [AGC022E] Median Replace

    题目大意 有个奇数长度的 \(01\) 串 \(s\) 其中有若干位置是 \(?\). 每次可将 \(3\) 个连续的字符替换成这三个数的中位数. 求有多少方案将 \(?\) 替换成 \(0/1\) ...

  9. 一文搞懂 Linux 的 inode!

    一个执着于技术的公众号 1.inode 是什么 理解inode,要从文件储存说起. 文件储存在硬盘上,硬盘的最小存储单位叫做"扇区"(Sector).每个扇区储存512字节(相当于 ...

  10. 【java并发编程】ReentrantLock 可重入读写锁

    目录 一.ReentrantLock可重入锁 二.ReentrantReadWriteLock读写锁 三.读锁之间不互斥 欢迎关注我的博客,更多精品知识合集 一.ReentrantLock可重入锁 可 ...