两种形式的LSTM变体 Child-Sum Tree-LSTMs N-ary Tree-LSTMs https://paperswithcode.com/paper/improved-semantic-representations-from-tree…
Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks 作者信息:Kai Sheng Tai Stanford UniversityRichard Socher MetaMindChristopher D. Manning Stanford University 数据: 1)Stanford Sentiment Treebank 情感分为五类 2)Sentence Involvi…
今天和陈驰,汪鑫讨论了一下,借此记录一下想法. 关于这篇论文,要弄清的地方有: 1.LSTMtree到底是从上往下还是从下往上学的,再确认一下 2.关于每个节点的标注问题 3.label的值到底该怎么定 4.该神经网络的输入形式到底是什么 今天晚上对照了目前学习的两篇LSTM论文,新的发现: 之所以顺序一个是从上到下,另一个是从下到上,仅仅是因为ht取的东西不同! Improved semantic那一篇:ht取的是孩子节点的信息(目前仅看了child-sum,还需确认N-ary) Top-do…
论文链接:https://arxiv.org/abs/1412.7062 摘要 该文将DCNN与概率模型结合进行语义分割,并指出DCNN的最后一层feature map不足以进行准确的语义分割,DCNN具有很强的空间不变性,因此比较擅长高层次的任务.该文通过在DCNN的最后一层添加一层CRF用来克服定位不准的问题.该文通过引入空洞算法来提高模型在GPU上的运行速度. 介绍 该文的一个主题是采用进行end-to-end训练的DCNN,相比传统的依赖,SIFT或者HOG等人工设计的特征会产生喜人的分…
主要思想 这篇文章主要是利用多个标准进行中文分词,和之前复旦的那篇文章比,它的方法更简洁,不需要复杂的结构,但比之前的方法更有效. 方法 堆叠的LSTM,最上层是CRF. 最底层是字符集的Bi-LSTM.输入:字符集embedding,输出:每个字符的上下文特征表示. 得到ht之后, CRF作为推理层. 打分: local score: 其中 ,,这一项是Bi-LSTM隐层ht和bigram 特征embedding的拼接. global score: A是转移矩阵tag yi to tag yj…
一.PipeLine 要点 TopDown + GlobalNet + RefineNet 二.Motivation 通过提高对难以识别的关键点的识别准确率,来提升总体识别准确率. 方法:1.refineNet中提升感受野 2. 在线难例挖掘 三.关键点 1. 软非最大值抑制(Soft NMS) Hard NMS是将IOU超过阈值之后的,分数比较差的框直接过滤掉,保留框相对较少.软非最大值抑制将分数较差的框的得分进一步抑制降低但保留(前提是IOU达到阈值以上),提升了一定的物体检测的召回率,从而…
论文源址:https://arxiv.org/abs/1605.06409 开源代码:https://github.com/PureDiors/pytorch_RFCN 摘要 提出了基于区域的全卷积网络,用于精确高效的目标检测,相比于基于区域的检测器(Fast/Faster R-CNN),这些检测器重复的在子区域进行数百次计算,而本文在整张图像上进行共享计算.因此,本文提出了基于位置敏感分数图用于解决图像分类中的平移不变性及目标检测中的平移可变性之间的矛盾.将图像分类网络处理为全卷积网络用于目标…
Introduction (1)Motivation: 当前采用CNN-RNN模型解决行人重识别问题仅仅提取单一视频序列的特征表示,而没有把视频序列匹配间的影响考虑在内,即在比较不同人的时候,根据不同的行人关注不同的部位,如下图: (2)Contribution: 将注意力模型考虑进行人重识别中,提出了时空联合注意力池化网络(jointly Attentive Spatial-Temporal Pooling Networks,ASTPN). The Proposed Model Archite…
Xiang Bai--[CVPR2016]Multi-Oriented Text Detection with Fully Convolutional Networks 目录 作者和相关链接 方法概括 方法细节 创新点和贡献 实验结果 问题讨论 总结与收获点 作者和相关链接 作者: paper下载 方法概括 Step 1--文本块检测: 先利用text-block FCN得到salient map,再对salient map进行连通分量分析得到text block: Step 2--文本线形成:…
Introduction 这篇paper是做Transformer压缩的,但其实bert的核心也就是transformer,这篇paper的实验里也做了bert的压缩.作者的主要工作是提出了LayerDrop的方法,即一种结构化的dropout的方法来对transformer模型进行训练,从而在不需要fine-tune的情况下选择一个大网络的子网络. 这篇paper方法的核心是通过Dropout来去从大模型中采样子网络,但是这个dropout是对分组权重进行dropout的,具体而言,这篇pap…