郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Nature May 17, 2018 Received: 5 July 2017; Accepted: 3 April 2018;Published online 9 May 2018. Abstract 深度神经网络在从目标识别到复杂的游戏(例如Go1,2)等领域都取得了令人瞩目的成功.然而,对于人工智能体而言,导航仍然是一个巨大的挑战,通过强化学习训练的深度神经网络3-5无法与哺乳动物空间行为的能力相提并论,而后者是由内嗅皮层中…
[论文分享] DHP: Differentiable Meta Pruning via HyperNetworks authors: Yawei Li1, Shuhang Gu, etc. comments: ECCV2020 cite: [2003.13683] DHP: Differentiable Meta Pruning via HyperNetworks (arxiv.org) code: ofsoundof/dhp: This is the official implementati…
论文分享第四期-2019.04.16 Residual Attention Network for Image Classification,CVPR 2017,RAN 核心:将注意力机制与ResNet结合,用于图像分类.论文设计了一个注意力模块(Attention Module),通过级联该模块(即增加模型深度),网络可以学到细粒度的特征图谱(fined-grained feature maps),因为随着层数的加深,来自不同模块的注意力感知特征可以自适应地改变. 除了注意机制带来的更具判别性…
论文分享第三期-2019.03.29 Fully convolutional networks for semantic segmentation,CVPR 2015,FCN 一.全连接层与全局平均池化 在介绍FCN网络的全卷积连接之前,先介绍一下全连接层(fully connected layers)和全局平均池化(global average pooling) 全连接层可以将前面的多层卷积学到的“分布式特征表示”(或者说是高层的鲁棒特征)映射到样本类别空间,与softmax组合具有“分类器”…
论文分享第二期-2019.03.26 NIPS2015,Spatial Transformer Networks,STN,空间变换网络…
论文分享第一期-2019.03.14: 1. Non-local Neural Networks  2018 CVPR的论文 2. Self-Attention Generative Adversarial Networks  abs/1805.08318 先将手写笔记上传,后续整理成文字 一. 二.…
http://udel.edu/~yuyang/downloads/tr_observabilityII.pdf Aided Inertial Navigation: Unified Feature Representations and Observability Analysis Yulin Yang,Guoquan Huang 辅助惯性导航:统一的特征表示和可观察性分析 Extending our recent work [1] that focuses on the observabili…
authors: Mingbao Lin, Rongrong Ji, etc. comments: IJCAL2020 cite: [2001.08565v3] Channel Pruning via Automatic Structure Search (arxiv.org) code: https://github.com/lmbxmu/ABCPruner (official) 0.Abstract In this paper, we propose a new channel prunin…
论文源址:https://arxiv.org/abs/1811.12030 开源代码:未公开 摘要 本文提出了目标检测网络Grid R-CNN,其基于网格定位机制实现准确的目标检测.传统方法主要基于回归操作,Grid R-CNN则捕捉详细的空间信息,同时具有全卷积结构中对位置信息的敏感性.[ Instead of using only two independent points]是指CornerNet预测的不准确性.Grid R-CNN使用多点监督,用于编码更多的细节信息,同时降低了不准确的特…
https://www.sohu.com/a/233269391_395209 本周我们要分享的论文是<Universal Language Model Fine-tuning for Text Classificatio> 迁移学习在计算机视觉方面取得了很多成功,但是同样的方法应用在NLP领域却行不通.文本分类还是需要从零开始训练模型.本文的作者提出了一种针对NLP的有效的迁移学习方法,通用语言模型微调(ULMFiT)并介绍了用于微调模型的关键技巧. 越底层的特征越通用,越顶层的特征越特殊…