SaccadeNet基于中心点特征进行初步的目标定位,然后利用初步预测框的角点特征以及中心点特征进行预测框的精调,整体思想类似于two-stage目标检测算法,将第二阶段的预测框精调用的区域特征转化为点特征.SaccadeNet在精度和速度上都可圈可点,整体思想十分不错 来源:晓飞的算法工程笔记 公众号 论文: SaccadeNet: A Fast and Accurate Object Detector 论文地址:https://arxiv.org/abs/2003.12125 论文代码:
BERT 论文阅读 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 由 @快刀切草莓君 阅读编写. 1 引言 两种为下游任务应用预训练模型表示的现存策略 基于特征 e.g. ELMo:使用包括预训练表示作为额外特征的特定任务架构 精调 e.g. GPT Generative Pre-trained Transformer 引入最少的特定任务参数 这两种策略都使用了单一方向语言模型 限
文章发布于公号[数智物语] (ID:decision_engine),关注公号不错过每一篇干货. 来源 | 微软研究院AI头条 编者按:在过去的一段时间,自然语言处理领域取得了许多重要的进展,Transformer.BERT.无监督机器翻译,这些词汇仿佛在一夜之间就进入了人们的视野.你知道它们具体都是什么意思吗?今天,我们就将为大家介绍三个NLP领域的热门词汇. 01Transformer Transformer在2017年由Google在题为<Attention Is All You Need
一.概括 Fast R-cnn的主要亮点有:Fast R-CNN将借助多任务损失函数,将物体识别和位置修正合成到一个网络中,不再对网络进行分步训练,不需要大量内存来存储训练过程中特征的数据:用RoI层代替SPP层,可以使用BP算法更高效的训练更新整个网络.现在,这些方法已经很少使用了,但是经典的网络中涉及到的框架结构搭建,训练与优化等技巧还是值得我们去学习. Fast R-CNN框架与R-CNN有两处不同: ① 最后一个卷积层后加了一个ROI pooling layer: ② 损失函数使用了mu