CVPR2020 论文解读:少点目标检测】的更多相关文章

CVPR2020 论文解读:具有注意RPN和多关系检测器的少点目标检测 Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector 具有注意RPN和多关系检测器的少点目标检测 目标检测的惯用方法需要大量的训练数据,准备这样高质量的训练数据很费精力的.本文中,提出一种新的少点目标检测网络,只用几个带注释的示例的看不见的类来检测目标.集中到新方法的核心是,注意力RPN,多相关检测器,以及对比训练策略,探索少点支持集…
CVPR2020论文解读:3D Object Detection三维目标检测 PV-RCNN:Point-Voxel Feature Se tAbstraction for 3D Object Detection 论文链接:https://arxiv.org/pdf/1912.13192.pdf 本文在LITTI数据集3D Object Detection三维目标检测性能排名第一. 摘要 提出了一种新的高性能的三维目标检测框架:点体素RCNN(PV-RCNN),用于从点云中精确检测三维目标.该方…
CVPR2020论文解读:CNN合成的图片鉴别 <CNN-generated images are surprisingly easy to spot... for now> 论文链接:https://arxiv.org/abs/1912.11035 代码链接:https://peterwang512.github.io/CNNDetection/ 该文章被CVPR2020录用,Arxiv公开于2019年12月,作者来自 UC Berkeley 和 Adobe Research. CNN 生成…
CVPR2020论文解读:三维语义分割3D Semantic Segmentation xMUDA: Cross-Modal Unsupervised Domain Adaptation  for 3D Semantic Segmentation 摘要 无监督域自适应(UDA)对于解决新域中缺少注释的问题至关重要.有许多多模态数据集,但大多数UDA方法都是单模态的.在这项工作中,我们探索如何从多模态学*,并提出跨模态UDA(xMUDA),其中我们假设存在二维图像和三维点云进行三维语义分割.这是一…
图像分类:CVPR2020论文解读 Towards Robust Image Classification Using Sequential Attention Models 论文链接:https://arxiv.org/pdf/1912.02184.pdf 摘要 在这篇文章中,我们提出用一个受人类感知启发的注意力模型来扩充一个现代的神经网络结构.具体地说,我们对一个神经模型进行了逆向训练和分析,该模型包含了一个受人启发的视觉注意成分,由一个自上而下的循环顺序过程引导.我们的实验评估揭示了关于这个…
CVPR2020论文解读:OCR场景文本识别 ABCNet:  Real-time Scene Text Spotting with Adaptive Bezier-Curve Network∗ 论文链接:https://arxiv.org/pdf/2002.10200.pdf 摘要 场景文本的检测与识别越来越受到人们的关注.现有的方法大致可以分为两类:基于字符的方法和基于分割的方法.这些方法要么代价高昂,要么需要维护复杂的管道,这通常不适合实时应用.在这里,我们提出了自适应贝塞尔曲线网络(AB…
CVPR2020论文解读:手绘草图卷积网络语义分割 Sketch GCN: Semantic Sketch Segmentation with Graph Convolutional Networks 论文链接:https://arxiv.org/pdf/2003.00678.pdf 摘要 介绍了一种用于手绘草图语义分割和标注的图形卷积神经网络SketchGCN.我们将输入草图视为二维点集,并将笔划结构信息编码为图形节点/边缘表示.为了预测每个点的标签,我们的SketchGCN使用图卷积和全局分…
作为单阶段网络,retinanet兼具速度和精度(精度是没问题,速度我持疑问),是非常耐用的一个检测器,现在很多单阶段检测器也是以retinanet为baseline,进行各种改进,足见retinanet的重要,我想从以下几个方面出发将retinanet解读下,尽己所能. retinanet出发点,目的,为什么 retinanet解决方案,做法,干什么 retinanet的效果,缺点,改什么 retinanet中的疑点(我个人的) [出发点] retinanet的出发点,作为一款单阶段检测器,开…
前言 本篇文章出自CVPR2017,四名作者为Tsinghua University,Peking University, 外加两名来自Megvii(旷视科技)的大佬. 文章中对能够帮助行人检测的extra features做了诸多分析,并且提出了HyperLearner行人检测框架(基于Faster R-CNN改进),在KITTI&Caltech&Cityscapes数据集上实现了极为优秀的性能. 论文:http://openaccess.thecvf.com/content_cvpr_…
CVPR2020行人重识别算法论文解读 Cross-modalityPersonre-identificationwithShared-SpecificFeatureTransfer 具有特定共享特征变换的跨模态行人重识别 摘要: 跨模态行人重识别对智能视频分析是一个难点,而又关键的技术.过去的研究主要集中在,将嵌入式不同模态放到同一个特征空间中,来训练常用的表现形式.但是,仅仅训练这些常用的特性,意味着会丢失大量的信息,降低特征显著性的上限. 本文中,通过推荐一个新的特定跨模态特征转换算法(称为c…