上一期中讲解了图像分类和目标检测中的数据增强的区别和联系,这期讲解数据增强的进阶版- yolov4中的Mosaic数据增强方法以及CutMix. 前言 Yolov4的mosaic数据增强参考了CutMix数据增强方式, 是CutMix数据增强方法的改进版.不同于一般的数据增强的方式是对一张图片进行扭曲.翻转.色域变化,CutMix数据增强方式是对两张图片进行拼接变为一张新的图片,然后将拼接好了的图片传入到神经网络中去学习,如下图. CutMix的处理方式比较简单,对一对图片做操作,简单讲就是随机…
深度学习数据特征提取:ICCV2019论文解析 Goal-Driven Sequential Data Abstraction 论文链接: http://openaccess.thecvf.com/content_ICCV_2019/papers/Muhammad_Goal-Driven_Sequential_Data_Abstraction_ICCV_2019_paper.pdf 摘要 自动数据抽象是基准机器智能和支持摘要应用的重要功能.在前者中,一个问题是机器是否能够"理解"输入数…
GridMask Data Augmentation, ARXIV 2020 代码地址:https://github.com/akuxcw/GridMask 这篇论文提出了一种简单的数据增强方法,在图像分类.检测.分割三个任务进行实验,效果提升明显. 1. Introduction 作者首先回顾了数据增强(Data augmentation)方法,指出当前方法有三类:spatial transformation, color distortion, 以及 information dropping…
目录 原文链接:小样本学习与智能前沿 01 Transforming Samples from Dtrain 02 Transforming Samples from a Weakly Labeled or Unlabeled Data Set 03 Transforming Samples from Similar Data Sets Discussion and Summary 原文链接:小样本学习与智能前沿 上一篇:A Survey on Few-Shot Learning | Intro…
上一篇帖子go微服务框架go-micro深度学习(三) Registry服务的注册和发现详细解释了go-micro是如何做服务注册和发现在,服务端注册server信息,client获取server的地址信息,就可以和服务建立连接,然后就可以进行通信了.这篇帖子详细说一下,go-micro的通信协议.编码,和具体服务方法的调用过程是如何实现的,文中的代码还是我github上的例子: gomicrorpc go-micro 支持很多通信协议:http.tcp.grpc等,支持的编码方式也很多有jso…
本文主要参考Ensemble Methods for Deep Learning Neural Networks一文. 1. 前言 神经网络具有很高的方差,不易复现出结果,而且模型的结果对初始化参数异常敏感. 使用集成模型可以有效降低神经网络的高方差(variance). 2. 使用集成模型降低方差 训练多个模型,并将预测结果结合到一起,能够降低方差. 多模型集成能起到作用的前提是,每个模型有自己的特点,每个模型预测出的误差是不同的. 简单的集成方式就是将预测结果取平均,该方法起作用的原因是,不…
转自:http://blog.csdn.net/bvl10101111/article/details/72615621 先上结论: 1.动量方法主要是为了解决Hessian矩阵病态条件问题(直观上讲就是梯度高度敏感于参数空间的某些方向)的. 2.加速学习 3.一般将参数设为0.5,0.9,或者0.99,分别表示最大速度2倍,10倍,100倍于SGD的算法. 4.通过速度v,来积累了之前梯度指数级衰减的平均,并且继续延该方向移动: 再看看算法:  动量算法直观效果解释:   如图所示,红色为SG…
“Xavier”初始化方法是一种很有效的神经网络初始化方法,方法来源于2010年的一篇论文<Understanding the difficulty of training deep feedforward neural networks>,可惜直到近两年,这个方法才逐渐得到更多人的应用和认可. 为了使得网络中信息更好的流动,每一层输出的方差应该尽量相等. 基于这个目标,现在我们就去推导一下:每一层的权重应该满足哪种条件. 文章先假设的是线性激活函数,而且满足0点处导数为1,即  现在我们先来…
“Xavier”初始化方法是一种很有效的神经网络初始化方法,方法来源于2010年的一篇论文<Understanding the difficulty of training deep feedforward neural networks>,可惜直到近两年,这个方法才逐渐得到更多人的应用和认可. 为了使得网络中信息更好的流动,每一层输出的方差应该尽量相等.基于这个目标,现在我们就去推导一下:每一层的权重应该满足哪种条件.文章先假设的是线性激活函数,而且满足0点处导数为1,即 现在我们先来分析一…
这一篇博客整理用TensorFlow实现神经网络正则化的内容. 深层神经网络往往具有数十万乃至数百万的参数,可以进行非常复杂的特征变换,具有强大的学习能力,因此容易在训练集上过拟合.缓解神经网络的过拟合问题,一般有两种思路,一种是用正则化方法,也就是限制模型的复杂度,比如Dropout.L1和L2正则化.早停和权重衰减(Weight Decay),一种是增大训练样本量,比如数据增强(Data Augmentation).这些方法的原理阐述可以看我之前整理的文章<深度学习之正则化方法>. 下面用…