SqueezeNet】的更多相关文章

论文地址:https://arxiv.org/abs/1602.07360 模型地址:https://github.com/DeepScale/SqueezeNet 1. 论文思想 提出一种新的卷积组合方式替代原来的3*3的卷积.类似于bottleneck layer减少参数数目.但是不太像MobileNet是提出了一种新的卷积计算方式来减少参数,加速计算. 2. 网络结构设计策略 用3*3的替代1*1的filter. (NiN, GoogLeNet) 减少3*3的输入channel数目. (b…
欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld. 技术交流QQ群:433250724,欢迎对算法.技术感兴趣的同学加入. 继续前面关于深度学习CNN经典模型的整理,之前介绍了CNN网络Lenet,Alexnet,Googlenet,VGG,Deep Residual Learning(点击查看)的网络结构. 本文讲一下最新由UC Berkeley和Stanford研究人员一起完成的SqueezeNet[1]网络结构和设计思想.SqueezeNet设计目标…
虽然网络性能得到了提高,但随之而来的就是效率问题(AlexNet VGG GoogLeNet Resnet DenseNet) 效率问题主要是模型的存储问题和模型进行预测的速度问题. Model Compression: 从模型权重数值角度压缩 从网络架构角度压缩 对于效率问题,通常的方法即在已经训练好的模型上进行压缩,使得网络携带更少的网络参数,从而解决内存问题,同时解决速度问题. 相比于在已经训练好的模型上进行处理,轻量化模型模型设计则是另辟蹊径.轻量化模型设计主要思想在于设计更高效的「网络…
squeezenet是16年发布的一款轻量级网络模型,模型很小,只有4.8M,可用于移动设备,嵌入式设备. 关于squeezenet的原理可自行阅读论文或查找博客,这里主要解读下pytorch对squeezenet的官方实现. 地址:https://github.com/pytorch/vision/blob/master/torchvision/models/squeezenet.py 首先定义fire模块,这是squeezenet的核心所在,降低3X3卷积的数量. class Fire(nn…
前言 深度卷积网络除了准确度,计算复杂度也是考虑的重要指标.本文列出了近年主流的轻量级网络,简单地阐述了它们的思想.由于本人水平有限,对这部分的理解还不够深入,还需要继续学习和完善. 最后我参考部分列出来的文章都写的非常棒,建议继续阅读. 复杂度分析 理论计算量(FLOPs):浮点运算次数(FLoating-point Operation) 参数数量(params):单位通常为M,用float32表示. 对比 std conv(主要贡献计算量) params:\(k_h\times k_w\ti…
SqueezeNet 论文地址:https://arxiv.org/abs/1602.07360 和别的轻量级模型一样,模型的设计目标就是在保证精度的情况下尽量减少模型参数.核心是论文提出的一种叫"fire module"的卷积方式. 设计策略 主要用1x1卷积核,而不是3x3. 减少3x3卷积核作用的channel. 推迟下采样的时间.以获取更大尺寸的feature map.这一点是处于精度的考虑.毕竟feature map的resolution越大,信息越丰富.下采样主要通过poo…
来一发普通的二维卷积 1.输入feature map的格式为:m * m * h1 2.卷积核为 k * k 3.输出feature map的格式为: n * n * h2 参数量:k * k * h1 * h2 计算量: k * k * h1 * n * n * h2 分组卷积 设分组大小为g,则: 参数量: (k * k * h1/g * h2 /g) * g 计算量:(k * k * h1/g n n * h2/g)*g squeezenet 单元名字为fire_module, 先用一个1…
自 2012 年 AlexNet 以来,卷积神经网络在图像分类.目标检测.语义分割等领域获得广泛应用.随着性能要求越来越高,AlexNet 已经无法满足大家的需求,于是乎各路大牛纷纷提出性能更优越的 CNN 网络,如 VGG.GoogLeNet.ResNet.DenseNet 等.由于神经网络的性质,为了获得更好的性能,网络层数不断增加,从 7 层 AlexNet 到 16 层 VGG,再从 16 层 VGG 到 GoogLeNet 的 22 层,再到 152 层 ResNet,更有上千层的 R…
1. Abstract 本文旨在简单介绍下各种轻量级网络,纳尼?!好吧,不限于轻量级 2. Introduction 2.1 Inception 在最初的版本 Inception/GoogleNet,其核心思想是利用多尺寸卷积核去观察输入数据.举个栗子,我们看某个景象由于远近不同,同一个物体的大小也会有所不同,那么不同尺度的卷积核观察的特征就会有这样的效果.于是就有了如下的网络结构图: 图1: Inception module, naive version 于是我们的网络就变胖了,通过增加网络的…
近年提出的四个轻量化模型进行学习和对比,四个模型分别是:SqueezeNet.MobileNet.ShuffleNet.Xception. SqueezeNet https://arxiv.org/pdf/1602.07360.pdf MobileNet https://arxiv.org/pdf/1704.04861.pdf Xception https://arxiv.org/pdf/1610.02357.pdf ShuffleNet https://arxiv.org/pdf/1707.0…