来一发普通的二维卷积 1.输入feature map的格式为:m * m * h1 2.卷积核为 k * k 3.输出feature map的格式为: n * n * h2 参数量:k * k * h1 * h2 计算量: k * k * h1 * n * n * h2 分组卷积 设分组大小为g,则: 参数量: (k * k * h1/g * h2 /g) * g 计算量:(k * k * h1/g n n * h2/g)*g squeezenet 单元名字为fire_module, 先用一个1
之前也写过GoogLeNet的笔记.但那个时候对Inception有些似懂非懂,这周又一次看了一遍,觉得有了新的体会,特地又一次写一篇博客与它再续前缘. 本文属于论文笔记性质.特此声明. Network in Network GoogLeNet提出之时,说到事实上idea是来自NIN.NIN就是Network in Network了. NIN有两个特性.是它对CNN的贡献: MLP取代GLM Global Average Pooling mlpconv 普通的卷积能够看做是比較特殊的GLM,GL
目录 写在前面 Convolution VS Group Convolution Group Convolution的用途 参考 博客:blog.shinelee.me | 博客园 | CSDN 写在前面 Group Convolution分组卷积,最早见于AlexNet--2012年Imagenet的冠军方法,Group Convolution被用来切分网络,使其在2个GPU上并行运行,AlexNet网络结构如下: Convolution VS Group Convolution 在介绍Gro
CNN从2012年的AlexNet发展至今,科学家们发明出各种各样的CNN模型,一个比一个深,一个比一个准确,一个比一个轻量.我下面会对近几年一些具有变革性的工作进行简单盘点,从这些充满革新性的工作中探讨日后的CNN变革方向. 注:水平所限,下面的见解或许有偏差,望大牛指正.另外只介绍其中具有代表性的模型,一些著名的模型由于原理相同将不作介绍,若有遗漏也欢迎指出. 一.卷积只能在同一组进行吗?-- Group convolution Group convolution 分组卷积,最早在AlexN
虽然很多CNN模型在图像识别领域取得了巨大的成功,但是一个越来越突出的问题就是模型的复杂度太高,无法在手机端使用,为了能在手机端将CNN模型跑起来,并且能取得不错的效果,有很多研究人员做了很多有意义的探索和尝试,今天就介绍两个比较轻量级的模型 mobile net 和 shuffle net. 在介绍这几个轻量型的网络之前,我们先来看看,为什么卷积神经网络的运算功耗这么大. 卷积神经网络,顾名思义,就是会有很多的卷积运算,而卷积神经网络中,最费时间的就是其中的卷积运算.我们知道,一张 h×w"
先来一波各版本性能展览: Pre-trained Models Choose the right MobileNet model to fit your latency and size budget. The size of the network in memory and on disk is proportional to the number of parameters. The latency and power usage of the network scales with th