CNN公式推导

1 前言

在看此blog之前,请确保已经看懂我的前两篇blog【深度学习笔记1(卷积神经网络)】和【BP算法与公式推导】。并且已经看过文献[1]的论文【Notes on Convolutional Neural Networks】。因为本文就是讲解文献[1]论文前部分公式的推导过程<这里有一个假设,或许公式是错误的,如有好的理解请留言>。

2 CNN公式推导

卷积神经网络参数求解的过程与上次笔记【BP算法与公式推导】类似,但是在形式上还是有变化的。文献[1]的论文直接给出了参数求解的公式,主要包括:卷积层和subsampling层的残差以及对应的对权重参数和偏置参数的导数。

注意:这里的卷积核参数所放在的层与残差放在了同一层,和上次笔记略有不同,但是没有影响!

2.1 卷积层:

2.1.1 卷积计算

假设第l层为卷积层,第l+1层为subsampling层,则第l层第j个feature map的计算公式如下:

上面的*号实质是让卷积核k在第l-1层所有关联的feature maps上做卷积运算,然后求和,再加上一个偏置参数,取sigmoid得到最终激励值的过程。

例子:假设第l-1层只有两个feature map,大小为4*4像素。

      

一个卷积核K(二维卷积核K11和K12),大小为2*2。

   

则计算第l层的一个feature map结果如下,大小为3*3像素:

注意:在matlab中可以用convn函数来实现卷积,如:

image = convn(im, kernel, ‘valid’); 其中计算的过程会先将kernel反转180度,再与im做卷积操作。

因此本文中我们举例子用的卷积核2*2大小是已经旋转180度后的,即

2.1.2 残差计算

BP算法中残差计算等于第l+1层与其连接的所有结点的权值和残差的加权和再乘以该点对z的导数值。卷积层的下一层是subsampling层,采用的是一对一非重叠采样,故残差计算更为简单。

第l层第j个feature map的残差计算公式如下:

其中第l层为卷积层,第l+1层为subsampling层,subsampling层与卷积层是一一对应的。其中up(x)是将第l+1层的大小扩展为和第l层大小一样。举个简单的例子,假如第l+1层为2*2的,subsampling的采样大小为2*2,其中第l+1层的一个feature map所对应的残差为:

那么扩展之后就变为了

直观上的理解:由于是一对一采样,故扩展之后第l层的每个节点只对应第l+1层唯一的一个结点,按照BP算法残差计算公式可以得出:第l层某结点残差就等于权值w乘以第l+1层对应节点残差值再乘以f(z)的导数,公式仅仅是矢量化的形式。

2.1.3 梯度计算

(1) 论文中给出了偏置参数b的导数,公式为:

下面我们给出推导公式,(其中第2行到第3行用到了假设,因为这里的zjl和bjl都是矩阵,没有矩阵对矩阵求导,这里给出了一个求和公式。我也解释不了是否正确,有知道的可以留言!)其中njl为第l层第j个feature map中点的个数。

(2) 论文中给出了偏置参数k的导数,其中kijl表示第l层第j个feature map与第l-1层第i个feature map相连所对应的kernel,是一个矩阵:

公式推导如下:

这里我们给出例子:比如卷积层为3*3的大小,卷积核的大小为2*2上一层feature map大小为4*4

论文中给出其matlab代码:

由于matlab中先要反转180度,故代码中先对残差旋转180度,得到的结果是, 要想得到最后的结果K, 故对其结果再旋转180度。

2.2  subsampling层:

2.2.1卷积计算

设第l层为subsampling层,第l-1为卷积层,由于是一对一采样,假设采样大小为2*2,故计算公式为:

这里的down(x)是将x中2*2的大小中像素值进行求和。计算过程为对上一层卷积层2*2大小进行求和然后乘以权重w,再加上一个偏置,再求取sigmoid函数。

2.2.2 残差计算

论文中给出了残差的计算公式:

其中第l层为subsampling层,第l+1层为卷积层。

直观上的理解:如下图:左边为subsampling层的一个featuremap,右边是卷积层的一个feature map,

比如对于当前结点中的7号结点,其与下一层的连接方式为{k22, 2; k21,3; k12, 5; k11, 6}(这里可以用笔简单画下就计算出来了)。故根据bp算法中残差计算方法等于第l+1层与其连接的所有结点的权值和残差的加权和再乘以该点对z的导数值,就相当于用卷积核直接在下一层卷积层的残差上做卷积运算,方式为full类型,也就得到公式中的形式,由于matlab自带的卷积函数会先旋转对K旋转180度,故我们需要先对其旋转180度,再计算卷积。(当然我认为这里的公式有点偏差,的下标不应该用j,而是用i,而且需要对第l+1层中所有的与该subsampling相连接的featuremap最后的结果求和—源码中的确是这样的。)

2.2.2 梯度计算

(1) 偏置b的导数,其公式的推导过程与卷积层是一样的的。

(2) 权重w的导数,论文给出的公式如下:

公式推导如下:

这里我们给出一个例子:比如subsampling层feature map大小为2*2,则其上一层卷积层feature map的大小为4*4,如下所示,计算过程为对上一层卷积层2*2大小进行求和然后乘以权重w,再加上一个偏置,再求取sigmoid函数。(其中1,2,3,4只是一个标号,不是具体的值)

则计算过程为:

wjl = d11*{1+2+3+4} +d12*{5+6+7+8} + d21*{9+10+11+12} + d22*{13+14+15+16}。与公式相符。

注意:公式推导中有一个不那么正确的假设,但有了这个假设,一切结论都是成立的,这个结论或许超出了我数学的海拔高度,有正确解法的可以留言,谢谢!

参考文献:

1:原始论文:Notes onConvolutional Neural Networks http://cogprints.org/5869/1/cnn_tutorial.pdf

2: 论文翻译参看:http://blog.csdn.net/zouxy09/article/details/9993371

3:如何正确使用论文中公式(附带小例子)见:http://www.cnblogs.com/tornadomeet/p/3468450.html

cnn公式推导的更多相关文章

  1. 卷积神经网络CNN公式推导走读

      0有全连接网络,为什么还需要RNN 图像处理领域的特殊性,      全连接网络缺点:                              RNN解决办法:      1参数太多       ...

  2. 卷积神经网络CNN的原理(二)---公式推导

    卷积神经网络与普通神经网络的区别在于,卷积神经网络包含多个由卷积层和池化层构成的特征抽取器.在卷积神经网络的卷积层中,一个神经元只与部分邻层神经元连接.在CNN的一个卷积层中,通常包含若干个特征平面( ...

  3. The Derivation About CNN and Antoencoder

    The Derivation About CNN and Antoencoder 公式推导 本人用latex写的关于CNN和autoencoder的推导,前向和反向传播的推导都有证明.pdf下载地址T ...

  4. 由浅入深:CNN中卷积层与转置卷积层的关系

    欢迎大家前往腾讯云+社区,获取更多腾讯海量技术实践干货哦~ 本文由forrestlin发表于云+社区专栏 导语:转置卷积层(Transpose Convolution Layer)又称反卷积层或分数卷 ...

  5. 深度学习笔记之CNN(卷积神经网络)基础

    不多说,直接上干货! 卷积神经网络(ConvolutionalNeural Networks,简称CNN)提出于20世纪60年代,由Hubel和Wiesel在研究猫脑皮层中用于局部敏感和方向选择的神经 ...

  6. cnn知识点汇总

    关于卷积神经网络的入门基础知识: https://blog.csdn.net/weixin_42451919/article/details/81381294   卷积神经网络的相关公式推导: htt ...

  7. 数据挖掘入门系列教程(十点五)之DNN介绍及公式推导

    深度神经网络(DNN,Deep Neural Networks)简介 首先让我们先回想起在之前博客(数据挖掘入门系列教程(七点五)之神经网络介绍)中介绍的神经网络:为了解决M-P模型中无法处理XOR等 ...

  8. Deep learning:五十一(CNN的反向求导及练习)

    前言: CNN作为DL中最成功的模型之一,有必要对其更进一步研究它.虽然在前面的博文Stacked CNN简单介绍中有大概介绍过CNN的使用,不过那是有个前提的:CNN中的参数必须已提前学习好.而本文 ...

  9. 卷积神经网络(CNN)学习算法之----基于LeNet网络的中文验证码识别

    由于公司需要进行了中文验证码的图片识别开发,最近一段时间刚忙完上线,好不容易闲下来就继上篇<基于Windows10 x64+visual Studio2013+Python2.7.12环境下的C ...

随机推荐

  1. libpcap 库使用(二)

    参考资料: http://www.tcpdump.org/manpages/pcap.3pcap.html 分类介绍了该lib的函数 Opening a capture handle for read ...

  2. Linux 内核态与用户态通信 netlink

    参考资料: https://blog.csdn.net/zqixiao_09/article/details/77131283 https://www.cnblogs.com/lopnor/p/615 ...

  3. post方式发送请求报文

    $url="http://www.test.com/04_demo_weather.php?id=5"; $ci=curl_init($url); curl_setopt($ci, ...

  4. 第五周Java学习总结(补)

    第五周java学习内容(补) 学习内容: File类方法的操作 public String getName() public boolean canRead() public boolean canW ...

  5. [AI]神经网络章1 神经网络基本工作原理

    神经元细胞的数学计算模型 神经网络由基本的神经元组成,下图就是一个神经元的数学/计算模型,便于我们用程序来实现. 输入 (x1,x2,x3) 是外界输入信号,一般是一个训练数据样本的多个属性,比如,我 ...

  6. IO之4种字节流拷贝文件方式对比

    public class CopyMp4Demo { public static void main(String[] args) throws IOException { long start = ...

  7. PHP 写文件的例子

    $contents = "All the content"; $dir = 'c:'; $file_path = $dir . "\\content.txt"; ...

  8. 【Erlang】源码安装

    Erlang介绍 Erlang(['ə:læŋ])是一种通用的面向并发的编程语言,它由瑞典电信设备制造商爱立信所辖的CS-Lab开发,目的是创造一种可以应对大规模并发活动的编程语言和运行环境. Erl ...

  9. AOP 环绕通知 (Schema-base方式) 和 AspectJ方式在通知中获取切点的参数

    环绕通知(Schema- base方式) 1.把前置通知和后置通知都写到一个通知中,组成了环绕通知 2.实现步骤: 2.1 新建一个类实现 MethodInterceptor 接口 public cl ...

  10. SQL语句备份和还原数据库

    1,使用SQL最简单备份,还原数据库 1 /* 备份 */ 2 backup database Test to disk='D:/Test.bak' 3 /* 还原 */ 4 restore data ...