深度学习之卷积神经网络CNN及tensorflow代码实例

  1. 什么是卷积?

    1. 卷积的定义

      从数学上讲,卷积就是一种运算,是我们学习高等数学之后,新接触的一种运算,因为涉及到积分、级数,所以看起来觉得很复杂。

      我们称

      其连续的定义为:

      其离散的定义为:

    这两个式子有一个共同的特征:

    这个特征有什么意义呢?

    我们令,当n变化时,只需要平移这条直线

    在上面的公式中,是一个函数,也是一个函数,例如下图所示

    下图

    根据卷积公式,求即将变号为,然后翻转变成,若我们计算的卷积值,

    当n=0时:

    当n=1时:

    当n=2时:

    当n=3时:

    当n=4时:

    即计算步骤为当固定n值时:变号、翻转、求积、求和。

    1. 离散卷积的例子

      我有两枚骰子:

      把这两枚骰子都抛出去:

      的概率是多少?

      ,这正是卷积的应用场景。

      我们把骰子各个点数出现的概率表示出来:

      的情况有:

      的概率为:

      符合卷积的定义。

    2. 连续卷积的例子:做馒头

      楼下早点铺子生意太好了,供不应求,就买了一台机器,不断的生产馒头。

      假设馒头的生产速度是,那么一天后生产出来的馒头总量为:

      个馒头,24小时会腐败:个。

      小时的腐败,第二个小时生产出来的馒头,一天后会经历23小时的腐败。

      如此,我们可以知道,一天后,馒头总共腐败了:

      个馒头

      这就是连续卷积的例子。

    3. 图像处理:卷积可以用来平滑高频区域。
  2. CNN引入

    个,如下图所示:

    若在中间只使用一层隐藏层,参数就有28*28*15=11760多个;若输入的是28*28带有颜色的RGB格式的手写数字图片,输入神经元就有28*28*3=2352个,参数就有28*28*3*15多个。这很容易看出使用全连接神经网络处理图像时"需要训练的参数过多"的问题。

    而在卷积神经网络(Convolutional Neural Network)中,卷积层的神经元只与前一层的部分神经元节点相连,即它的神经元之间的连接是非全连接的,且同一层中某些神经元之间的连接的权重和偏移是共享的(是相同的),这样大量地减少了"需要训练的参数的数量"。

    卷积神经网络CNN的结构一般包含这几个层:

    1. 输入层:用于数据的输入
    2. 卷积层:使用卷积核进行特征提取和特征映射
    3. 激励层:由于卷积也是一种线性运算,因此需要增加非线性映射
    4. 池化层:进行下采样,对特征图稀疏处理,减少数据运算量
    5. 全连接层:通常在CNN的尾部进行重新拟合,减少特征信息的损失
    6. 输出层:用于输出结果

    当然中间还可以使用一些其他的功能层:

    1. 归一化层(Batch Normalization):在CNN中对特征的归一化
    2. 切分层:对某些(图片)数据的进行分区域的单独学习
    3. 融合层:对独立进行特征学习的分支进行融合
  3. CNN的层次结构
    1. 输入层

      在CNN的输入层中,(图片)数据输入的格式与全连接神经网络的输入格式(一维向量)不太一样。CNN的输入层的输入格式保留了图片本身的结构。

      对于黑白的28*28的图片,CNN的输入是一个28*28的二维神经元,如下图所示:

      而对于RGB格式的28*28图片,CNN的输入则是一个3*28*28的三维神经元(RGB中每一个颜色通道都有一个28*28的矩阵),如下图所示:

    2. 卷积层

      在卷积层中有几个重要的概念:卷积层就是一个感受视野,它包括局部感受视野和共享权值

      1. local receptive fields(感受视野)
      2. shared weights(共享权值)

      假设输入的是一个28*28的二维神经元,我们定义5*5的一个local receptive fields(感受视野),即隐藏层的神经元与输入层的5*5个神经元相连,这个5*5的区域就称之为Local Receptive Fileds(感受视野),如下图所示:

      可类似看作:隐藏层中的神经元具有一个固定大小的感受视野去感受上一层的部分特征。在全连接神经网络中,隐藏层中的神经元的感受视野足够大乃至可以看到上一层的所有特征。

      而在卷积神经网络中,隐藏层中的神经元的感受视野比较小,只能看到上一次的部分特征,上一层的其他特征可以通过平移感受视野来得到同一层的其他神经元,由同一层的其他神经元来看:

      :从左到右扫描,每次移动1格,扫描完之后,再向下一格,再次从左到右扫描。

      具体过程如动图所示:

    可看出,卷积层的神经元是只与前一层的部分神经元节点相连,每一条相连的线对应一个权重

    或其他值。步长和边界扩充值的大小由用户来定义。

    卷积核的大小由用户来定义,即定义的感受视野的大小;卷积核的权重矩阵的值,便是卷积神经网络的参数,为了有一个偏移项,卷积核可附带一个偏移项b,它们的初值可以随机来生成,可通过训练进行变化。

    因此,感受视野扫描时可以计算出下一层神经元的值为:

    对下一层的所有神经元来说,它们从不同的位置去探测了上一层神经元的特征。我们将通过一个带有卷积核的感受视野扫描生成的下一层神经元矩阵称为一个feature map(特征映射图),如下图的右边便是一个feature map:

    个不同的卷积核,可以输出3个feature map:(上图中,感受视野:5*5,步长stride:1)

    因此在CNN的卷积层,我们需要训练的参数大大地减少到(5*5+1)*3=78个。卷积层只包含感受视野中的神经元和共享权值。

    假设输入的是28*28的RGB图片,即输入的是一个3*28*28的二维神经元,这时卷积核的大小不只用长和宽来表示,还有深度,感受视野也对应的有了深度,如下图所示:

    ;下一层的神经元的值为:,卷积核的深度和感受视野的深度相同,都由输入数据来决定,长度可由自己来设定,数目也可以由自己来设定,一个卷积核依然对应一个feature map(特征映射)。

表示在长和宽上的移动间隔都为1。

  1. 激励层

    激励层主要对卷积层的输出进行一个非线性映射,因为卷积层的计算还是一种线性计算,使用的激励函数一般为ReLu函数:

    修正线性单元(Rectified linear unit,ReLU)

    卷积层和激励层通常合并在一起称为"卷积层"。

  2. 池化层

    当输入经过卷积层时,若感受视野比较小,步长stride比较小,得到的feature map(特征映射图)还是比较大,可以通过池化层来对每一个feature map进行降维操作,输出的深度还是不变的,依然为feature map的个数。

    池化层也有一个"池化视野"来对feature map矩阵进行扫描,对"池化视野"中的矩阵值进行计算,一般有两种计算方式:

    1. Max pooling:取"池化视野"矩阵中的最大值
    2. Average pooling :取"池化视野"矩阵中的平均值

    时:

    。(注意:"池化视野"为个人叫法)

    个24*24的feature map"下采样"得到3个12*12的特征矩阵。

    、使得图像符合显示区域的大小;2、生成对应图像的缩略图。

    放大图像(或称为上采样(upsampling)或图像插值(interpolating))的主要目的是放大原图像,从而可以显示在更高分辨率的显示设备上。

  3. 归一化层
    1. Batch Normalization

      Batch Normalization(批量归一化)实现了在神经网络层的中间进行预处理的操作,即在上一层的输入归一化处理后再进入网络的下一层,这样可以有效地防止"梯度弥散",加速网络训练。

      Batch Normalization具体的算法如下图所示:

      每次训练时,取batch_size大小的样本进行训练,在BN层中,将一个神经元看作一个特征,batch_size个样本在某个特征维度会有batch_size个值,然后在每个神经元维度上计算这些样本的均值和方差,通过公式得,再通过参数进行线性映射得到每个神经元对应的输出。在BN层中,可以看出每一个神经元维度上,都会有一个参数,它们同权重一样可以通过训练进行优化。

      在卷积神经网络中进行批量归一化时,一般对未进行ReLu激活的feature map进行批量归一化,输出后再作为激励层的输入,可达到调整激励函数偏导的作用。

      一种做法是将feature map中的神经元作为特征维度,参数的数量和则等于,这样做的话参数的数量会变得很多;

      另一种做法是把一个feature map看做一个特征维度,一个feature map上的神经元共享这个feature map的参数,参数的数量和则等于,计算均值和方差则在batch_size个训练样本在每一个feature map维度上的均值和方差。

      注意:指的是一个样本的feature map的数量,feature map跟神经元一样也有一定的排列顺序。

      Batch Normalization算法的训练过程和测试过程的区别

      在训练过程中,我们每次都会将batch_size数目大小的训练样本放入CNN网络中进行训练,在BN层中自然可以得到计算输出所需要的均值和方差;

      ,因为只有一个样本输入,因此BN层的输入也会出现很大的问题,从而导致CNN网络输出的错误。所以在测试过程中,我们需要借助训练集中所有样本在BN层归一化时每个维度上的均值和方差,当然为了计算方便,我们可以在 batch_num 次训练过程中,将每一次在BN层归一化时每个维度上的均值和方差进行相加,最后再进行求一次均值即可。

    2. Local Response Normalization近邻归一化

      近邻归一化(Local Response Normalization)的归一化方法主要发生在不同的相邻的卷积核(经过ReLu之后)的输出之间,即输入是发生在不同的经过ReLu之后的 feature map 中。

      LRN的公式如下:

      其中:

      表示第i个卷积核的输出(经过ReLu层)的feature map上的位置上的值。

      表示经过LRN后的输出。

      表示卷积核的数量,即输入的feature map的个数。

      表示近邻的卷积核(或feature map)个数,由自己来决定。

      是超参数,由用户自己调整或决定。

      与BN的区别:BN依据mini batch的数据,近邻归一仅需要自己来决定,BN训练中有学习参数;BN归一化主要发生在不同的样本之间,LRN归一化主要发生在不同的卷积核的输出之间。

  4. 切分层

    在一些应用中,需要对图片进行切割,独立地对某一部分区域进行单独学习。这样可以对特定部分进行通过调整感受视野进行力度更大的学习。

  5. 融合层

    融合层可以对切分层进行融合,也可以对不同大小的卷积核学习到的特征进行融合。

    例如在GoogleLeNet 中,使用多种分辨率的卷积核对目标特征进行学习,通过 padding 使得每一个 feature map 的长宽都一致,之后再将多个 feature map 在深度上拼接在一起:

    融合的方法有几种,一种是特征矩阵之间的拼接级联,另一种是在特征矩阵进行运算 (+,−,x,max,conv)。

  6. 全连接层和输出层

    全连接层主要对特征进行重新拟合,减少特征信息的丢失;输出层主要准备做好最后目标结果的输出。例如VGG的结构图,如下图所示:

  1. 典型的卷积神经网络

    卷积神经网络是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成。

    图:卷积神经网络的概念示范:输入图像通过和三个可训练的滤波器和可加偏置进行卷积,滤波过程如图一,卷积后在C1层产生三个特征映射图,然后特征映射图中每组的四个像素再进行求和,加权值,加偏置,通过一个Sigmoid函数得到三个S2层的特征映射图。这些映射图再进过滤波得到C3层。这个层级结构再和S2一样产生S4。最终,这些像素值被光栅化,并连接成一个向量输入到传统的神经网络,得到输出。

    每个层有多个Feature Map,每个Feature Map通过一种卷积滤波器提取输入的一种特征,然后每个Feature Map有多个神经元。

    CNN一个牛逼的地方就在于通过感受野和权值共享减少了神经网络需要训练的参数的个数,所谓权值共享就是同一个Feature Map中神经元权值共享,该Feature Map中的所有神经元使用同一个权值。因此参数个数与神经元的个数无关,只与卷积核的大小及Feature Map的个数相关。但是共有多少个连接个数就与神经元的个数相关了,神经元的个数也就是特征图的大小。

    1. LeNet-5模型
      1. LeNet-5各层参数及连接个数

    下面以最经典的LeNet-5例子来逐层分析各层的参数及连接个数。

    1. C1层是一个卷积层,

      个特征映射图feature map构成,每个feature map都有一个卷积核和共享权值矩阵。特征图中每个神经元与输入为5*5的领域相连。特征图的大小为28*28个可训练参数个特征映射图,也就是需要6个滤波器,所以共有个参数),个参数映射到的输入层)。

      显示了一输入层和感受视野卷积成下一层节点矩阵的其中一个节点的连接方式,即先使用输入层的一个5*5的区域与感受视野卷积,然后在加上偏置bias就得到了特征映射图feature map。

      图1 一个卷积节点的连接方式

      显示了卷积神经网络连接与矩阵卷积的对应关系:

      图2 卷积神经网络连接与矩阵卷积的对应关系

    2. S2层是一个下采样层(池化层),

      个14*14的特征图(为什么是14*14的特征图呢?因为特征图中的每个单元与C1中相对应特征图的2*2邻域相连接。个(6*(1个可训练+1个可训练偏置))个可训练参数和(14*14)*(2*2+1)*6=5880个连接。

      注意:可训练参数与连接不能混谈,连接与神经元和感受视野有关

      为一个下采样节点的连接方式:

      图3 一个下采样节点的连接方式

    3. C3层也是一个卷积层

      种不同的卷积核,所以就存在16个特征map了。    个或者几个特征的map组合而成点。

      1. 不完全的连接机制将连接的数量保持在合理的范围内。
      2. 也是最重要的,其破坏了网络的对称性。由于不同的特征有不同的输入,所以迫使他们抽取不同的特征(希望是互补的)。

      个特征图以S2中3个相邻的特征图子集为输入。接下来6个特征图以S2中4个相邻特征图子集为输入。然后的3个以不相邻的4个特征图子集为输入。最后一个将S2中所有特征图为输入。这样C3层有1516(6*(3*25+1)+6*(4*25+1)+3*(4*25+1)+(25*6+1)=1516)个可训练参数和151600

      (10*10*1516=151600)个连接。

      为一种卷积方式:

      个图相连的卷积结构

      这种不对称的组合连接的方式有利于提取多种组合特征

    4. S4层是一个下采样层,

      个5*5大小的特征图构成。特征图中的每个单元与C3中相应特征图的2*2邻域相连接,跟C1和S2之间的连接一样。S4层有32个可训练参数(每个特征图1个因子和一个偏置16*(1+1)=32)和2000(16*(2*2+1)*5*5=2000)个连接

    5. C5层是一个卷积层,

      个特征图。每个单元与S4层的全部16个单元的5*5邻域相连。由于S4层特征图的大小也为5*5(同滤波器一样),故C5特征图的大小为1*1(5-5+1=1):这构成了S4和C5之间的全连接。之所以仍将C5标示为卷积层而非全相联层,是因为如果LeNet-5的输入变大,而其他的保持不变,那么此时特征图的维数就会比1*1大。C5层有48120(120*(16*5*5+1)=48120由于与全部16个单元相连,故只加一个偏置)个可训练连接。

      为C5层的网络结构:

      图5 C5层的网络结构

    6. 个单元

      (84*(120*(1*1)+1)=10164)个可训练参数。如同经典神经网络,F6层计算输入向量和权重向量之间的点积,再加上一个偏置。然后将其传递给sigmoid函数产生单元i的一个状态。

      图6 编码的比特图

      F6层的连接方式

    7. 最后,输出层

      个输入。

      图:卷积和子采样过程:卷积过程包括:用一个可训练的滤波器fx去卷积一个输入的图像(第一阶段是输入的图像,后面的阶段就是卷积特征map了),然后加一个偏置bx,得到卷积层Cx。子采样过程包括:每邻域四个像素求和变为一个像素,然后通过标量Wx+1加权,再增加偏置bx+1,然后通过一个sigmoid激活函数,产生一个大概缩小四倍的特征映射图Sx+1。

    1. AlexNet模型
      1. 局限性

        年,Yann LeCun(现纽约大学教授)和他的同事们就发表了卷积神经网络(Convolution NeuralNetworks,简称CNN),在很长时间里,CNN虽然在小规模的问题上,如手写数字,取得过当时世界最好结果,但一直没有取得巨大成功。这主要原因是,CNN在大规模图像上效果不好,比如像素很多的自然图片内容理解上,所以没有得到计算机视觉领域的足够重视。

        这个惊人的结果为什么在之前没有发生?原因当然包括算法的提升,比如dropout等防止过拟合技术,但最重要的是,GPU带来的计算能力提升和更多的训练数据。

        ①首先,我们先回顾一下LeNet-5网络

        1. 维?
        2.  

    2. VGGNet模型
    3. GoogleNet模型
    4. ResNet模型
  2. Tensorflow代码

    代码后期贴!

  3. 详细解释CNN卷积网络各层的参数和链接个数的计算

本文转自https://www.leiphone.com/news/201705/HH3BbIfCqAtOAMbu.html

深度学习之卷积神经网络CNN及tensorflow代码实例的更多相关文章

  1. 深度学习之卷积神经网络CNN及tensorflow代码实现示例

    深度学习之卷积神经网络CNN及tensorflow代码实现示例 2017年05月01日 13:28:21 cxmscb 阅读数 151413更多 分类专栏: 机器学习 深度学习 机器学习   版权声明 ...

  2. 深度学习之卷积神经网络(CNN)的应用-验证码的生成与识别

    验证码的生成与识别 本文系作者原创,转载请注明出处:https://www.cnblogs.com/further-further-further/p/10755361.html 目录 1.验证码的制 ...

  3. 深度学习之卷积神经网络(CNN)详解与代码实现(一)

    卷积神经网络(CNN)详解与代码实现 本文系作者原创,转载请注明出处:https://www.cnblogs.com/further-further-further/p/10430073.html 目 ...

  4. 深度学习之卷积神经网络CNN

    转自:https://blog.csdn.net/cxmscb/article/details/71023576 一.CNN的引入 在人工的全连接神经网络中,每相邻两层之间的每个神经元之间都是有边相连 ...

  5. 深度学习之卷积神经网络(CNN)详解与代码实现(二)

    用Tensorflow实现卷积神经网络(CNN) 本文系作者原创,转载请注明出处:https://www.cnblogs.com/further-further-further/p/10737065. ...

  6. 【转载】 深度学习之卷积神经网络(CNN)详解与代码实现(一)

    原文地址: https://www.cnblogs.com/further-further-further/p/10430073.html ------------------------------ ...

  7. 【神经网络与深度学习】卷积神经网络(CNN)

    [神经网络与深度学习]卷积神经网络(CNN) 标签:[神经网络与深度学习] 实际上前面已经发布过一次,但是这次重新复习了一下,决定再发博一次. 说明:以后的总结,还应该以我的认识进行总结,这样比较符合 ...

  8. 深度学习之卷积神经网络(CNN)

    卷积神经网络(CNN)因为在图像识别任务中大放异彩,而广为人知,近几年卷积神经网络在文本处理中也有了比较好的应用.我用TextCnn来做文本分类的任务,相比TextRnn,训练速度要快非常多,准确性也 ...

  9. TensorFlow 深度学习笔记 卷积神经网络

    Convolutional Networks 转载请注明作者:梦里风林 Github工程地址:https://github.com/ahangchen/GDLnotes 欢迎star,有问题可以到Is ...

随机推荐

  1. QuickText for Notepad++

    昨刚投入新欢Notepad++,思路如泉涌,码代码也不累了,一口气用她码了两篇文- 今再接再厉,继续.QuickText严格说来算不上什么神器级插件,也仅只是一个缩写快捷输入的插件而已.可用得好,那效 ...

  2. iOS笔试题04

    1. Object-C有多继承吗?没有的话用什么代替?
 1> OC是单继承,没有多继承 2> 有时可以用分类category和协议protocol来代替多继承 2. Object-C有私 ...

  3. 【c# 学习笔记】多态

    由于可以继承基类的所有成员,子类就都有了相同的行为,但是有时子类的某些行为需要相互区别,子类需要覆写父类中的方法来实现子类特有的行为,这样 的技术在面向对象的编程中就是多态. 多态即相同类型的对象调用 ...

  4. golang web框架 beego 学习 (五) 配置文件

    app.conf: appname = gowebProject httpport = runmode = dev copyrequestbody = true [db] host= localhos ...

  5. 【VS开发】【数据库开发】windows下libevent x64库静态编译

    按照libevent的文档,使用VC的nmake -f Makefile.nmake即可编译32位release模式.因为项目中要求编译64位的版本,需要在Makefile.nmake中添加一个LIB ...

  6. C#实现动态发布IIS站点帮助类

    准备工作: 1.引用 System.DirectoryServices 系统程序集 2.引用 Microsoft.Web.Administration 程序集,类库位置在 C:\Windows\Sys ...

  7. Python 实现二分查找(递归版)

    二分查找 为什么使用二分查找: python中的列表,一般取值为遍历这个列表,直到取到你想要的值,但是如果你的列表是一个有着百万元素的列表呢,那样for循环遍历列表就会很慢,可能会循环几十万次,才能找 ...

  8. linux shell `符号详解

    linux shell `符号详解 <pre>[root@iZ23uewresmZ arjianghu]# echo `ls`asss.html common guaji.php imag ...

  9. python线程信号量semaphore(33)

    通过前面对 线程互斥锁lock /  线程事件event / 线程条件变量condition / 线程定时器timer 的讲解,相信你对线程threading模块已经有了一定的了解,同时执行多个线程的 ...

  10. python线程互斥锁Lock(29)

    在前一篇文章 python线程创建和传参 中我们介绍了关于python线程的一些简单函数使用和线程的参数传递,使用多线程可以同时执行多个任务,提高开发效率,但是在实际开发中往往我们会碰到线程同步问题, ...