9.1  代价函数

9.2  反向传播算法

9.3  反向传播算法的直观理解

9.4  实现注意:展开参数

9.5  梯度检验

9.6  随机初始化

9.7  综合起来

9.8  自主驾驶


9.1  代价函数

首先引入一些便于稍后讨论的新标记方法:

假设神经网络的训练样本有 m 个,每个包含一组输入 x 和一组输出信号 y,L 表示神经网络层数,

表示每层的 neuron 个数,SL 表示输出层神经元个数

将神经网络的分类定义为两种情况:二类分类和多类分类,

二类分类:=1, y=0 or 1 表示哪一类;

K 类分类:=K,  = 1 表示分到第 i 类;(K>2)

前几集课知道逻辑回归的代价函数为:

在逻辑回归中,只有一个输出变量,也只有一个因变量 y,但是在神经网络中,可以有很多输出变量,是一个维度为 K 的向量(K种结果),并且训练集中的因变量也是同样维度的一个向量,因此代价函数会比逻辑回归复杂一些,但同理:

通过代价函数可以观察算法预测的结果与真实情况的误差有多大,唯一不同的是,对于每一行特征,都会有 K 个预测。

后半部分那一项只是排除了每一层 θ0 后,每一层的 Θ 矩阵的和。最里层的循环 j 循环 所有的行(由 sl +1 层单元数决定),循环 i 则循环所有的列,由该层(sl 层单元数所决定)。最外层循环表示了:hθ(x)与真实值之间的距离为每个样本-每个类输出的加和。


 9.2  反向传播算法

之前在计算神经网络预测结果的时候采用了一种正向传播法 。现在,为了计算代价函数的权重偏导数,需要采用一种反向传播算法,首先计算最后一层的误差,然后再一层一层反向求出各层的误差,直到倒数第二层。

例如假设我们的训练集只有一个实例(x(1),y(1)),我们的神经网络是一个四层的神经网络, 其中 K=4,SL=4,L=4:

前向传播算法:

从最后一层的误差开始计算,误差是激活单元的预测与实际值之间 的误差,(k=1~K)。

用 δ 来表示误差,则:

利用这个误差值来计算前一层的误差:其中是 S 形函数的导数,。而则是权重导致的误差的和。

下一步是根据这个公式继续计算第二层的误差:

按照这种方法计算前面每一层的误差。

因为第一层是输入变量,不存在误差。所以有了所有的误差的表达式后,便可以计算代价函数权重的偏导数了。

l  代表目前所计算的是第几层

j  代表目前计算层中的激活单元的下标,也将是下一层的第 j 个输入变量的下标。

i 代表下一层中误差单元的下标,是受到权重矩阵中第 i 行影响的下一层中的误差单元 的下标。

我们需要计算每一层的误差单元来计算代价函数的偏导数,但是当然需要为整个训练集计算误差单元,此时的误差单元是一个矩阵,我们用

来表示这个误差矩阵。第 l 层的第 i 个激活单元受到第 j个参数影响而导致的误差。 算法表示为:

即首先用正向传播方法计算出每一层的激活单元,利用训练集的结果与神经网络预测的 结果求出最后一层的误差,然后利用该误差运用反向传播法计算出直至第二层的所有误差。

在求出了之后,我们便可以计算代价函数的偏导数了,计算方法如下:

 

在 Octave 中,如果要使用 fminuc 这样的优化算法来求解求出权重矩阵,需要首先将矩阵展开成为向量,再利用算法求出最优解后再重新转换回矩阵。

假设有三个权重矩阵,Theta1,Theta2  和 Theta3,尺寸分别为 10*11,10*11  和1*11,下面的代码可以实现这样的转换:

thetaVec = [Theta1(:) ; Theta2(:) ; Theta3(:)]

...optimization using functions like fminuc...

Theta1 = reshape(thetaVec(1:110, 10, 11);

Theta2 = reshape(thetaVec(111:220, 10, 11);

Theta1 = reshape(thetaVec(221:231, 1, 11);


9.3  反向传播算法的直观理解

在上一段视频中介绍了反向传播算法,对很多人来说当第一次看到这种算法时, 第一印象通常是,这个算法需要那么多繁杂的步骤,实在不知道这些步骤, 到底应该如何合在一起使用。就好像一个黑箱,里面充满了复杂的步骤。如果你对反向传播算法也有这种感受的话,这其实是正常的,相比于线性回归算法和逻辑回归算法而言,从数学的角度上讲,反向传播算法似乎并不简洁,对于反向传播这种算法,其实我已经使用了很多年了,但即便如此,即使是现在,我也经常感觉自己对反向传播算法的理解并不是十分深 入,对于反向传播算法究竟是如何执行的,并没有一个很直观的理解。

在这段视频中,我想更加深入地讨论一下反向传播算法的这些复杂的步骤,并且希望给 你一个更加全面直观的感受,理解这些步骤究竟是在做什么。

为了更好地理解反向传播算法,我们再来仔细研究一下前向传播的原理:

前向传播算法:

(每个激活单元都有多个输入一个输出,然后这个输出会转变成下一个单元的输入z->a,z是权重Θ与输入a相乘元素组成的向量)

反向传播算法做的是:

(最后一层(第一层)的误差是,每层第一个单元没有误差不加入计算,第二层第二个单元误差是 输出误差与该单元到输出单元比重的乘积,第二层第三个单元误差同理,第二个单元同理)。第三层第三个单元的误差为

最后两个式子说明了:神经网络单元误差是代价函数对该单元Z的偏导结果

一组特征下代价函数的组成


9.4  实现注意:展开参数

     在这段视频中,将介绍一个细节的实现过程,怎样把你的参数从矩阵展开成向量,以便在高级最优化步骤中的使用需要。


9.5  梯度检验

当对一个较为复杂的模型(例如神经网络)使用梯度下降算法时,可能会存在一些 不容易察觉的错误,意味着,虽然代价看上去在不断减小,但最终的结果可能并不是最优解。为了避免这样的问题,我们采取一种叫做梯度的数值检验(Numerical Gradient Checking) 方法。这种方法的思想是通过估计梯度值来检验计算的导数值是否真的是我们要求的。

对梯度的估计采用的方法是在代价函数上沿着切线的方向选择离两个非常近的点然后 计算两个点的平均值用以估计梯度。即对于某个特定的 θ,我们计算出在 θ-ε 处和 θ+ε 的代价值(ε 是一个非常小的值,通常选取 0.001),然后求两个代价的平均,用以估计在 θ 处的代价值。

Octave  中代码如下:

gradApprox = (J(theta + eps) – J(theta - eps)) / (2*eps)

当 θ 是一个向量时,则需要对偏导数进行检验。因为代价函数的偏导数检验只针对一个参数的改变进行检验,下面是一个只针对 θ1 进行检验的示例:

最后我们还需要对通过反向传播方法计算出的偏导数进行检验。 根据上面的算法,计算出的偏导数存储在矩阵中。

检验时,要将该矩阵展开成为向量,同时我们也将 Θ 矩阵展开为向量,针对每一个 θ 都计算一个近似的梯度值, 将这些值存储于一个近似梯度矩阵中,最终将得出的这个矩阵同Θ 矩阵进行比较。

(=)


9.6  随机初始化

任何优化算法都需要一些初始的参数。到目前为止我们都是初始所有参数为 0,这样的 初始方法对于逻辑回归来说是可行的,但是对于神经网络来说是不可行的。如果我们令所有 的初始参数都为 0,这将意味着我们第二层的所有激活单元都会有相同的值。同理,如果我们初始所有的参数都为一个非 0 的数,结果也是一样的。

通常初始参数为正负 ε 之间的随机值,假设要随机初始一个尺寸为 10×11 的 参数矩阵,代码如下:

Theta1 = rand(10, 11) * (2*eps) – eps


9.7  综合起来

小结一下使用神经网络时的步骤:

网络结构:第一件要做的事是选择网络结构,即决定选择多少层以及决定每层分别有多少个单元。

第一层的单元数即训练集的特征数量。 最后一层的单元数是训练集的结果的类的数量。

如果隐藏层数大于 1,确保每个隐藏层的单元个数相同,通常情况下隐藏层单元的个数 越多越好。

我们真正要决定的是隐藏层的层数和每个中间层的单元数。

训练神经网络:

1. 参数的随机初始化 OK

2. 利用正向传播方法计算所有的 hθ(x) OK

3. 编写计算代价函数 J 的代码 OK

4. 利用反向传播方法计算所有偏导数 OK

5. 利用数值检验方法检验这些偏导数 OK

6. 使用优化算法来最小化代价函数 OK


9.8  自主驾驶

在这段视频中,介绍了一个具有历史意义的神经网络学习的重要例子。那就是使用神经网络来实现自动驾驶,也就是说使汽车通过学习来自己驾驶。在这部分视频中,你就会明白可视化技术到底是什么?在看这段视频之前,Ng会告诉你可视化技术是什么。 在下面也就是左下方,就是汽车所看到的前方的路况图像。

在图中依稀能看出一条道路,朝左延伸了一点,又向右了一点,然后上面的这幅图, 可以看到一条水平的菜单栏显示的是驾驶操作人选择的方向,就是这条白亮的区段显示的就是人类驾驶者选择的方向。比如:最左边的区段,对应的操作就是向左急转,而最右端则对应向右急转的操作。因此,稍微靠左的区段,也就是中心稍微向左一点的位置,则表示在这一点上人类驾驶者的操作是慢慢的向左拐。

幅图的第二部分亮条对应的就是学习算法选出的行驶方向。并且,类似的,这一条白亮的区段显示的就是神经网络在这里选择的行驶方向,是稍微的左转,并且实际上在神经网络开始学习之前,你会看到网络的输出是一条灰色的区段,就像这样的一条灰色区段覆盖着整个区域这些均称的灰色区域,显示出神经网络已经随机初始化了。只有在学习算法运行了足够长的时间之后,才会有这条白色的区段出现在整条灰色区域之中。显示出一个具体的行驶方向这就表示神经网络算法,在这时候已经选出了一个明确的行驶方向,不像刚开始的时候,输出一段 模糊的浅灰色区域,而是输出一条白亮的区段,表示已经选出了明确的行驶方向。

ALVINN (Autonomous Land Vehicle In a Neural Network)是一个基于神经网络的智能系统, 通过观察人类的驾驶来学习驾驶,ALVINN 能够控制 NavLab,装在一辆改装版军用悍马,这辆悍马装载了传感器、计算机和驱动器用来进行自动驾驶的导航试验。实现 ALVINN 功能的 第一步,是对它进行训练,也就是训练一个人驾驶汽车。

然后让 ALVINN 观看,ALVINN 每两秒将前方的路况图生成一张数字化图片,并且记录驾驶者的驾驶方向,得到的训练集图片被压缩为 30x32 像素,并且作为输入提供给 ALVINN 的三层神经网络,通过使用反向传播学习算法,ALVINN 会训练得到一个与人类驾驶员操纵方 向基本相近的结果。一开始,我们的网络选择出的方向是随机的,大约经过两分钟的训练后, 我们的神经网络便能够准确地模拟人类驾驶者的驾驶方向,对其他道路类型,也重复进行这 个训练过程,当网络被训练完成后,操作者就可按下运行按钮,车辆便开始行驶了。

每秒钟 ALVINN 生成 12 次数字化图片,并且将图像传送给神经网络进行训练,多个神经网络同时工作,每一个网络都生成一个行驶方向,以及一个预测自信度的参数,预测自信度最高的那个神经网络得到的行驶方向。比如这里,在这条单行道上训练出的网络将被最终用 于控制车辆方向,车辆前方突然出现了一个交叉十字路口,当车辆到达这个十字路口时,单行道网络对应的自信度骤减,当它穿过这个十字路口时,前方的双车道将进入其视线, 双车道网络的自信度便开始上升,当它的自信度上升时,双车道的网络将被选择来控制行驶方向,车辆将被安全地引导进入双车道路。

这就是基于神经网络的自动驾驶技术。当然,我们还有很多更加先进的试验来实现自动 驾驶技术。在美国,欧洲等一些国家和地区,他们提供了一些比这个方法更加稳定的驾驶控制技术。但我认为,使用这样一个简单的基于反向传播的神经网络,训练出如此强大的自动 驾驶汽车,的确是一次令人惊讶的成就。

 
 
 
 
 

Ng第九课:神经网络的学习(Neural Networks: Learning)的更多相关文章

  1. Stanford机器学习---第五讲. 神经网络的学习 Neural Networks learning

    原文 http://blog.csdn.net/abcjennifer/article/details/7758797 本栏目(Machine learning)包括单参数的线性回归.多参数的线性回归 ...

  2. 神经网络的学习 Neural Networks learing

    1.一些基本符号 2.COST函数 ================Backpropagation Algorithm============= 1.要计算的东西 2.向前传递向量图,但为了计算上图的 ...

  3. (原创)Stanford Machine Learning (by Andrew NG) --- (week 5) Neural Networks Learning

    本栏目内容来自Andrew NG老师的公开课:https://class.coursera.org/ml/class/index 一般而言, 人工神经网络与经典计算方法相比并非优越, 只有当常规方法解 ...

  4. 循环神经网络(RNN, Recurrent Neural Networks)介绍(转载)

    循环神经网络(RNN, Recurrent Neural Networks)介绍    这篇文章很多内容是参考:http://www.wildml.com/2015/09/recurrent-neur ...

  5. 第十四章——循环神经网络(Recurrent Neural Networks)(第二部分)

    本章共两部分,这是第二部分: 第十四章--循环神经网络(Recurrent Neural Networks)(第一部分) 第十四章--循环神经网络(Recurrent Neural Networks) ...

  6. 循环神经网络(RNN, Recurrent Neural Networks)介绍

    原文地址: http://blog.csdn.net/heyongluoyao8/article/details/48636251# 循环神经网络(RNN, Recurrent Neural Netw ...

  7. 第十四章——循环神经网络(Recurrent Neural Networks)(第一部分)

    由于本章过长,分为两个部分,这是第一部分. 这几年提到RNN,一般指Recurrent Neural Networks,至于翻译成循环神经网络还是递归神经网络都可以.wiki上面把Recurrent ...

  8. Machine Learning - 第5周(Neural Networks: Learning)

    The Neural Network is one of the most powerful learning algorithms (when a linear classifier doesn't ...

  9. 《转》循环神经网络(RNN, Recurrent Neural Networks)学习笔记:基础理论

    转自 http://blog.csdn.net/xingzhedai/article/details/53144126 更多参考:http://blog.csdn.net/mafeiyu80/arti ...

随机推荐

  1. rviz1

    msckf_vio ####查看topic列表:wj@wj-Inspiron-5437:~$ rostopic list/benchmark_publisher/path/cam0/image_raw ...

  2. thinkphp装修平台源码

    每日签到微擎微赞自助授权中心站长工具(new)☜=每日新帖=微信开发手册VIP优惠活动 开启辅助访问切换到宽版 用户名 自动登录  找回密码 密码 登录  立即注册 只需一步,快速开始 首页 微鱼商业 ...

  3. 为什么说windows会死机,Linux不会死机

    通常所说的死机是指操作没有响应了,但是操作系统的核心仍然在工作.在windows中,由于只有一个界面,没有响应就是死机了:而在Linux中可有tty1-tty7,死了一个开另外一个把死了的那个杀掉就可 ...

  4. (转)拉姆达表达式(Lambda Expressions) =>写法的涵义

      lambdaclass编译器 让我们先看一个简单的拉姆达表达式: x=>x/2 这个表达式的意思是:x为参数,对x进行相应的操作后的结果作为返回值. 通过这个拉姆达表达式,我们可以看到: 这 ...

  5. andorid 练习微信登陆

    AndroidManifest.xml layout1.xml <?xml version="1.0" encoding="utf-8"?> < ...

  6. Numpy array 合并

    1.np.vstack() :垂直合并 >>> import numpy as np >>> A = np.array([1,1,1]) >>> ...

  7. BZOJ1977或洛谷4180 [BJWC2010]次小生成树

    一道LCA+生成树 BZOJ原题链接 洛谷原题链接 细节挺多,我调了半天..累炸.. 回到正题,我们先求出随便一棵最小生成树(设边权和为\(s\)),然后扫描剩下所有边,设扫到的边的两端点为\(x,y ...

  8. Rime小狼毫个人配置文件

    default.custom.yaml customization: distribution_code_name: Weasel distribution_version: 0.9.30 gener ...

  9. CentOS 7.0 安装配置LAMP服务器方法(Apache+PHP+MariaDB)(转)

    转自:http://www.jb51.net/os/188488.html 作者:佚名 字体:[增加 减小] 来源:osyunwei  准备篇: CentOS 7.0系统安装配置图解教程 http:/ ...

  10. PHP去除重复的数组数据

    PHP去除重复的数组数据 <?php $input = array("a" => "green","", "red&q ...