theano 模块 MLP示例,有需要的朋友可以参考下。

theano教程
Example: MLP:

约定数组为列向量,

层级:
将多层传感器定义为一连串的层级,每个层级定义为一个类。类属性包括:权重、偏差矢量、以及计算这一层输出的函数。
如果不使用Theano,我们可能希望输出函数会接收一个向量并返回图层的激活来响应输入。然而在Theano中输出函数反而是为了创造能够接收向量并返回图层激活的函数而创建的。因此我们要创建一个在类外部计算图层的激活。
Layer类:neural network 的一层用于计算非线性误差s = Wx+b 。其中x就是输入的向量。

  1. class Layer(object):
  2. def __init__(self,W_init,b_init,activation):
  3. '''
  4. W_init 是需要初始化的权重矩阵的值 (n_output,n_input)
  5. b_init 是需要初始化的偏差向量的值 (n_output,)
  6. activation 是图层激活函数
  7. '''
  8. #基于W的初始化来获得输入和输出的维度
  9. n_output,n_input = W_init.shape
  10. #确定b是output的大小
  11. assert b_init.shape == (n_output,)
  12. #所有参数都应该是共享变量,在类里用于计算图层的输出。但在优化网络参数时在类外更新。
  13. #W_init 必须设置为 theano.config.floatX 字符类型。
  14. self.W = theano.shared(value = W._init.astype(theano.config.floatX),
  15. #name 参数是专门用来打印 purporses
  16. name = 'w',
  17. #将borrow 设置为 True 来允许 theano 为对象使用用户的内存,可以避免对结构的深拷贝来使编码的速度快一点。
  18. borrow = True,
  19. #theano 与numpy类似,允许广播,但是要明确的标示出需要被广播的坐标轴。通过设置 boardcastable = (False,True),来表示b能够沿着它的第二维广播,以便将他添加到其他变量。
  20. broadcastable = (False,True))
  21. self.activation = activation
  22. #计算关于列表中参数的网络成本的梯度。
  23. self.params = [self.W,self.b]
  24.  
  25. def ouput(self,x):
  26. '''
  27. 参数:
  28. - x : theano.tensor.var.TensorVariable
  29. 图层输入的 theano 符号变量
  30.  
  31. 返回:
  32. - output : theano.tensor.var.TensorVariable
  33. 混合的,有误差的,激活的 x
  34. '''
  35. #计算线性组合
  36. lin_output = T.dot(self.W,x) + self.b
  37. #如果缺少激活函数,那么返回的仅仅只是线性组合
  38. #调用激活函数
  39. return(lin_output if self.activation is None else self.activation(lin_output))

MLP类:大多数多层传感器的功能包含在 Layer 类中,MLP 类本质上是 Layer对象列表和相关的参数的容器。输出函数递归的计算每一图层的输出。squared_error:被给定输入的网络的输出和期望之间的欧氏距离的平方。这个函数的作用是估算建立在训练数据集上的最小成本。
综上,squared_error函数 和output 并不作为最终结果,相反,他们被用来计算得出最终结果。

  1. class MLP(object):
  2. def __init__(self,W_init,b_init,activations):
  3. '''
  4. Multi-layer perceprton class 用来计算图层序列的组成部分。
  5. :参数
  6. - W_init : list of np.ndarray, len=N
  7. 参数的值初始化为每一层的权重值
  8. 图层的大小应从 W_init 的 shape 属性中推断出
  9. - b_init : list of np.ndarray, len=N
  10. 参数的值初始化为每一层的偏差向量
  11. - activations : list of theano.tensor.elemwise.Elemwise, len=N
  12. Activation function for layer output for each layer
  13. '''
  14. #确保输入列表的元素都是相同的大小
  15. assert len(W_init) == len(b_init) == len(activations)
  16.  
  17. #初始化图层列表
  18. self.layers = []
  19. #创建图层创建图层
  20. for W , b , activation in zip (W_init,b_init,activations):
  21. self.layers.append(Layer(W,b,activation))
  22.  
  23. #从所有的图层中合并参数
  24. self.params = []
  25. for layer in self.layers:
  26. self.params += layer.params
  27.  
  28. def output(self,x):
  29. '''
  30. :parameters:
  31. - x : theano.tensor.var.TensorVariable
  32. 图层输入的 theano 符号变量
  33.  
  34. :returns:
  35. - output : theano.tensor.var.TensorVariable
  36. 通过 MLP 的 x
  37.  
  38. '''
  39. #递归计算输出
  40. for layer in self.layers:
  41. x = layer.output(x)
  42. return x
  43.  
  44. def squared_error(self,x,y):
  45. '''
  46. 计算网络的输出相对与期望的欧几里得误差的平方
  47.  
  48. :parameters:
  49. - x : theano.tensor.var.TensorVariable
  50. 网络输入的 theano 的符号变量
  51. - y : theano.tensor.var.TensorVariable
  52. 网络输出期望的 theano 的符号变量
  53.  
  54. :returns:
  55. - error : theano.tensor.var.TensorVariable
  56. x 和 y 之间的欧式误差的平方
  57. '''
  58.  
  59. return T.sum((self.output(x) - y) ** 2)

梯度下降法:为了训练网络, 需要对训练数据集使用梯度下降法来降低成本(网络输出相对于期望的欧式误差的平方)。做神经网络的梯度下降法时, 常用方法是 momentum (动量), 也就是对参数更新进行有漏积分 : 在更新参数时, 计算当前梯度更新和之前的梯度更新的线性组合. 这往往使得网络在一个相对好的结果上更快的收敛,同时能够帮助避免成本函数中的局部极小值. 使用传统的梯度下降法你能够保证在每次迭代过程中降低成本. 当我们使用 momentum 时没有这个保证, 但在一般情况下,momentum 通常为这种改良提供了足够小的成本。

在 theano 中,我们把之前的更新储存为一个共享变量,因此它的值能在迭代过程中被保留. 于是, 在梯度更新中, 我么不仅仅只更新参数, 也同时更新之前的参数更新得到共享变量。

  1. def gradient_updates_momentum(cost,params,learning_rate,momentum):
  2. '''
  3. 利用 momentum 计算梯度下降的更新
  4.  
  5. :parameters:
  6. - cost : theano.tensor.var.TensorVariable
  7. Theano cost function to minimize
  8. - params : list of theano.tensor.var.TensorVariable
  9. Parameters to compute gradient against
  10. - learning_rate : float
  11. Gradient descent learning rate
  12. - momentum : float
  13. Momentum parameter, should be at least 0 (standard gradient descent) and less than 1
  14.  
  15. :returns:
  16. updates : list
  17. List of updates, one for each parameter
  18. '''
  19. #确保 momentum 是一个 合理的值
  20. assert momentum >0 and momentum <1
  21. #每个参数的更新步骤列表
  22. updates = []
  23. #对成本应用梯度下降
  24. for param in params:
  25. #为每个参数创建一个共享变量 param_update
  26. #这个变量会在迭代过程中持续跟踪参数的更新步骤
  27. #param_update 初始化为0
  28. param_update = theano.shared(param.get_value()*0.,broadcastable = param.broadcastable)
  29. #每个参数沿梯度方向移动一步完成更新。
  30. #但是我们也根据给定的 momentum 的值“混入”之前的步骤
  31. #所以,在更新 param_update 时,需要的变量是:前一步的 momentum 的值和新的梯度步骤
  32. updates.append(param,param - learning_rate*param_update)
  33. #我们不需要推导计算更新的反向传播算法,用 T.grad 即可。
  34. updates.append((param_update , momentum*param_update+(1.-momentum)*T.grad(cost,param)))
  35. return updates

theano 模块 MLP示例的更多相关文章

  1. 为Lua5.3编写C模块简单示例

    为Lua5.3编写C模块简单示例 一.编译安装Lua5.3 MSVC 命令行安装脚本: @echo off md bin md lib md include cd src cl /c /nologo ...

  2. Ansible VMware模块使用示例

    vmware_vm_facts模块使用示例 执行条件: 安装Pyvmimo:  pip install pyvmomi 方法一,直接编写单个yaml文件: - hosts: localhost # 注 ...

  3. python中hashlib模块用法示例

    python中hashlib模块用法示例 我们以前介绍过一篇Python加密的文章:Python 加密的实例详解.今天我们看看python中hashlib模块用法示例,具体如下. hashlib ha ...

  4. UIPullRefreshFlash模块demo示例

    UIPullRefreshFlash 模块概述:UIPullRefreshFlash模块对引擎新推出的下拉刷新接口进行了一层封装,app可以通过此模块来实现带炫酷动画效果的下拉刷新功能.使用此模块,在 ...

  5. Python tesserocr模块使用示例

    操作系统:Win10 1709  X64 python版本:3.6.5 依赖模块:PIL.tesserocr. 需要说明的是,在windows系统上PowerShell通过PIP3 install t ...

  6. pythondifflib模块讲解示例

    版权声明:本文为博主原创文章,未经博主允许不得转载. https://blog.csdn.net/Lockey23/article/details/77913855 difflib模块提供的类和方法用 ...

  7. python强大的绘图模块matplotlib示例讲解

    Matplotlib 是 Python 的绘图库.作为程序员,经常需要进行绘图,在我自己的工作中,如果需要绘图,一般都是将数据导入到excel中,然后通过excel生成图表,这样操作起来还是比较繁琐的 ...

  8. python中的 uuid 模块使用示例

    此模块提供不可变的 UUID 对象 (类 uuid) 和函数uuid1().uuid3().uuid4().uuid5(), 用于生成在 RFC 4122 中指定版本1.3.4和5UUIDs .如果你 ...

  9. Redis模块开发示例

    实现一个Redis module,支持两个扩展命令: 1) 可同时对hash的多个field进行incr操作: 2) incrby同时设置一个key的过期时间 在没有module之前,需要借助eval ...

随机推荐

  1. SP1716 GSS3

    题意翻译 \(n\) 个数,\(q\) 次操作 操作\(0\) \(x\) \(y\)把\(A_x\) 修改为\(y\) 操作\(1\) \(l\) \(r\)询问区间\([l, r]\)的最大子段和 ...

  2. java怎样防止内存溢出

    引起内存溢出的原因有很多种,小编列举一下常见的有以下几种: 1.内存中加载的数据量过于庞大,如一次从数据库取出过多数据:2.集合类中有对对象的引用,使用完后未清空,使得JVM不能回收:3.代码中存在死 ...

  3. Luogu P1967 货车运输 倍增+最大生成树

    看见某大佬在做,决定补一发题解$qwq$ 首先跑出最大生成树(注意有可能不连通),然后我们要求的就是树上两点间路径上的最小边权. 我们用倍增的思路跑出来$w[u][j]$,表示$u$与的它$2^j$的 ...

  4. UVA - 12333 Revenge of Fibonacci 高精度加法 + 字典树

    题目:给定一个长度为40的数字,问其是否在前100000项fibonacci数的前缀 因为是前缀,容易想到字典树,同时因为数字的长度只有40,所以我们只要把fib数的前40位加入字典树即可.这里主要讨 ...

  5. Java面向对象_包装类访问修饰符

    在java中有一个设计的原则"一切皆对象",java中的基本数据类型就完全不符合这种设计思想,因为八种基本数据类型并不是引用数据类型,所以java中为了解决这样的问题,jdk1.5 ...

  6. Srping MVC中Controller的void方法

    第一种 通过修改response来修改页面 /** * 方式一:通过声明HttpServletResponse类型的方法入参,来使用HttpServletResponse对象. * 注意:在Contr ...

  7. Elasticsearch在后台启动

    Elasticsearch在linux下使用命令sh elasticsearch start,按键ctrl+c的时候程序就会stop掉,如何将程序在后台启动呢? 需要使用:./elasticsearc ...

  8. [Freemarker] 在Java中简单实现对Freemarker的引用

    Demo目录结构 ├─src │ ├─main │ │ ├─java │ │ │ └─demo │ │ │ └─freemarker │ │ │ ├─main │ │ │ │ Test.java │ ...

  9. C#---vs2010发布、打包安装程序程序(转载)

    转载地址:点击打开 1. 在vs2010 选择“新建项目”→“ 其他项目类型”→“ Visual Studio Installer→“安装项目”: 命名为:Setup1 . 这是在VS2010中将有三 ...

  10. form表单上传域(type="file")的使用----上传文件

    一,单个文件的上传 1.html/jsp页面 <%@ page language="java" contentType="text/html; charset=UT ...