Theano 学习笔记(一)

theano
  1. 为什么要定义共享变量?

    定义共享变量的原因在于GPU的使用,如果不定义共享的话,那么当GPU调用这些变量时,遇到一次就要调用一次,这样就会花费大量时间在数据存取上,导致使用GPU代码运行很慢,甚至比仅用CPU还慢。

  2. 共享变量的类型必须为floatX

    因为GPU要求在floatX上操作,所以所有的共享变量都要声明为floatX类型

  1. shared_x = theano.shared(numpy.asarray(data_x, dtype=theano.config.floatX)) 


  2. self.A = theano.shared(name = "A", value = E.astype(theano.config.floatX)) 

  1. 创建tensor variables

    在创建变量时可以给变量命名,命名能够加快debugging的过程,所有的构造器中都有name参数供命名,下面三种创建变量的方式都是创建一个整型的标量,命名为‘myvar’

  1. x = scalar('myvar',dtype='int32') 

  2. x = iscalar('myvar') 

  3. x = TensorType(dtype = 'int32', broadcastable=())('myvar') 

典型构造器

  1. theano.tensor.scalar(name=None,dtype=config.floatX) 

  2. theano.tensor.vector(name=None,dtype=config.floatX) 

  3. theano.tensor.row(name=None, dtype=config.floatX) 

  4. theano.tensor.col(name=None,dtype=config.floatX) 

  5. theano.tensor.matrix(name=None,dtype=config.floatX) 

  6. theano.tensor.tensor3(name=None,dtype=config.floatX) #3D张量 

  7. theano.tensot.tensor4(name=None,dtype=config.floatX) #4D张量 

导入的命名空间 from theano.tensor import *

  1. 创建新的Tensor Type

  1. dtensor5 = TensorType('float64',(False,)*5) 

  2. x=dtensor5() 

  3. z=dtensor5('z') 

  1. Theano requires that the inputs to all expressions be Variable instances, so Theano automatically wraps them in a TensorConstant. Thus, when you use a numpy ndarray or a python number together with TensorVariable instances in arithmetic expressions, the result is a TensorVariable.

  2. broadcastable

    这个东西是一个布尔有元素组成的元组,比如[False,True,False]等

    broadcastable 一方面指定了类型的大小,另一方面也指定了那个维度上size只能为1(True,表示对应维度上长度只能为1,matlab: size(A,broadcasrable(i)==True)=1)

  1. [] scalar 

  2. [True] 1D scalar (vector of length 1) 

  3. [True, True] 2D scalar (1x1 matrix) 

  4. [False] vector 

  5. [False, False] matrix 

  6. [False] * n nD tensor 

  7. [True, False] row (1xN matrix) 

  8. [False, True] column (Mx1 matrix) 

  9. [False, True, False] A Mx1xP tensor (a) 

  10. [True, False, False] A 1xNxP tensor (b) 

  11. [False, False, False] A MxNxP tensor (pattern of a + b) 

For dimensions in which broadcasting is False, the length of this dimension can be 1 or more.

For dimension in which broadcasting is True, the length of this dimension must be 1.

另外,broadcastable,顾名思义,与传播运算有关,当两个维度不同的参数进行元素运算时,broadcastable pattern 可以通过在tuple的左侧填充True,凑齐维度。

比如 a vector's pattern [False],可以扩展成 [True, False]; a matrix pattern [False,False]可以扩展成 [True, False,False]

然后对应的True维度上就可以broad了

这样学起来实在是太慢了。。。。。。。。。。。

总觉得python乱,还是读代码吧,边读边学。。。

  1. import theano 

  2. import theano.tensor as T 

  3. x=T.matrix('x') 

  4. s=1/(1+t.exp(-x)) 

  5. logistic = theano.function([x],s) 

  6. logistic([[1,2,3],[4,3,0.5]]) 

结果

1479475790674.jpg

学到的点:

  • 声明符号变量x,名称为'x',这个我们也说了主要是为了GPU调度方便

  • +,-,*,/,包括exp等函数都是元素操作的

  • logistic相当于一个函数句柄,这个函数的输入是x,输出是s, x到s的关系根据前面定义可得

  1. import theano 

  2. import theano.tensor as T 

  3. a,b=T.matrices('a','b') 

  4. diff = a-b 

  5. abs_diff = abs(diff) 

  6. diff_squared = diff**2 

  7. f = theano.function([a,b],[diff,abs_diff,diff_squared]) 

点:

  • theano 可以定义多输入多输出,类似的matlab代码

  1. function [diff,abs_diff,diff_squared]=f(a,b) 

  2. ... 

  3. end 

  • matrices 是同时声明参数个数个变量,类似的还有scalars,vectors等

  1. f([[1,2,3],[2,1,1]]) 

输出结果

1479476360558.jpg

可以看到输出的是个tuple,正对应输出指定变量

  1. import theano 

  2. import theano.tensor as T 

  3. from theano import In 

  4. x,y = T.scalars('x','y') 

  5. z=x+y 

  6. f= theano.function([x,In(y,value=1)],z) 

  7. f(2) 

  8. f(2,5) 

输出结果

1479476766052.jpg

新知识点:

  • In 这个类能够更详细的指定函数的参数,比如默认值。 函数中给定默认值的参数应该放在没给定默认值参数的后面,c++也这样。

  • In 还能够重新给参数命名,这样就能够使函数输入,假设2-4个输入是有默认值的,但我2,3想使用默认值,第4个不想使用默认值时,不用对2,3赋值了,比如

  1. x,y,w= T.scalars('x','y','w') 

  2. z=(x+y)*w 

  3. f=T.function([x,In(y,value=1),In(w,value=2,name='w_byname')],z) 

那么f(33,1,5)和f(33,w_by_name=5)结果时一样的

这里为什么w已经有名字'w'了,还要再定义名字呢?

主要是由于In并不知道局部变量x,y,w的名字,函数输入参数其实就是一个字典,keyword是scalar默认的姓名属性,这里In是重写了参数的keyword

  1. from theano import shared 

  2. from theano import In 

  3. import theano 

  4. import theano.tensor as T 

  5. state = shared(0) 

  6. inc = T.scalar('inc') 

  7. accumular = function([inc],state,update=[(state,state+inc)]) 

新知识点:

  • shared 这个函数声明的是一个符号和变量的结合体,也就说他直接赋值了,内部有一定的值参与运算。另外之所以称为shared是因为这个量是可以多个函数共享的,有点像c++里面的静态变量,在一个函数里面修改了这个量,后面使用这个量的函数就是在新的值上运算了。

    shared变量可以通过.set_value()和.get_value()设置和读取状态值

  • updates是一个list量,他的元素是(shared_variable,new expression)对,有点像字典,每次对keyword对应的值更新,注意

    这里是先返回的state,再进行的state=state+inc,看下面的代码结果

1479478877749.jpg
  1. >>> fn_of_state = state * 2 + inc 

  2. >>> # The type of foo must match the shared variable we are replacing 

  3. >>> # with the ``givens`` 

  4. >>> foo = T.scalar(dtype=state.dtype) 

  5. >>> skip_shared = function([inc, foo], fn_of_state, givens=[(state, foo)]) 

  6. >>> skip_shared(1, 3) # we're using 3 for the state, not state.value 

  7. array(7) 

  8. >>> print(state.get_value()) # old state still there, but we didn't use it 



知识点:

  • 这个蛮有意思的,就是说我现在有个函数,函数里面的计算牵涉到state变量,但是我不想使用state当前的值,那么我就可以使用function的givens参数另一个值暂且替代state

    看上面这个代码,我使用state表示的fn_of_state,但是计算时不想使用当前state的值,而是使用3,于是使用givens令新变量foo替代state占的位置,所以得到的结果fn_of_state=foo*2+inc=7

    而state.get_value()值仍然为state的原先值,这里是0

  • 这里的givens不仅仅可以适用于shared,还可以适用于任意的symbolic variable,要注意的是在givens的list里面替代的量要相互独立,要不然就不知道怎么替代了

  • shared变量默认的是broadcastable=False,所以要想使用broadcasrable pattern,需要特别指定,如

    theano.shared(...,broadcastable=(True,False))

1

Theano 学习笔记(一)的更多相关文章

  1. IMPLEMENTING A GRU/LSTM RNN WITH PYTHON AND THEANO - 学习笔记

    catalogue . 引言 . LSTM NETWORKS . LSTM 的变体 . GRUs (Gated Recurrent Units) . IMPLEMENTATION GRUs 0. 引言 ...

  2. Theano学习笔记(二)——逻辑回归函数解析

    有了前面的准备,能够用Theano实现一个逻辑回归程序.逻辑回归是典型的有监督学习. 为了形象.这里我们如果分类任务是区分人与狗的照片. 首先是生成随机数对象 importnumpy importth ...

  3. Theano学习笔记(三)——图结构

    图结构(Graph Structures)这是理解Theano该基金会的内部运作. Theano编程的核心是用符号占位符把数学关系表示出来. 图结构的组成部分 如图实现了这段代码: importthe ...

  4. Theano学习笔记(一)——代数

    标量相加 import theano.tensor as T from theano import function x = T.dscalar('x') y = T.dscalar('y') z = ...

  5. Theano学习笔记(四)——导数

    导数使用T.grad计算. 这里使用pp()打印梯度的符号表达式. 第3行输出是打印了经过优化器简化的符号梯度表达式,与第1个输出相比确实简单多了. fill((x** TensorConstant{ ...

  6. Theano学习笔记:Theano的艰辛安装体验

    http://www.cnblogs.com/hanahimi/p/4127026.html

  7. Caffe学习笔记2--Ubuntu 14.04 64bit 安装Caffe(GPU版本)

    0.检查配置 1. VMWare上运行的Ubuntu,并不能支持真实的GPU(除了特定版本的VMWare和特定的GPU,要求条件严格,所以我在VMWare上搭建好了Caffe环境后,又重新在Windo ...

  8. 学习笔记︱Nvidia DIGITS网页版深度学习框架——深度学习版SPSS

    DIGITS: Deep Learning GPU Training System1,是由英伟达(NVIDIA)公司开发的第一个交互式深度学习GPU训练系统.目的在于整合现有的Deep Learnin ...

  9. Keras学习笔记——Hello Keras

    最近几年,随着AlphaGo的崛起,深度学习开始出现在各个领域,比如无人车.图像识别.物体检测.推荐系统.语音识别.聊天问答等等.因此具备深度学习的知识并能应用实践,已经成为很多开发者包括博主本人的下 ...

随机推荐

  1. js中bind,call,apply方法的应用

    最近用js的类写东西,发现一个无比蛋疼的事,那就是封装的类方法中的this指针经常会改变指向,失去上下文,导致程序错误或崩溃. 比如: function Obj(){ this.type = &quo ...

  2. nubia Z5 mini 小牛 黑砖qhsusb dload修复

    给手机分区,用了分区助手,将一些分区移动. 结果分区坏了,只有两三个分区在电脑显示,当时晕菜把数据线拔了重插. 手机变砖,不能启动,黑屏,不能进recovery... 参考 http://bbs.nu ...

  3. jQuery学习之prop和attr的区别示例介绍

    1..prop( propertyName ) 获取匹配集合中第一个元素的Property的值 2. .prop( propertyName, value ) .prop( map ) .prop( ...

  4. MySQL中的常用工具

    一.mysql 客户端连接工具 二.myisampack MyISAM表压缩工具 三.mysqladmin MySQL管理工具 四.mysqlbinlog 日志管理工具 五.mysqlcheck My ...

  5. PageRank的java实现

    一个网络(有向带权图)中节点u的PageRank的计算公式: PR(u)表示节点u的PageRank值,d为衰减因子(damping factor)或阻尼系数,一般取d=0.85,N为网络中的节点总数 ...

  6. powershell批量设置权限

    批量设置权限 $acl=get-acl .\demo Get-ChildItem .\Documents -Recurse -Force|Set-Acl -AclObject $acl

  7. Windows 网络通讯开发

    Windows 网络通讯开发 一.Windows网络开发API 由于C++标准库中没有网络库,所以进行网络开发的时候要调用系统API.Windows通讯开发API包括以下几个基本函数及成员类型: 1. ...

  8. NPA——.NET Persistence API

    你可曾听说过JPA. 有JPA那么就一定有NPA. 软件架构的路上一定少不了这个名词. —————————————————————————————————————————————— P Persist ...

  9. iOS常用第三方开源框架和优秀开发者博客等

    博客收藏iOS开发过程好的开源框架.开源项目.Xcode工具插件.Mac软件.文章等,会不断更新维护,希望对你们有帮助.如果有推荐或者建议,请到此处提交推荐或者联系我. 该文档已提交GitHub,点击 ...

  10. UILabel 的一个蛋疼问题

    一.问题描述 在iOS8以下版本,numberOfLines设置为0,编译警告Automatic Preferred Max Layout Width before iOS8.0,同时不能换行. 二. ...