Theano 学习笔记(一)

theano
  1. 为什么要定义共享变量?

    定义共享变量的原因在于GPU的使用,如果不定义共享的话,那么当GPU调用这些变量时,遇到一次就要调用一次,这样就会花费大量时间在数据存取上,导致使用GPU代码运行很慢,甚至比仅用CPU还慢。

  2. 共享变量的类型必须为floatX

    因为GPU要求在floatX上操作,所以所有的共享变量都要声明为floatX类型

  1. shared_x = theano.shared(numpy.asarray(data_x, dtype=theano.config.floatX)) 


  2. self.A = theano.shared(name = "A", value = E.astype(theano.config.floatX)) 

  1. 创建tensor variables

    在创建变量时可以给变量命名,命名能够加快debugging的过程,所有的构造器中都有name参数供命名,下面三种创建变量的方式都是创建一个整型的标量,命名为‘myvar’

  1. x = scalar('myvar',dtype='int32') 

  2. x = iscalar('myvar') 

  3. x = TensorType(dtype = 'int32', broadcastable=())('myvar') 

典型构造器

  1. theano.tensor.scalar(name=None,dtype=config.floatX) 

  2. theano.tensor.vector(name=None,dtype=config.floatX) 

  3. theano.tensor.row(name=None, dtype=config.floatX) 

  4. theano.tensor.col(name=None,dtype=config.floatX) 

  5. theano.tensor.matrix(name=None,dtype=config.floatX) 

  6. theano.tensor.tensor3(name=None,dtype=config.floatX) #3D张量 

  7. theano.tensot.tensor4(name=None,dtype=config.floatX) #4D张量 

导入的命名空间 from theano.tensor import *

  1. 创建新的Tensor Type

  1. dtensor5 = TensorType('float64',(False,)*5) 

  2. x=dtensor5() 

  3. z=dtensor5('z') 

  1. Theano requires that the inputs to all expressions be Variable instances, so Theano automatically wraps them in a TensorConstant. Thus, when you use a numpy ndarray or a python number together with TensorVariable instances in arithmetic expressions, the result is a TensorVariable.

  2. broadcastable

    这个东西是一个布尔有元素组成的元组,比如[False,True,False]等

    broadcastable 一方面指定了类型的大小,另一方面也指定了那个维度上size只能为1(True,表示对应维度上长度只能为1,matlab: size(A,broadcasrable(i)==True)=1)

  1. [] scalar 

  2. [True] 1D scalar (vector of length 1) 

  3. [True, True] 2D scalar (1x1 matrix) 

  4. [False] vector 

  5. [False, False] matrix 

  6. [False] * n nD tensor 

  7. [True, False] row (1xN matrix) 

  8. [False, True] column (Mx1 matrix) 

  9. [False, True, False] A Mx1xP tensor (a) 

  10. [True, False, False] A 1xNxP tensor (b) 

  11. [False, False, False] A MxNxP tensor (pattern of a + b) 

For dimensions in which broadcasting is False, the length of this dimension can be 1 or more.

For dimension in which broadcasting is True, the length of this dimension must be 1.

另外,broadcastable,顾名思义,与传播运算有关,当两个维度不同的参数进行元素运算时,broadcastable pattern 可以通过在tuple的左侧填充True,凑齐维度。

比如 a vector's pattern [False],可以扩展成 [True, False]; a matrix pattern [False,False]可以扩展成 [True, False,False]

然后对应的True维度上就可以broad了

这样学起来实在是太慢了。。。。。。。。。。。

总觉得python乱,还是读代码吧,边读边学。。。

  1. import theano 

  2. import theano.tensor as T 

  3. x=T.matrix('x') 

  4. s=1/(1+t.exp(-x)) 

  5. logistic = theano.function([x],s) 

  6. logistic([[1,2,3],[4,3,0.5]]) 

结果

1479475790674.jpg

学到的点:

  • 声明符号变量x,名称为'x',这个我们也说了主要是为了GPU调度方便

  • +,-,*,/,包括exp等函数都是元素操作的

  • logistic相当于一个函数句柄,这个函数的输入是x,输出是s, x到s的关系根据前面定义可得

  1. import theano 

  2. import theano.tensor as T 

  3. a,b=T.matrices('a','b') 

  4. diff = a-b 

  5. abs_diff = abs(diff) 

  6. diff_squared = diff**2 

  7. f = theano.function([a,b],[diff,abs_diff,diff_squared]) 

点:

  • theano 可以定义多输入多输出,类似的matlab代码

  1. function [diff,abs_diff,diff_squared]=f(a,b) 

  2. ... 

  3. end 

  • matrices 是同时声明参数个数个变量,类似的还有scalars,vectors等

  1. f([[1,2,3],[2,1,1]]) 

输出结果

1479476360558.jpg

可以看到输出的是个tuple,正对应输出指定变量

  1. import theano 

  2. import theano.tensor as T 

  3. from theano import In 

  4. x,y = T.scalars('x','y') 

  5. z=x+y 

  6. f= theano.function([x,In(y,value=1)],z) 

  7. f(2) 

  8. f(2,5) 

输出结果

1479476766052.jpg

新知识点:

  • In 这个类能够更详细的指定函数的参数,比如默认值。 函数中给定默认值的参数应该放在没给定默认值参数的后面,c++也这样。

  • In 还能够重新给参数命名,这样就能够使函数输入,假设2-4个输入是有默认值的,但我2,3想使用默认值,第4个不想使用默认值时,不用对2,3赋值了,比如

  1. x,y,w= T.scalars('x','y','w') 

  2. z=(x+y)*w 

  3. f=T.function([x,In(y,value=1),In(w,value=2,name='w_byname')],z) 

那么f(33,1,5)和f(33,w_by_name=5)结果时一样的

这里为什么w已经有名字'w'了,还要再定义名字呢?

主要是由于In并不知道局部变量x,y,w的名字,函数输入参数其实就是一个字典,keyword是scalar默认的姓名属性,这里In是重写了参数的keyword

  1. from theano import shared 

  2. from theano import In 

  3. import theano 

  4. import theano.tensor as T 

  5. state = shared(0) 

  6. inc = T.scalar('inc') 

  7. accumular = function([inc],state,update=[(state,state+inc)]) 

新知识点:

  • shared 这个函数声明的是一个符号和变量的结合体,也就说他直接赋值了,内部有一定的值参与运算。另外之所以称为shared是因为这个量是可以多个函数共享的,有点像c++里面的静态变量,在一个函数里面修改了这个量,后面使用这个量的函数就是在新的值上运算了。

    shared变量可以通过.set_value()和.get_value()设置和读取状态值

  • updates是一个list量,他的元素是(shared_variable,new expression)对,有点像字典,每次对keyword对应的值更新,注意

    这里是先返回的state,再进行的state=state+inc,看下面的代码结果

1479478877749.jpg
  1. >>> fn_of_state = state * 2 + inc 

  2. >>> # The type of foo must match the shared variable we are replacing 

  3. >>> # with the ``givens`` 

  4. >>> foo = T.scalar(dtype=state.dtype) 

  5. >>> skip_shared = function([inc, foo], fn_of_state, givens=[(state, foo)]) 

  6. >>> skip_shared(1, 3) # we're using 3 for the state, not state.value 

  7. array(7) 

  8. >>> print(state.get_value()) # old state still there, but we didn't use it 



知识点:

  • 这个蛮有意思的,就是说我现在有个函数,函数里面的计算牵涉到state变量,但是我不想使用state当前的值,那么我就可以使用function的givens参数另一个值暂且替代state

    看上面这个代码,我使用state表示的fn_of_state,但是计算时不想使用当前state的值,而是使用3,于是使用givens令新变量foo替代state占的位置,所以得到的结果fn_of_state=foo*2+inc=7

    而state.get_value()值仍然为state的原先值,这里是0

  • 这里的givens不仅仅可以适用于shared,还可以适用于任意的symbolic variable,要注意的是在givens的list里面替代的量要相互独立,要不然就不知道怎么替代了

  • shared变量默认的是broadcastable=False,所以要想使用broadcasrable pattern,需要特别指定,如

    theano.shared(...,broadcastable=(True,False))

1

Theano 学习笔记(一)的更多相关文章

  1. IMPLEMENTING A GRU/LSTM RNN WITH PYTHON AND THEANO - 学习笔记

    catalogue . 引言 . LSTM NETWORKS . LSTM 的变体 . GRUs (Gated Recurrent Units) . IMPLEMENTATION GRUs 0. 引言 ...

  2. Theano学习笔记(二)——逻辑回归函数解析

    有了前面的准备,能够用Theano实现一个逻辑回归程序.逻辑回归是典型的有监督学习. 为了形象.这里我们如果分类任务是区分人与狗的照片. 首先是生成随机数对象 importnumpy importth ...

  3. Theano学习笔记(三)——图结构

    图结构(Graph Structures)这是理解Theano该基金会的内部运作. Theano编程的核心是用符号占位符把数学关系表示出来. 图结构的组成部分 如图实现了这段代码: importthe ...

  4. Theano学习笔记(一)——代数

    标量相加 import theano.tensor as T from theano import function x = T.dscalar('x') y = T.dscalar('y') z = ...

  5. Theano学习笔记(四)——导数

    导数使用T.grad计算. 这里使用pp()打印梯度的符号表达式. 第3行输出是打印了经过优化器简化的符号梯度表达式,与第1个输出相比确实简单多了. fill((x** TensorConstant{ ...

  6. Theano学习笔记:Theano的艰辛安装体验

    http://www.cnblogs.com/hanahimi/p/4127026.html

  7. Caffe学习笔记2--Ubuntu 14.04 64bit 安装Caffe(GPU版本)

    0.检查配置 1. VMWare上运行的Ubuntu,并不能支持真实的GPU(除了特定版本的VMWare和特定的GPU,要求条件严格,所以我在VMWare上搭建好了Caffe环境后,又重新在Windo ...

  8. 学习笔记︱Nvidia DIGITS网页版深度学习框架——深度学习版SPSS

    DIGITS: Deep Learning GPU Training System1,是由英伟达(NVIDIA)公司开发的第一个交互式深度学习GPU训练系统.目的在于整合现有的Deep Learnin ...

  9. Keras学习笔记——Hello Keras

    最近几年,随着AlphaGo的崛起,深度学习开始出现在各个领域,比如无人车.图像识别.物体检测.推荐系统.语音识别.聊天问答等等.因此具备深度学习的知识并能应用实践,已经成为很多开发者包括博主本人的下 ...

随机推荐

  1. web加密的基本概念

    1.需求 了解web加密的一些基础概念. 2.基本概念 a.对称加密方式 对称加密方式 加密和解密用同一个密钥 不足之处是,交易双方都使用同样钥匙,安全性得不到保证.此外,每对用户每次使用对称加密算法 ...

  2. angular开发单页面应用--页面资源部分

    关于angular是什么,能够干什么就不在这里解释了,自行搜索了,或者等稍晚一点再解释... angular适合开发单页面应用,这句话在介绍angular的网站和博客里都可以提到.因为angular是 ...

  3. Mantis搭建步骤

    (1)安装EeasyPHP (2)解压Mantis到EeasyPHP内www目录下 (3)将PHP复制到www目录下 并修改apache下httpd.conf及php.ini两个文件的php配置目录 ...

  4. 基于webapi的移动互联架构

    又到了一年最后一次上班了,写下这篇日志作为本年总结. 首先总体介绍一下项目背景,今年公司开发了一款app,本人一个人负责app的接口服务.微信开放平台搭建以及系统后台,上线半年,如今活跃用户数3W+. ...

  5. Cookie, LocalStorage 与 SessionStorage

    Cookie, LocalStorage 与 SessionStorage相同点 都是储存在用户本地的数据. 意义在于避免数据在浏览器和服务器间不必要地来回传递. 三者的特点     同属于html5 ...

  6. Mac 使用Sublime Text 3 搭建C开发环境

    Sublime Text 3  (安装包,注册码 ,汉化包) 1)工具-编译系统-新建编译器 { "cmd" : ["gcc -o ${file_base_name} $ ...

  7. Mysql学习笔记(附一)

    关于外键约束关系下修改或者删除表的方法: http://wenku.baidu.com/link?url=RRaI160kvsdf7ibMLqxN815RvStSyenz_-ig1ONfpRfpfFp ...

  8. xtrabackup 使用说明(续)

    背景: 关于物理备份工具xtrabackup的一些说明可以先看之前写过的文章说明:xtrabackup 安装使用.现在xtrabackup版本升级到了2.4.4,相比之前的2.1有了比较大的变化:in ...

  9. Java中的堆栈区别

    在函数中定义的一些基本类型的变量和对象的引用变量都在函数的栈内存中分配. 当在一段代码块定义一个变量时,Java就在栈中为这个变量分配内存空间,当超过变量的作用域后,Java会自动释放掉为该变量所分配 ...

  10. android adb 命令详解

    ADB (Android Debug Bridge)  是android SDK中的工具,需要先配置环境变量才能使用.起调试桥的作用,可以管理安卓设备.(也叫debug工具) ---------查看设 ...