tensorflow中的tensor表示一种数据结构,而flow则表现为一种计算模型,两者合起来就是通过计算图的形式来进行计算表述,其每个计算都是计算图上的一个节点,节点间的边表示了计算之间的依赖关系。一般的tensorflow程序分为两个阶段,在第一阶段定义计算图需要的变量,第二个阶段定义计算模型,最后通过执行计算来得到运行结果。

import tensorflow as tf

1、常数及矩阵

m1=tf.constant([[3.,3.]])     #产生两行一列的矩阵(创建一个常量tensor)
m2=tf.constant([[3.],[3.]]) #产生两列一行的矩阵
result=tf.matmul(m1,m2) #矩阵相乘
sess=tf.Session()
sess.run(result) #运行选中节点并返回值
sess.close() #关闭会话
#其中sess=tf.session()和sess=tf.InteractiveSession()区别在于后者便于交互式,后者倾向于运算前提交整个计算图
tf.ones(shape=[2,2]) #维度为shape的全为1的矩阵
tf.zeros(shape=[3,3]) #维度为shape的全为0的矩阵
tf.constant([3.0, 3.0]) #产生常量列表,可sess.run()
tf.random_normal(shape=[2,2],stddev=2) #产生正态分布随机数,stddev为标准差
tf.random_uniform(shape=[2,2],minval=0,maxval=None) #产生均匀分布随机数,最小为...,最大为...
tf.fill([2,3],9) #对矩阵内容以9来填充
x=tf.constant([[1.,2.],[3.,4.]])
sess.run(tf.reduce_mean(x)) #reduce_mean 返回均值,若tf.reduce_mean(x,0)则返回第一行的均值,参数0改为1则返回第二行均值
x=tf.Variable([1.0, 2.0]) #创建变量列表(定义一个变量),不可直接sess.run() 
test=np.array([[1, 2, 3], [2, 3, 4], [5, 4, 3], [8, 7, 2]]) 
tf.argmax(test,0) #返回每一列最大项所在位置
tf.argmax(test,1) #返回每一行最大项所在位置
tf.cast(a,tf.float32) #将变量a转换为指定格式(tf.float32)
tf.group(a1,a2)
tf.shape(a) #返回a的维度
tf.reshape(a,[5,1]) #将a的维度转为[5,1]
#若a=[[[1, 1, 1],[2, 2, 2]],[[3, 3, 3],[4, 4, 4]],[[5, 5, 5],[6, 6, 6]]]
tf.reshape(a,[-1,9]) #则返回[[1, 1, 1, 2, 2, 2, 3, 3, 3], [4, 4, 4, 5, 5, 5, 6, 6, 6]]
tf.reshaoe(a,[2,-1]) #则返回[[1, 1, 1, 2, 2, 2, 3, 3, 3], [4, 4, 4, 5, 5, 5, 6, 6, 6]] 这里和上面的-1含义不需要我们指定维度的大小,函数会自动计算,但列表里只能有1个-1
tf.equal(a,b) #判断a和b是否相同,相同则返回True,否则返回False
tf.sqrt(x) # 对x开根号
tf.square(x) # x的平方
a=tf.constant([1,2,3])
b=tf.constant([4,5,6])
c=tf.stack([a,b],axis=0) #将a和b按照0轴合并
d=tf.unstack(c,axis=0) #将c按照0轴进行拆分
A=np.array([[1,2,3],[4,5,6]])
tf.transpose(A,[1,0]) #将A的0维和1维进行交换,也相当于转置
B=np.array([[[1,2,3],[4,5,6]]])
tf.transpose(B, [2,1,0]) #将B的0维、1维、1维进行替换,替换顺序从原来的[0,1,2]转换成[2,1,0],在该例中也就是第一维和第三维进行转换
tf.decode_raw(image,tf.uint8) #将tf.decode_raw可以将字符串转换成uint8的张量,其中tf.uint8为无符号整型,tf.int8为有符号整型

2、变量

#或者这样定义变量
w=np.array([[1,1,1],[2,2,2],[3,3,3]])
x=tf.Variable(initial_value=w) #先通过np定义,后导入tf
init=tf.global_variables_initializer() #变量定义完后,显式地执行所有变量初始化操作才可进行下一步
with tf.Session() as sess:
sess.run(init)
print(sess.run(x))
w_2 = tf.get_variable(name="w_1",initializer=2) #定义变量w_1,初始化为2
sess.run(x.initializer)    #变量定义后也可以选择单个变量初始化,然而若需要初始化的变量过多,则选择上面的init=tf.global_variables_initializer()来进行初始化
sess.run(x) #继上再sess.run()
tf.get_variable(shape=[2,2],name='xiaoli') #判断是否存在该变量名,若存在则调用该变量,若不存在则创建名为name的变量
bias = tf.get_variable("bias", shape=[2,2],initializer=tf.zeros_initializer()) #变量初始化填补,以1来填充
tf.Variable(tf.random_normal(shape=[5,5],stddev=1),name='zhangsan') #创建初始变量
tf.Variable(tf.ones(3,3),name='cccc')
tf.Variable(tf.constant([1,2,3]),name='cccc')
a=tf.Variable(0,dtype=tf.float32)
tf.assign(a,2) #将2赋值给a
b=tf.assign_add(a,2) #将a的值加上2并将结果赋值给b
a=tf.Variable(tf.constant([1,2],shape=[1,2]),dtype=tf.int32) #在Variable步骤初始化a并设置a的维度
a=tf.Variable([1])
a.dtype() #返回tensor的数据类型
a.name #返回a的名称
a.graph #返回该tensor所在的图
a.op #返回产生该tensor的op
a.get_shape() #返回该tensor的shape
a.set_shape() #更新tensor的shape
a.device #设置计算该tensor的设备
a=tf.get_variable(name='a',shape=[1,2],initializer=tf.constant_initializer([1,2]))
tf.get_variable_scope().reuse_variables() #该操作使得tf.get_variable()变量可以重复构建
a=tf.get_variable(name='a',shape=[1,2],initializer=tf.constant_initializer([1,2]))

3、占位符

x=tf.placeholder(tf.float32,shape=[5,5])        #先占位置
y=tf.matmul(x,x)
with tf.Session() as sess:
a=np.random.rand(5,5)
print(sess.run(y,feed_dict={x:a})) #后通过sess.run()里的feed_dict进行填充

4、加减法和乘法

例1:

x=tf.Variable(tf.ones(shape=[3,3]))
y=tf.Variable(tf.ones(shape=[3,3]))
z=tf.matmul(x,y) #乘法
z=tf.add(x,y) #加法
z=tf.subtract(x,y) #减法
init=tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
print(sess.run(z))

例2:

a=tf.placeholder(tf.int16)
b=tf.placeholder(tf.int16)
c=tf.add(a,b)
with tf.Session() as sess:
print(sess.run(c,feed_dict={a:2,b:3}))

 5、tensor的连接及操作

a=[[1,1,1,1],[2,2,2,2],[3,3,3,3],[4,4,4,4]]
b1=tf.shape(a)
b2=tf.size(a)
b3=tf.reshape(a,[2,-1])
with tf.Session() as sess:
print(sess.run(b1)) #获取维度
print(sess.run(b2)) #获取size
print(sess.run(b3)) #将原数据进行维度转换 t1 = [[1, 2, 3], [4, 5, 6]]
t2 = [[7, 8, 9], [10, 11, 12]]
with tf.Session() as sess:
print(sess.run(tf.concat([t1,t2],0))) #将t1和t2按照行合并,参数设置为0
print(sess.run(tf.concat([t1,t2],1))) #将t1和t2按照列合并,参数设置为1

 6、出现重复变量后的variable_scope()和name_scope()区别

(1)这里分别以name_scope()和variable_scope()的两个例子为例:
with tf.name_scope('name1'):
var1=tf.Variable(name='var1',initial_value=[2],dtype=tf.float32)
var2=tf.Variable(name='var1',initial_value=[2.2],dtype=tf.float32)
var3=tf.Variable(name='var1',initial_value=[2.3],dtype=tf.float32)
with tf.Session() as sess:
init=tf.global_variables_initializer()
sess.run(init)
print(var1.name) #输出name1/var1:0
print(sess.run(var1)) #输出[ 2.]
print(var2.name) #输出name1/var1_1:0
print(sess.run(var2)) #输出[ 2.20000005]
print(var3.name) #输出name1/var1_2:0
print(sess.run(var3)) #输出[ 2.29999995]
从上述结果可以发现,通过tf.name_scope()区域下,虽然变量重复定义,但其实生成了不同的变量名
with tf.variable_scope('bar') as scope:
initializer=tf.constant_initializer(value=3)
var3=tf.get_variable(name='var3',shape=[1],initializer=initializer)
scope.reuse_variables()
var4=tf.get_variable(name='var3')
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print(var3.name) #输出bar/var3:0
print(sess.run(var3)) #输出[ 3.]
print(var4.name) #输出bar/var3:0
print(sess.run(var4)) #输出[ 3.]

对于重复命名的变量,通过scope.reuse_variables()来处理

(2)重复命名的变量的又一个例子(这次通过在variable_scope里增加参数reuse=True来重复提取变量)

import tensorflow as tf
with tf.variable_scope('layer1') as scope:
weights=tf.get_variable('weight',[2,2],initializer=tf.constant_initializer(1.))
x=tf.constant([1.,2.,1.,2.],shape=[2,2])
layer1=tf.nn.relu(tf.matmul(x,weights))
with tf.variable_scope('layer1',reuse=True):
weights=tf.get_variable('weight') #tf.get_variable用于判断是否存在相同命名的变量,有则返回该变量,相反的tf.Variable用于每次都能创建新的变量
x=tf.constant([3.,3.,3.,3.],shape=[2,2])
layer2=tf.nn.relu(tf.matmul(x,weights))
sess=tf.Session()
init=tf.global_variables_initializer()
sess.run(init)
sess.run(layer1)
sess.run(layer2)

7、group和tuple的使用

w = tf.Variable(1)
mul = tf.multiply(w, 2)
add = tf.add(w, 2)
group = tf.group(mul, add) #group返回的是operation
tuple = tf.tuple([mul, add]) #tuple返回的是tensor(张量)
sess=tf.Session()
sess.run(w.initializer)
sess.run(group) #不输出值
sess.run(tuple) #返回的是mul和add的计算结果

 8、session.run和tensor.eval区别

参考来源:http://blog.csdn.net/zcf1784266476/article/details/70259676

假若有一个tensor,那么t.eval()等价于tf.get_default_session().run(t)

相比于t.eval,sess.run()可以一次获得多个tensor中的值,以如下为例:

t = tf.constant(42.0)
u = tf.constant(37.0)
tu = tf.multiply(t, u)
ut = tf.multiply(u, t)
init=tf.global_variables_initializer()
with sess.as_default():
sess.run(init)
print(tu.eval()) # runs one step
print(ut.eval()) # runs one step
print(sess.run([tu, ut]))

 9、tf.reduce_mean()和tf.expand_dims()

tf.trainable_variables()    #返回所有当前计算图中,在获取变量时未被标记trainable=False的变量集合
#设x为[[1.,2.],[3.,4.]]
tf.reduce_mean(x) #返回2.5
tf.reduce_mean(x,0) #返回[2.,3.],计算每列的均值
tf.reduce_mean(x,1) #返回[1.5,3.5],计算每行的均值
# 't' is a tensor of shape [2]
tf.shape(tf.expand_dims(t, 0)) ==> [1, 2]
tf.shape(tf.expand_dims(t, 1)) ==> [2, 1]
tf.shape(tf.expand_dims(t, -1)) ==> [2, 1]
# 't2' is a tensor of shape [2, 3, 5]
tf.shape(tf.expand_dims(t2, 0)) ==> [1, 2, 3, 5]
tf.shape(tf.expand_dims(t2, 2)) ==> [2, 3, 1, 5]
tf.shape(tf.expand_dims(t2, 3)) ==> [2, 3, 5, 1]

 10、tf.train.global_step

首先构建变量来放global_step的值,trainable要设置为False,这样传播的时候就不会修改global_step的值。

tf.train.global_step()用来获取当前sess的global_step值。

建立global_step的过程如下:

global_step=tf.Variable(0,trainable=False,name='global_step')
global_step=tf.get_variable('global_step',[],initializer=tf.constant_initializer(0),trainable=False)

若是使用minimize,则将global_step作为参数传入minimize

global_step = tf.Variable(0,trainable=False)
increment_op = tf.assign_add(global_step,tf.constant(1))
sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)
for step in range(0,10):
  ....
print(sess.run(increment_op)) #返回1 2 3 4 5 6 7 8 9 10
increase = tf.Variable(0, trainable=False, name='global_step')
for _ in range(10):
increase=tf.assign_add(increase,tf.constant(1))
sess = tf.Session()
init=tf.global_variables_initializer()
sess.run(init)
print('global_step: %s' % tf.train.global_step(sess, increase))

 11、tf.slice() 取切片

import numpy as np
x=np.arange(24).reshape([2,3,4])
begin_x=[1,0,0]
size_x=[1,2,3] #分别表示从begin_x开始,在各维度取多少个元素
out=tf.slice(x,begin_x,size_x)
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print(sess.run(out))

tensorflow函数介绍(1)的更多相关文章

  1. tensorflow函数介绍(4)

    1.队列的实现: import tensorflow as tf q=tf.FIFOQueue(2,'int32') #创建一个先进先出队列,指定队列中最多可以保存两个元素,并指定类型为整数. #先进 ...

  2. tensorflow函数介绍(3)

    tf.nn.softmax_cross_entropy_with_logits(logits,labels) #其中logits为神经网络最后一层输出,labels为实际的标签,该函数返回经过soft ...

  3. tensorflow函数介绍(2)

    参考:tensorflow书 1.模型的导出: import tensorflow as tf v1=tf.Variable(tf.constant(2.0),name="v1") ...

  4. tensorflow函数介绍 (5)

    1.tf.ConfigProto tf.ConfigProto一般用在创建session的时候,用来对session进行参数配置: with tf.Session(config=tf.ConfigPr ...

  5. Tensorflow | 基本函数介绍 简单详细的教程。 有用, 很棒

     http://blog.csdn.net/xxzhangx/article/details/54606040 Tensorflow | 基本函数介绍 2017-01-18 23:04 1404人阅读 ...

  6. python strip()函数 介绍

    python strip()函数 介绍,需要的朋友可以参考一下   函数原型 声明:s为字符串,rm为要删除的字符序列 s.strip(rm)        删除s字符串中开头.结尾处,位于 rm删除 ...

  7. PHP ob_start() 函数介绍

    ob_start() 函数介绍: http://www.nowamagic.net/php/php_ObStart.php ob_start()作用: http://zhidao.baidu.com/ ...

  8. Python开发【第三章】:Python函数介绍

    一. 函数介绍 1.函数是什么? 在学习函数之前,一直遵循面向过程编程,即根据业务逻辑从上到下实现功能,其往往用一长段代码来实现指定功能,开发过程中最常见的操作就是粘贴复制,也就是将之前实现的代码块复 ...

  9. row_number() OVER(PARTITION BY)函数介绍

      OVER(PARTITION BY)函数介绍 开窗函数               Oracle从8.1.6开始提供分析函数,分析函数用于计算基于组的某种聚合值,它和聚合函数的不同之处是:对于每个 ...

随机推荐

  1. vue双向数据绑定v-model

    1.双向数据绑定 <input v-model="msg" /> <template> <div id="app"> < ...

  2. ORA-01578: ORACLE 数据块损坏 (文件号 10, 块号 57896)ORA-01110: 数据文件 10: '/data/oradata/prod35.dbf'

    https://community.oracle.com/thread/3540795 概述 ------------- 数据库坏块(corruption) 的类型可以按照坏块所属对象的不同,分为用户 ...

  3. MySql 5.7.20 绿色版安装

    MySql 5.7.20 绿色版安装 一.MySql 安装 1.从官网下载绿色压缩包. 2.解压安装文件到指定目录 3.创建配置文件 my.ini 到解压文件的根目录,my.ini 配置文件如下,需将 ...

  4. leetcode 235. 二叉搜索树的最近公共祖先(c++)

    给定一个二叉搜索树, 找到该树中两个指定节点的最近公共祖先. 百度百科中最近公共祖先的定义为:“对于有根树 T 的两个结点 p.q,最近公共祖先表示为一个结点 x,满足 x 是 p.q 的祖先且 x ...

  5. 关于Vue+iview的简单下拉框滚动加载

    话不多说,直接上代码,作用是下拉框内容无限滚动加载: Html: <FormItem style="position:relative" label="用户名:&q ...

  6. Mac010--IDEA安装及应用

    Mac--IDEA安装及应用 应用IDEA,首先确保已安装如下环境: JDK:JDK是整个java开发的核心,它包含了JAVA的运行环境,JAVA工具和JAVA基础的类库(安装 & 配置环境变 ...

  7. 关于VMWare的几种网络模式

    具体的可以参考这个博文:http://zhenyaliu.blog.163.com/blog/static/2377571920103775447527/

  8. Day7-----Python的序列类(有子类:元组类,列表类)

    序列类型 1.基本介绍: 序列类型是一种基类类型  ,既然被称为那就肯定是有道理的,关于序列 它有  正向  和  反向  两种序号,正向序号从零开始,反向序号从负一开始 a = '例如这个字符串' ...

  9. ORM外键关联

    #coding=utf-8 from sqlalchemy import create_engine from sqlalchemy.ext.declarative import declarativ ...

  10. css样式表的引入方式

    一般来说,css 有两种样式表的引入方式,在这里我记录一下,比较这两种引入方式的区别: <link rel="stylesheet" type="text/css& ...