一、Tensorflow基本概念

  1、使用图(graphs)来表示计算任务,用于搭建神经网络的计算过程,但其只搭建网络,不计算

  2、在被称之为会话(Session)的上下文(context)中执行图

  3、使用张量(tensor)表示数据,用“阶”表示张量的维度。关于这一点需要展开一下

0阶张量称为标量,表示单独的一个数

1阶张量称为向量, 表示一个一维数组

2阶张量称为矩阵,表示一个二维数组

……

张量是几阶的可以通过张量右边的方括号数来判断。例如 t = [ [ [    ] ] ],显然这个为3阶。

  4、通过变量(Variable)维护状态

  5、使用feed和fetch可以为任意的操作赋值或者从其中获取数据

  Tensorflow是一个编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op获得0个或者多个Tensor,执行计算,产生0个或多个Tensor,Tensor看作是一个n维的数组或列表。图必须在会话(Session)里被启动。

二、tensorflow基本框架知识

1、会话

import tensorflow as tf  # 简写方便一点

# 创建两个常量(constant)
m1 = tf.constant([[3, 3]]) # 一行两列的矩阵,这里是矩阵乘法,所以是二维数组,注意书写格式以及矩阵乘法规则
m2 = tf.constant([[2], [3]]) # 两行一列的矩阵 # 创建一个矩阵乘法(matmul)的op
product = tf.matmul(m1, m2)
print(product)

行会得到显示结果,其中MatMul为节点名,0代表第0个输出;shape是维度,(1,1)代表一行一列的张量,长度为1;dtype指数据类型为整型。

Tensor("MatMul:0", shape=(1, 1), dtype=int32)

  结果并不是想象中的是一个具体数字,而是一个Tensor,这是因为之前提到过 图必须在会话中运行,现在我们并未使用会话,所以只能得到一个Tensor。

  定义会话有两种方法,一般使用第二种。

# method 1
sess=tf.Session() # 将Session简写为sess
result=sess.run(product) # 调用run方法执行图,这个触发了三个op(操作),两个常量的建立,矩阵的乘法
print(result)
sess.close() # 关闭会话
# method 2
with tf.Session() as sess: # Session()后面的()因为代码提示里没有,所以很容易丢
result=sess.run(product)
print(result) # with as的这种结构会自动关闭会话

运行显示结果为

[[15]]

注意:Session() 经常会写错,大小写问题和括号问题,都是典型错误,多加练习

2、变量

上文常量使用tf.constant()表示,变量是用tf.Variable()表示

import tensorflow as tf

x=tf.Variable([1,2])    # 定义一个变量,这里是张量的加减法,所以一维数组即可
a=tf.constant([3,3]) # 定义一个常量 sub=tf.subtract(x,a) # 增加一个减法op
add=tf.add(x,sub) # 增加一个加法op init=tf.global_variables_initializer() # 在tensorflow中使用变量要初始化,此条语句也可以初始化多个变量,这句代码提示没有(),多加练习 with tf.Session() as sess:
sess.run(init) # 变量初始化,也要放在会话中,才能执行
print(sess.run(sub))
print(sess.run(add))

 运行将得到结果

[-2 -1]
[-1 1]

  上述代码展示了变量的定义和初始化,但还没有体现变量的本质,下面一段代码实现变量a进行5次+1的操作

值得一提的是,在打印常量和变量时,不能像python中的直接print(a),而是也需要放在sess.run()中。

a=tf.Variable(0,name='counter')        # 创建一个变量初始化为0,并命名为counter。(此段代码中命名无作用)
new_value = tf.add(a,1) # 创建一个加法op,作用是使state加1
update=tf.assign(a,new_value) # 此句话是赋值op,在tensorflow中,赋值也需要对应的op
init=tf.global_variables_initializer() # 变量初始化
with tf.Session() as sess:
sess.run(init)
print(sess.run(a))
for i in range(5):
sess.run(update)
print(sess.run(a))

 运行,显示结果为

0
1
2
3
4
5

注意:初始化时,pycharm会代码提示 tf.global_variables_initializer,但往往会把括号漏掉,需注意

常用的op现在除了加减乘除,还多了个assign()的赋值op

3、Fetch

  sess.run([fetch1,fetch2]) 进行多个op,注意格式

import tensorflow as tf

input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0) add = tf.add(input2,input3)
mul = tf.multiply(input1,add) with tf.Session() as sess:
result = sess.run([mul,add]) # 执行了两个op,要注意格式
print(result)

运行,结果显示为

[21.0, 7.0]

  这里需要提一下tf.matmul()是用于矩阵乘法,tf.multiply是用于点乘。正如上面这段代码的multiply

4、placeholder占位

  定义变量时可先不输入具体数值,先占位,在会话中调用op时,再输入具体值。

import tensorflow as tf

input1 = tf.placeholder(tf.float32)      # 使用placeholder()占位,需要提供类型
input2 = tf.placeholder(tf.float32)
output = tf.multiply(input1,input2) with tf.Session() as sess:
print(sess.run(output,feed_dict={input1:8.0,input2:2.0})) # 以字典形式输入feed_dict

 运行,显示结果为

[ 16.]

占位多组数据以后再说在下一篇随笔会提到。

  以上就是一些比较基本的tensorflow概念的描述和代码实现。

01炼数成金TensorFlow基本概念的更多相关文章

  1. 截图:【炼数成金】深度学习框架Tensorflow学习与应用

    创建图.启动图 Shift+Tab Tab 变量介绍: F etch Feed 简单的模型构造 :线性回归 MNIST数据集 Softmax函数 非线性回归神经网络   MINIST数据集分类器简单版 ...

  2. dataguru(炼数成金)大数据培训基地印象

    dataguru访问地址:http://f.dataguru.cn/?fromuid=99611 课程优惠码:C4B6  这段时间一直在dataguru(炼数成金)上学习<hadoop数据分析平 ...

  3. 炼数成金(dataguru)IT技能修炼

    2016我定的目标就是要走出舒适区,进入学习区!为了少走弯路,节约学习的成本和时间,我选择了dataguru.看到心仪的课程毫不犹豫的就报了名. 分享了炼数成金邀请码,使用邀请码报名课程可以减免50% ...

  4. MapReduce工作原理图文详解 (炼数成金)

    MapReduce工作原理图文详解 1.Map-Reduce 工作机制剖析图: 1.首先,第一步,我们先编写好我们的map-reduce程序,然后在一个client 节点里面进行提交.(一般来说可以在 ...

  5. Python数据分析【炼数成金15周完整课程】

    点击了解更多Python课程>>> Python数据分析[炼数成金15周完整课程] 课程简介: Python是一种面向对象.直译式计算机程序设计语言.也是一种功能强大而完善的通用型语 ...

  6. 炼数成金数据分析课程---14、Logistic回归

    炼数成金数据分析课程---14.Logistic回归 一.总结 一句话总结: 大纲+实例快速学习法 主要讲Logistic回归的原理及编程实现 1.事件的优势比(odds)是什么? 记y取1的概率是p ...

  7. 炼数成金数据分析课程---10、python中如何画图

    炼数成金数据分析课程---10.python中如何画图 一.总结 一句话总结: 主要matplotlib库,pandas中也可以画一些基础图 大纲+实例快速学习法 1.matplotlib的最简单画图 ...

  8. tensorflow学习框架(炼数成金网络版学习记录)

    chapter1 #变量 import tensorflow as tf x = tf.Variable([1,2]) a = tf.constant([3,3]) #增加一个减法op sub = t ...

  9. 炼数成金hadoop视频干货01

    视频地址:http://pan.baidu.com/s/1dDEgKwD 最开始还是讲hadoop的起源,但是和其他垃圾视频不同,不是照本宣科,听了还是受益.作者给人一种感觉就是他是确实把他的经验和体 ...

随机推荐

  1. Centos常用快捷键

    终端快捷键  tab=补全 ctrl+a=开始位置 ctrl+e=最后位置 ctrl+k=删除此处至末尾所有内容 ctrl+u=删除此处至开始所有内容 ctrl+d=删除当前字母 ctrl+w=删除此 ...

  2. 2.16 C++类与new和delete操作符

    参考: http://www.weixueyuan.net/view/6347.html 总结: 当我们需要为类对象动态分配存储空间时,我们应该使用C++语言提供的new与new[]操作符,而不要使用 ...

  3. 强化学习7-Sarsa

    之前讲到时序差分是目前主流强化学习的基本思路,这节就学习一下主流算法之一 Sarsa模型. Sarsa 是免模型的控制算法,是通过更新状态动作价值函数来得到最优策略的方法. 更新方法 Q(S,A)=Q ...

  4. oracle语句录

    从表中选出一个某个单位最近的记录 select * from RSDL_SHXX where sbsj in (select max (sbsj) from RSDL_SHXX where DW_ID ...

  5. day 关于生成器的函数

    def average(): count=0 toatal=0 average=0 while True: value=yield average toatal+=value count+=1 ave ...

  6. Centos7修改profile文件后导致vi command not find

    Centos7修改profile文件后导致vi command not find,原因是profile文件没有配置正确,系统就无法找到精确命令了.解决方法: 1.在命令行中输入:export PATH ...

  7. 2017ICPC北京赛区网络赛 Visiting Peking University(简单思维)

    描述 Ming is going to travel for n days and the date of these days can be represented by n integers: 0 ...

  8. table中head表头固定,body滚动

    <style type="text/css"> .table-head { background-color: #; color: #; } .table-body { ...

  9. CNN 参数计算

    CNN 时间计算复杂度与空间复杂度 即,连续个数与参数个数, 每一个连接都意味着一个计算, 每一个参数都意味一个存储单元. 只计算主要部分. CNN局部连接与权值共享 如图所示: 全连接:如左图所示, ...

  10. Linux Kernel Stack

    整理一些杂乱的内容.以下x86架构. Linux 内核栈大小 内核栈大小是固定的,默认为8k,曾经有选项可以设置为4k栈.由于大小固定,申请过大的栈内存,或者函数调用层次过深,都可能导致栈溢出. 关注 ...