import tensorflow as tf
get_default_graph = "tensorflow_get_default_graph.png"
# 当前默认的计算图 tf.get_default_graph
print(tf.get_default_graph()) # 自定义计算图
# tf.Graph # g1中定义名字为v的变量 初始化为0
g1 = tf.Graph()
with g1.as_default():
v = tf.get_variable("v", shape=[1],
initializer=tf.zeros_initializer()) # g2中定义名字为v的变量 初始化为1
g2 = tf.Graph()
with g2.as_default():
v = tf.get_variable("v", shape=[1],
initializer=tf.ones_initializer()) # initialize_all_variables Use `tf.global_variables_initializer` instead.
# 在计算图g1中读取变量v的取值 result is[ 0.]
with tf.Session(graph=g1) as sess:
# tf.initialize_all_variables().run()
tf.global_variables_initializer().run()
with tf.variable_scope("", reuse=True):
print(sess.run(tf.get_variable("v"))) # 在计算图g2中读取变量v的取值 result is [1.]
with tf.Session(graph=g2) as sess:
# tf.initialize_all_variables().run()
tf.global_variables_initializer().run()
with tf.variable_scope("", reuse=True):
print(sess.run(tf.get_variable("v"))) '''
#计算图可以隔离张量和计算也可以指定计算设备
g=tf.Graph()
#指定GPU
with g.device("/gpu:0"):
result=a+b '''
 import tensorflow as tf

 #tensor 张量 零阶张量是标量scalar 一阶张量是向量vector n阶张量理解为n维数组
#张量在TensorFlow中不是直接采用数组的形式,只是运算结果的引用。并没有保存数组,保存的是如何得到这些数字的计算过程 #tf.constan是一个计算,结果为一个张量,保存在变量a中
a=tf.constant([1.0,2.0],name="a")
b=tf.constant([2.0,3.0],name="b") result=a+b
print(result)
#Tensor("add:0", shape=(2,), dtype=float32) result=tf.add(a,b,name="add")
print(result)
#Tensor("add_1:0", shape=(2,), dtype=float32)
#张量保存三个属性 名字name(唯一标识) 维度shape 类型 dtype
#张量的命名是node:src_output形式给出,node是节点名称,src_output是表示张量来自节点第几个输出
#add_1:0 说明是add节点的第一个输出(编号从0开始)
#shape=(2,) 以为数组,长度为2 #dtype=float32 每个张量类型唯一,不匹配将报错
'''
a=tf.constant([1,2],name="a")
b=tf.constant([2.0,3.0],name="b")
result=a+b
print(result)
#ValueError: Tensor conversion requested dtype int32 for Tensor with dtype float32: 'Tensor("b_1:0", shape=(2,), dtype=float32)'
''' #result.get_shape 获取张量的维度
print(result.get_shape)
# result
# <bound method Tensor.get_shape of <tf.Tensor 'add_1:0' shape=(2,) dtype=float32>> #当计算图构造完成后,张量可以获得计算结果 (张量本身没有存储具体的数字) #使用session来执行定义好的运算 (也就是张量存储了运算的过程,使用session执行运算获取结果)
#创建会话
sess=tf.Session()
res=sess.run(result)
print(res)
#result is [ 3. 5.]
#关闭会话是本地运行使用到的资源释放
sess.close() #也可以使用python上下文管理器机制,吧所有的计算放在with中,上下文管理器推出是自动释放所有资源,可以避免忘记sess.close()去释放资源 with tf.Session() as sess:
print(sess.run(result))
#[ 3. 5.] #as_default 通过默认的会话计算张量的取值 会话不会自动生成默认的会话,需要手动指定 指定后可以通过eval来计算张量的取值
sess =tf.Session()
with sess.as_default():
print(result.eval())
#[ 3. 5.] #ConfigProto来配置需要生成的会话
#allow_soft_placement GPU设备相关
#log_device_palcement 日志相关
config=tf.ConfigProto(allow_soft_placement=True,
log_device_placement=True)
sess1=tf.InteractiveSession(config=config)
sess2=tf.Session(config=config)
#Device mapping: no known devices. tensorflow\core\common_runtime\direct_session.cc
#Device mapping: no known devices. #PY\35\tensorflow\core\platform\cpu_feature_guard.cc:137] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX AVX2

TensorFlow计算图,张量,会话基础知识的更多相关文章

  1. TensorFlow应用实战 | TensorFlow基础知识

    挺长的~超出估计值了~预计阅读时间20分钟. 从helloworld开始 mkdir 1.helloworld cd 1.helloworldvim helloworld.py 代码: # -*- c ...

  2. tensorflow笔记(一)之基础知识

    tensorflow笔记(一)之基础知识 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7399701.html 前言 这篇no ...

  3. Ternsorflow 学习:002-Tensorflow 基础知识

    前言: 使用 TensorFlow 之前你需要了解关于 TensorFlow 的以下基础知识: 使用图(graphs) 来表示计算 在会话(session) 中执行图 使用张量(tensors) 来代 ...

  4. TFLite基础知识

    此基础知识仅为个人学习记录,如有错误或遗漏之处,还请各位同行给个提示. 概述 TFLite主要含有如下内容: (1)TFLite提供一系列针对移动平台的核心算子,包括量化和浮点运算.另外,TFLite ...

  5. [源码解析] 深度学习分布式训练框架 Horovod (1) --- 基础知识

    [源码解析] 深度学习分布式训练框架 Horovod --- (1) 基础知识 目录 [源码解析] 深度学习分布式训练框架 Horovod --- (1) 基础知识 0x00 摘要 0x01 分布式并 ...

  6. [源码解析] PyTorch 流水线并行实现 (1)--基础知识

    [源码解析] PyTorch 流水线并行实现 (1)--基础知识 目录 [源码解析] PyTorch 流水线并行实现 (1)--基础知识 0x00 摘要 0x01 历史 1.1 GPipe 1.2 t ...

  7. [源码解析] TensorFlow 分布式 DistributedStrategy 之基础篇

    [源码解析] TensorFlow 分布式 DistributedStrategy 之基础篇 目录 [源码解析] TensorFlow 分布式 DistributedStrategy 之基础篇 1. ...

  8. Oracle数据库基础知识

    oracle数据库plsql developer   目录(?)[-] 一     SQL基础知识 创建删除数据库 创建删除修改表 添加修改删除列 oracle cascade用法 添加删除约束主键外 ...

  9. Spring基础知识

    Spring基础知识 利用spring完成松耦合 接口 public interface IOutputGenerator { public void generateOutput(); } 实现类 ...

随机推荐

  1. Flex 布局的各属性取值解释

    Flex布局是一种弹性布局.布局样式比较灵活,大多数情况下可以替代float,而且不会脱离文档里流. Flex中定义了两个轴线,一个主轴一个副轴,这个概念你可以想想屏幕坐标系(X轴向右,Y轴向下),F ...

  2. 在Linux和Windows系统上安装Nginx服务器的教程

    在Linux和Windows系统上安装Nginx服务器的教程  1.在CentOS系统上安装Nginx 在 CentOS6 版本的 EPEL 源中,已经加入了 nginx 的 rpm 包,不过此 RP ...

  3. bzoj-4887-dp+矩阵快速幂

    4887: [Tjoi2017]可乐 Time Limit: 10 Sec  Memory Limit: 64 MBSubmit: 247  Solved: 170[Submit][Status][D ...

  4. 时间序列挖掘-预测算法-三次指数平滑法(Holt-Winters)——三次指数平滑算法可以很好的保存时间序列数据的趋势和季节性信息

    from:http://www.cnblogs.com/kemaswill/archive/2013/04/01/2993583.html 在时间序列中,我们需要基于该时间序列当前已有的数据来预测其在 ...

  5. EPANET头文件解读系列4——EPANET2.H

    该头文件的功能与系列3中的TOOLKIT.H类似,而且内容也几乎一致,所以也就不再详细介绍.

  6. android中自定义view构造函数ContentItemView(Context context, AttributeSet paramAttributeSet)的用处

    自己定义一个view <?xml version="1.0" encoding="utf-8"?> <LinearLayout xmlns:a ...

  7. 06-jenkins的账号相关的问题

    飞测说:最近几天,在团队分享jenkins后,大家都十分感兴趣,各自下载安装和练习,然而jenkins2.3安装默认有权限设置,这块好多人遇到了问题,现在统一就账号登录的问题一起看看,踩过的坑,希望对 ...

  8. UOJ22. 【UR #1】外星人【DP】【思维】

    LINK 题目大意 给你一个序列和一个值x 问你用某种方式对序列安排顺序之后一次对x取mod膜的最大值和方案数 首先发现一个性质 一个数之后所有比它大的数都没有贡献 考虑怎么利用这个性质? 就可以从小 ...

  9. AlertDialog中使用ListView绑定数据

    在实际工作过程中,单单使用AlertDialog的单选功能不一定能满足我们的需求,需要绑定数据到 listview 1. 自定义Layout LayoutInflater factory = Layo ...

  10. coredns 代理consul 运行noamd 部署的应用

    nomad 是一个方便的应用调度平台,consul 一个很不错的服务发现工具,coredns 很不错, 扩展性比较强的dns 服务器,集成起来可能做很强大的事情 我的运行环境是mac,实际情况按需部署 ...