参考 1. tensorflow中 tf.reduce_mean函数: 完…
tf.reduce_mean 函数用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的的平均值,主要用作降维或者计算tensor(图像)的平均值. reduce_mean(input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None) 第一个参数input_tensor: 输入的待降维的tensor; 第二个参数axis: 指定的轴,如果不指定,则计算所有元素的均值; 第三个参数keep_d…
tf.random_normal 函数 random_normal( shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None ) 定义在:tensorflow/python/ops/random_ops.py. 请参阅指南:生成常量,序列和随机值>随机张量 从正态分布中输出随机值. 参数: shape:一维整数张量或 Python 数组.输出张量的形状. mean:dtype 类型的0-D张量或 Python 值.正…
sess=tf.Session() a=np.array([1,2,3,5.]) # 此代码保留为浮点数 a1=np.array([1,2,3,5]) # 此代码保留为整数 c=tf.reduce_mean(a)d=sess.run(c)print(a)print(d)c1=tf.reduce_mean(a1)d1=sess.run(c1)print(a1)print(d1) 总结:tf.reduce_mean(a,axis)是均值,其中a是输入矩阵,axis是从什么维度求均值.然而,代码运行发…
转载http://blog.csdn.net/jerr__y/article/details/60877873 1. 首先看看比较简单的 tf.name_scope(‘scope_name’). tf.name_scope 主要结合 tf.Variable() 来使用,方便参数命名管理. ''' Signature: tf.name_scope(*args, **kwds) Docstring: Returns a context manager for use when defining a…
函数一:initializer=tf.random_uniform_initializer(-0.1, 0.1, seed=123) tf.random_uniform_initializer 参数: minval:一个 python 标量或一个标量张量.要生成的随机值范围的下限. maxval:一个 python 标量或一个标量张量.要生成的随机值范围的上限.对于浮点类型默认为1. seed:一个 Python 整数.用于创建随机种子.查看 tf.set_random_seed 的行为. dt…
问题描述 算法 Algorithms (第四版)书中,第1章:基础编程模型第15题: 结果: 编写一个静态方法 histogram(), 接受一个整型数组a[] 和一个整数M为参数,并返回一个大小为M的数组. 条件: 其中第i个元素的值为整数i在参数数组中出现的次数. 如果a[]中的值均在0到M-1之间,返回数组中所有元素之和应该和a.length相等 问题解答 第一步:定义静态函数 histogram(int[] a, int m) public static int[] histogram(…
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明.本文链接:https://blog.csdn.net/dcrmg/article/details/79091941 tf.ConfigProto()函数用在创建session的时候,用来对session进行参数配置: config = tf.ConfigProto(allow_soft_placement=True, allow_soft_placement=True)config.gpu_o…
这一节主要来介绍TesorFlow的可视化工具TensorBoard,以及TensorFlow基础类型定义.函数操作,后面又介绍到了共享变量和图操作. 一 TesnorBoard可视化操作 TensorFlow提供了可视化操作工具TensorBoard.他可以将训练过程中的各种数据展示出来,包括标量,图片,音频,计算图,数据分布,直方图和嵌入式向量.可以通过网页来观察模型的结构和训练过程中各个参数的变化.TensorBoard不会自动把代码代码出来,其实它是一个日志展示系统,需要在session…
在统计学中,损失函数是一种衡量损失和错误(这种损失与“错误地”估计有关,如费用或者设备的损失)程度的函数.假设某样本的实际输出为a,而预计的输出为y,则y与a之间存在偏差,深度学习的目的即是通过不断地训练迭代,使得a越来越接近y,即 a - y →0,而训练的本质就是寻找损失函数最小值的过程. 常见的损失函数为两种,一种是均方差函数,另一种是交叉熵函数.对于深度学习而言,交叉熵函数要优于均方差函数,原因在于交叉熵函数配合输出层的激活函数如sigmoid或softmax函数能更快地加速深度学习的训…
转载  https://blog.csdn.net/duanlianvip/article/details/98626111 tf.reset_default_graph函数用于清除默认图形堆栈并重置全局默认图形. 1.无tf.reset_default_graph import tensorflow as tf # 执行完 with 里边的语句之后,这个 conv1/ 和 conv2/ 空间还是在内存中的.这时候如果再次执行此代码,就会再生成其他命名空间 with tf.name_scope(…
函数:tf.nn.sparse_softmax_cross_entropy_with_logits(_sentinel=None,labels=None,logits=None,name=None) #如果遇到这个问题:Rank mismatch: Rank of labels (received 2) should equal rank of logits minus 1 (received 2). 一般是维度没有计算好: 函数是将softmax和cross_entropy放在一起计算,对于分…
1 run()函数存在的意义 run()函数可以让代码变得更加简洁,在搭建神经网络(一)中,经历了数据集准备.前向传播过程设计.损失函数及反向传播过程设计等三个过程,形成计算网络,再通过会话tf.Session().run()进行循环优化网络参数.这样可以使得代码变得更加简洁,可以集中处理多个图和会话,明确调用tf.Session().run()可能是一种更加直观的方法. 总而言之,我们先规划好计算图,再编写代码,之后调用tf.Session.run().简洁高效. 在实际代码中,一般写成下种形…
转载:https://www.cnblogs.com/yuzhuwei/p/6986171.html 1.概述 在深度学习里研究的物体的关系,都是比较复杂的.比如一个图片32X32大小的,它的像素信息就有1024个点,如果考虑RGB三种颜色,就是1024X3了.对于目前还没有办法构造140亿个神经元的计算机来说,只能干一件事情,就是简化,化繁为简.为了简化,就需要使用算法来进行,在数学上最简单的处理,就是求平均值.这个道理非常简单,如果10个数,只要把它们相加,再除以10即可.对于0维数字,可以…
tf.placeholder()函数 Tensorflow中的palceholder,中文翻译为占位符,什么意思呢? 在Tensoflow2.0以前,还是静态图的设计思想,整个设计理念是计算流图,在编写程序时,首先构筑整个系统的graph,代码并不会直接生效,这一点和python的其他数值计算库(如Numpy等)不同,graph为静态的,在实际的运行时,启动一个session,程序才会真正的运行.这样做的好处就是:避免反复地切换底层程序实际运行的上下文,tensorflow帮你优化整个系统的代码…
1. tf.add(x,  y, name) Args: x: A `Tensor`. Must be one of the following types: `bfloat16`, `half`, `float32`, `float64`, `uint8`, `int8`, `int16`, `int32`, `int64`, `complex64`, `complex128`, `string`. y: A `Tensor`. Must have the same type as `x`.…
0. 四则运算 平方:tf.square(),开方:tf.sqrt() tf.add().tf.sub().tf.mul().tf.div().tf.mod().tf.abs().tf.neg() 1. 简单数理统计 Rn→R(从矢量到标量),意味着一种约简(reduce). 均值:tf.reduce_mean,求和:tf.reduce_sum stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean))) 最大最小(极值):tf.reduce_m…
参考Tensorflow Machine Leanrning Cookbook tf.ConfigProto()主要的作用是配置tf.Session的运算方式,比如gpu运算或者cpu运算 具体代码如下: import tensorflow as tf session_config = tf.ConfigProto( log_device_placement=True, inter_op_parallelism_threads=0, intra_op_parallelism_threads=0,…
tf.expand_dims和tf.squeeze函数 一.tf.expand_dims() Function tf.expand_dims(input, axis=None, name=None, dim=None) Inserts a dimension of 1 into a tensor’s shape. 在第axis位置增加一个维度 Given a tensor input, this operation inserts a dimension of 1 at the dimensio…
# #############添加############## def binarize(self, x): """ Clip and binarize tensor using the straight through estimator (STE) for the gradient. """ g = tf.get_default_graph() with ops.name_scope("Binarized") as nam…
从helloworld开始 mkdir mooc # 新建一个mooc文件夹 cd mooc mkdir 1.helloworld # 新建一个helloworld文件夹 cd 1.helloworld touch helloworld.py # -*- coding: UTF-8 -*- # 引入 TensorFlow 库 import tensorflow as tf # 创建一个 Constant(常量)Operation(操作) hw = tf.constant("Hello World…
Tensorflow一些常用基本概念与函数(一) 1.tensorflow的基本运作 为了快速的熟悉TensorFlow编程,下面从一段简单的代码开始: import tensorflow as tf #定义‘符号’变量,也称为占位符 a = tf.placeholder("float") b = tf.placeholder("float") y = tf.mul(a, b) #构造一个op节点 sess = tf.Session()#建立会话 #运行会话,输入数…
TensorFlow是一个面向数值计算的通用平台,可以方便地训练线性模型.下面采用TensorFlow完成Andrew Ng主讲的Deep Learning课程练习题,提供了整套源码. 线性回归 多元线性回归 逻辑回归 线性回归 # -*- coding: utf-8 -*- """ Created on Wed Sep 6 19:46:04 2017 @author: Administrator """ #!/usr/bin/env pytho…
以下仅为自己的整理记录,绝大部分参考来源:莫烦Python,建议去看原博客 一.处理结构 因为TensorFlow是采用数据流图(data flow graphs)来计算, 所以首先我们得创建一个数据流流图, 然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算. 节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组, 即张量(tensor). 训练模型时tensor会不断的从数据流图中的一个节点flow到另一节点, 这就是Te…
1.tensorflow的基本运作 为了快速的熟悉TensorFlow编程,下面从一段简单的代码开始: import tensorflow as tf #定义‘符号’变量,也称为占位符 a = tf.placeholder("float") b = tf.placeholder("float") y = tf.mul(a, b) #构造一个op节点 sess = tf.Session()#建立会话 #运行会话,输入数据,并计算节点,同时打印结果 print sess…
为了快速的熟悉TensorFlow编程,下面从一段简单的代码开始: import tensorflow as tf #定义‘符号’变量,也称为占位符 a = tf.placeholder("float") b = tf.placeholder("float") y = tf.mul(a, b) #构造一个op节点 sess = tf.Session()#建立会话 #运行会话,输入数据,并计算节点,同时打印结果 print sess.run(y, feed_dict=…
1.函数及参数:tf.nn.conv2d conv2d( input, filter, strides, padding, use_cudnn_on_gpu=True, data_format='NHWC', name=None) 卷积的原理可参考 A guide to convolution arithmetic for deep learning 参数列表: 参数名 必选 类型 说明 input 是 tensor 是一个 4 维的 tensor,即 [ batch, in_height, i…
1. tf.train.Saver() tf.train.Saver()是一个类,提供了变量.模型(也称图Graph)的保存和恢复模型方法. TensorFlow是通过构造Graph的方式进行深度学习,任何操作(如卷积.池化等)都需要operator,保存和恢复操作也不例外. 在tf.train.Saver()类初始化时,用于保存和恢复的save和restore operator会被加入Graph.所以,下列类初始化操作应在搭建Graph时完成. saver = tf.train.Saver()…
1. Tensorflow高效流水线Pipeline 2. Tensorflow的数据处理中的Dataset和Iterator 3. Tensorflow生成TFRecord 4. Tensorflow的Estimator实践原理 1. 前言 我们在训练模型的时候,必须经过的第一个步骤是数据处理.在机器学习领域有一个说法,数据处理的好坏直接影响了模型结果的好坏.数据处理是至关重要的一步. 我们今天关注数据处理的另一个问题:假设我们做深度学习,数据的量随随便便就到GB的级别,那数据处理的速度对于模…
经典的损失函数----交叉熵 1 交叉熵: 分类问题中使用比较广泛的一种损失函数, 它刻画两个概率分布之间的距离 给定两个概率分布p和q, 交叉熵为: H(p, q) = -∑ p(x) log q(x) 当事件总数是一定的时候, 概率函数满足:   任意x  p(X = x) ∈[0, 1] 且 Σ p(X=x) = 1 也就是说 所有时间发生的概率都是0到1 之间 , 且总有一个时间会发生,概率的和就为1. 2 tensorflow中softmax: softmax回归可以作为学习算法来优化…