Tensorflow中reduction_indices 的用法 默认时None 压缩成一维…
https://blog.csdn.net/huitailangyz/article/details/85015611#…
tf.ConfigProto()函数用在创建session的时候,用来对session进行参数配置: config = tf.ConfigProto(allow_soft_placement=True, allow_soft_placement=True) config.gpu_options.per_process_gpu_memory_fraction = 0.4 #占用40%显存 sess = tf.Session(config=config) 1. 记录设备指派情况 :  tf.Conf…
函数原型: tf.assign(ref, value, validate_shape=None, use_locking=None, name=None)   Defined in tensorflow/python/ops/state_ops.py.   将 value 赋值给 ref,并输出 ref,即 ref = value:   这使得需要使用复位值的连续操作变简单   Defined in tensorflow/python/framework/tensor_shape.py. Arg…
一 初始化RNN 上一节中介绍了 通过cell类构建RNN的函数,其中有一个参数initial_state,即cell初始状态参数,TensorFlow中封装了对其初始化的方法. 1.初始化为0 对于正向或反向,第一个cell传入时没有之前的序列输出值,所以需要对其进行初始化.一般来讲,不用刻意取指定,系统会默认初始化为0,当然也可以手动指定其初始化为0. initial_state = lstm_cell.zero_state(batch_size, dtype=tf.float32) 2.初…
反卷积是指,通过测量输出和已知输入重构未知输入的过程.在神经网络中,反卷积过程并不具备学习的能力,仅仅是用于可视化一个已经训练好的卷积神经网络,没有学习训练的过程.反卷积有着许多特别的应用,一般可以用于信道均衡.图像恢复.语音识别.地震学.无损探伤等未知输入估计和过程辨识方面的问题. 在神经网络的研究中,反卷积更多的是充当可视化的作用,对于一个复杂的深度卷积网络,通过每层若干个卷积核的变换,我们无法知道每个卷积核关注的是什么,变换后的特征是什么样子.通过反卷积的还原,可以对这些问题有个清晰的可视…
Tensorflow:1.6.0 优化器(reference:https://blog.csdn.net/weixin_40170902/article/details/80092628) I:  tf.train.GradientDescentOptimizer  Tensorflow中实现梯度下降算法的优化器. 梯度下降:(1)标准梯度下降GD(2)批量梯度下降BGD(3)随机梯度下降SGD (1)标准梯度下降:学习训练的模型参数为W,代价函数为J(W),则代价函数关于模型参数的偏导数即相关…
原文链接 tensorflow中取下标的函数包括:tf.gather , tf.gather_nd 和 tf.batch_gather. 1.tf.gather(params,indices,validate_indices=None,name=None,axis=0) indices必须是一维张量 主要参数: params:被索引的张量 indices:一维索引张量 name:返回张量名称 返回值:通过indices获取params下标的张量. 例子: import tensorflow as…
常量 constant tf.constant()函数定义: def constant(value, dtype=None, shape=None, name="Const", verify_shape=False) value: 符合tf中定义的数据类型的常数值或者常数列表; dtype:数据类型,可选; shape:常量的形状,可选; name:常量的名字,可选; verify_shape:常量的形状是否可以被更改,默认不可更改; constant()函数提供在tensorflow…
网络层中变量存在两个问题: 随着层数的增多,导致变量名的增多: 在调用函数的时候,会重复生成变量,但他们存储的都是一样的变量.   tf.variable不能解决这个问题. 变量作用域使用tf.variable_scope和tf.get_variable完美解决了上边的这个问题. 网络层数很多,但一般结构就那么几种.我们使用tf.get_variable方法,变量会在前边加上作用域,类似于文件系统中的“/”. tf.get_variable在第二次使用某个变量时,可以用reuse=True来共享…