原因是使用Adam优化函数时,Adam函数会创建一个Adam变量,目的是保存你使用tensorflow创建的graph中的每个可训练参数的动量,

words/_word_embeddings:0

bi-lstm/bidirectional_rnn/fw/lstm_cell/kernel:0

bi-lstm/bidirectional_rnn/fw/lstm_cell/bias:0

bi-lstm/bidirectional_rnn/bw/lstm_cell/kernel:0

bi-lstm/bidirectional_rnn/bw/lstm_cell/bias:0

proj/W:0

proj/b:0

bi-lstm_secondLayer/bidirectionalt_rnn/fw/lstm_cell/kernel:0

bi-lstm_secondLayer/bidirectional_rnn/fw/lstm_cell/bias:0

bi-lstm_secondLayer/bidirectional_rnn/bw/lstm_cell/kernel:0

bi-lstm_secondLayer/bidirectional_rnn/bw/lstm_cell/bias:0

proj_secondLayer/W:0

proj_secondLayer/b_secondLayer:0

train_step_secondLayer/beta1_power:0

train_step_secondLayer/beta2_power:0

train_step_secondLayer/words/_word_embeddings/Adam:0

train_step_secondLayer/words/_word_embeddings/Adam_1:0

train_step_secondLayer/bi-lstm/bidirectional_rnn/fw/lstm_cell/kernel/Adam:0

train_step_secondLayer/bi-lstm/bidirectional_rnn/fw/lstm_cell/kernel/Adam_1:0

train_step_secondLayer/bi-lstm/bidirectional_rnn/fw/lstm_cell/bias/Adam:0

train_step_secondLayer/bi-lstm/bidirectional_rnn/fw/lstm_cell/bias/Adam_1:0

train_step_secondLayer/bi-lstm/bidirectional_rnn/bw/lstm_cell/kernel/Adam:0

train_step_secondLayer/bi-lstm/bidirectional_rnn/bw/lstm_cell/kernel/Adam_1:0

train_step_secondLayer/bi-lstm/bidirectional_rnn/bw/lstm_cell/bias/Adam:0

train_step_secondLayer/bi-lstm/bidirectional_rnn/bw/lstm_cell/bias/Adam_1:0

train_step_secondLayer/proj/W/Adam:0

train_step_secondLayer/proj/W/Adam_1:0

train_step_secondLayer/proj/b/Adam:0

train_step_secondLayer/proj/b/Adam_1:0

train_step_secondLayer/bi-lstm_secondLayer/bidirectional_rnn/fw/lstm_cell/kernel/Adam:0

train_step_secondLayer/bi-lstm_secondLayer/bidirectional_rnn/fw/lstm_cell/kernel/Adam_1:0

train_step_secondLayer/bi-lstm_secondLayer/bidirectional_rnn/fw/lstm_cell/bias/Adam:0

train_step_secondLayer/bi-lstm_secondLayer/bidirectional_rnn/fw/lstm_cell/bias/Adam_1:0

train_step_secondLayer/bi-lstm_secondLayer/bidirectional_rnn/bw/lstm_cell/kernel/Adam:0

train_step_secondLayer/bi-lstm_secondLayer/bidirectional_rnn/bw/lstm_cell/kernel/Adam_1:0

train_step_secondLayer/bi-lstm_secondLayer/bidirectional_rnn/bw/lstm_cell/bias/Adam:0

train_step_secondLayer/bi-lstm_secondLayer/bidirectional_rnn/bw/lstm_cell/bias/Adam_1:0

train_step_secondLayer/proj_secondLayer/W/Adam:0

train_step_secondLayer/proj_secondLayer/W/Adam_1:0

train_step_secondLayer/proj_secondLayer/b_secondLayer/Adam:0

train_step_secondLayer/proj_secondLayer/b_secondLayer/Adam_1:0

tensorflow中的kernel/Adam 变量的来源的更多相关文章

  1. tensorflow中常量(constant)、变量(Variable)、占位符(placeholder)和张量类型转换reshape()

    常量 constant tf.constant()函数定义: def constant(value, dtype=None, shape=None, name="Const", v ...

  2. tensorflow中张量_常量_变量_占位符

    1.tensor 在tensorflow中,数据是被封装在tensor对象中的.tensor是张量的意思,即包含从0到任意维度的张量.常数是0维度的张量,向量是1维度的张量,矩阵是二维度的张量,以及还 ...

  3. TensorFlow中的变量命名以及命名空间.

    What: 在Tensorflow中, 为了区别不同的变量(例如TensorBoard显示中), 会需要命名空间对不同的变量进行命名. 其中常用的两个函数为: tf.variable_scope, t ...

  4. TensorFlow中的变量和常量

    1.TensorFlow中的变量和常量介绍 TensorFlow中的变量: import tensorflow as tf state = tf.Variable(0,name='counter') ...

  5. 04 Tensorflow的中的常量、变量和数据类型

    打开Python Shell,先输入import tensorflow as tf,然后可以执行以下命令. Tensorflow中的常量创建方法: hello = tf.constant('Hello ...

  6. 2、Tensorflow中的变量

    2.Tensorflow中的变量注意:tf中使用 变量必须先初始化下面是一个使用变量的TF代码(含注释): # __author__ = "WSX" import tensorfl ...

  7. Flask08 包含(include)、继承(extends)、宏???、模板中变量的来源、利用bootstrap构建自己的网页结构

    1 包含 直接把另一个文件的内容,复制粘贴过来 {% include "模板路径" %} 注意:模板都是放在 templates 这个文件夹下面的,可以在里面新建文件夹来进行分离: ...

  8. 83、Tensorflow中的变量管理

    ''' Created on Apr 21, 2017 @author: P0079482 ''' #如何通过tf.variable_scope函数来控制tf.ger_variable函数获取已经创建 ...

  9. 第二十二节,TensorFlow中RNN实现一些其它知识补充

    一 初始化RNN 上一节中介绍了 通过cell类构建RNN的函数,其中有一个参数initial_state,即cell初始状态参数,TensorFlow中封装了对其初始化的方法. 1.初始化为0 对于 ...

随机推荐

  1. a标签属性 rel=noopener noreferrer

    当你浏览一个页面点击一个a标签链接跳转到另一个页面时, <a href="http://www.baidu.com" target="_blank"> ...

  2. Vue中methods(方法)、computed(计算属性)、watch(侦听器)的区别

    1.computed和methods 共同点:computed能现实的methods也能实现: 不同点:computed是基于它的依赖进行缓存的.computed只有在它的相关依赖发生变化才会重新计算 ...

  3. JSONP使用及注意事项小结

    什么是JSONP 三句话总结: 概念:JSONP(JSON with Padding)是JSON的一种"使用模式". 目的:用于解决主流浏览器的跨域数据访问的问题. 原理:利用 & ...

  4. jenkins迁移升级简述

    1.迁移背景 原有jenkins版本为2.32.2,由于需要安装git parameter插件,插件安装失败,依赖暂时无法解决,因此决定升级jenkins版本,升级版本为2.121.2.   2.je ...

  5. BZOJ5287 HNOI2018毒瘤(虚树+树形dp)

    显然的做法是暴力枚举非树边所连接两点的选或不选,大力dp.考场上写的是最暴力的O(3n-mn),成功比大众分少10分.容斥或者注意到某些枚举是不必要的就能让底数变成2.但暴力的极限也就到此为止. 每次 ...

  6. python里使用正则表达式的非贪婪模式

    在正则表达式里,什么是正则表达式的贪婪与非贪婪匹配 如:String str="abcaxc"; Patter p="ab*c"; 贪婪匹配:正则表达式一般趋向 ...

  7. 背包问题的优化(洛谷1776 宝物筛选_NOI导刊)

    背包型dp,但是没有看清数据范围差点认为是水题了,(然后诡异的拿了20分)标解是:2进制优化,比较简单把每一类物品看做若干个相互独立的物品,放在一个另外的数组里,然后全局跑一边01就可以.主要思想是: ...

  8. 未处理的异常 stack overflow

    今天在编译程序时遇到“0x00e304f7 处有未经处理的异常: 0xC00000FD: Stack overflow”的错误,也就是栈溢出了,google了一下,原来是我申请的一个变量太大了,con ...

  9. AGC 018E.Sightseeing Plan——网格路径问题观止

    原题链接 鸣谢:AGC 018E.Sightseeing Plan(组合 DP) 本蒟蒻认为,本题堪称网格路径问题观止. 因为涵盖了不少网格路径问题的处理方法和思路. 一句话题意: 给你三个矩形. 三 ...

  10. webService与分布式与微服务与SOA的关系

    SOA:是面向服务体系架构. webservice是SOA的一种实现技术.webservice基于两种协议:soap和rest协议.现在常用的是rest协议. web service (web 服务) ...