在这篇 TensorFlow 教程中,我们将学习如下内容:

  • TensorFlow 模型文件是怎么样的?
  • 如何保存一个 TensorFlow 模型?
  • 如何恢复一个 TensorFlow 模型?
  • 如何使用一个训练好的模型进行修改和微调?

1. TensorFlow 模型文件

在你训练完一个神经网络之后,你可能需要将这个模型保存下来,在后续实验中使用或者进行生产部署。那么,TensorFlow 模型文件长什么样呢?TensorFlow 模型主要包含我们已经训练好的网络设计(计算图)和网络参数。因此,TensorFlow 模型主要有两个文件:

  1. 元图(meta graph) 
    这是一个保存完整的 TensorFlow 图的协议缓存区,即所有的变量,操作,集合等等。该文件具有 .meta 扩展名。

  2. 检查点文件(checkpoint file) 
    这是一个二进制文件,其中包含所有的权重,偏差,梯度和其他所有保存的值。这个文件的扩展名是 .ckpt。然而,TensorFlow 从版本 0.11 开始已经不再使用一个 .ckpt 文件来表示了,而是采用两个文件,如下:

mymodel.data-00000-of-00001
mymodel.index

.data 文件是包含我们训练变量的文件。除此之外,TensorFlow 还有一个名为 checkpoint 的文件,它用来保存最新检查点的记录。

所以,总而言之,版本大于 0.11 的 TensorFlow 模型文件如下所示:

my_test_model-1000.index
my_test_model-1000.meta
my_test_model-1000.data-00000-of-00001
checkpoin

2. 保存一个 TensorFlow 模型

假设,你正在使用卷积神经网络训练一个图像分类模型。一个传统做法是,你一直在关注损失值和正确率这两个指标,一旦你发现网络收敛了,那么你就会手动停止训练,或者你会运行固定的训练次数然后结束训练。在完成训练之后,我们希望将所有的变量和计算图都保存起来,以便于未来使用。所以,在 TensorFlow 中,我们可以使用 tf.train.Saver() 实例来保存所有的参数和计算图。

saver = tf.train.Saver()
  • 1

请记住,TensorFlow 变量只在会话(session)中存在。因此,你必须在会话中,调用刚刚创建好的 save 方法,将模型保存起来。

saver.save(sess, 'my-test-model')
  • 1

在这里, sess 是一个会话对象,而 my-test-model 就是你给模型起的名字。接下来,让我们看一个完整的例子:

#!/use/bin/env python
# -*- coding: utf-8 -*-

import tensorflow as tf 

w1 = tf.Variable(tf.random_normal(shape=[2]), name='w1')
w2 = tf.Variable(tf.random_normal(shape=[5]), name='w2')
saver = tf.train.Saver(www.feifanyule.cn/)

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    saver.save(sess, './model/my_test_model')

运行上面这个代码,我们可以得到如下的模型文件结构:

model/
├── checkpoint
├── my_test_model.data-00000-of-00001
├── my_test_model.index
└── my_test_model.meta

如果你想在 1000 次迭代之后再保存模型,那么我们可以通过传递步数来调用 save ,如下:

saver.save(sess, 'my_test_model', global_step=1000)
  • 1

这个代码会在模型文件之后添加上 -1000 ,如下:


my_test_model-1000.index
my_test_model-1000.meta
my_test_model-1000.data-00000-of-00001
checkpoint

比如说,在训练的时候,我们每 1000 次保存一下模型,所以 .meta 文件只会在第一次保存的时候创建(也就是第 1000 次的时候),我们不需要在每次保存文件的时候再去创建 .meta 文件。我们只需要保存模型进一步迭代的数据,因为模型的计算图不会再变化。因此,当我们不想要去保存计算图的时候,我们可以使用如下命令:

saver.save(sess, 'my-model', global_step=step,write_meta_graph=False)

如果你只想保存最新的 4 个模型参数,并且希望在训练期间每隔 2 小时保存一个模型,那么我们可以使用 max_to_keep参数和 keep_checkpoint_every_n_hours 参数。

# saves a model every 2 hours and maximum 4 latest models are saved.
saver = tf.train.Saver(max_to_keep=4, keep_checkpoint_every_n_hours=2)

请注意,如果我们没有在 tf.train.Saver() 中指定任何东西,那么它会保存模型所有的变量。如果我们不想保存所有的变量,只想保存其中的某些变量,那么应该怎么操作呢?我们可以指定我们想要保存的变量。在创建 tf.train.Saver()实例时,我们将需要保存的变量通过列表或者字典的形式传入进去。让我们来看一个例子:

#!/use/bin/env python
# -*- coding: utf-8 -*-

import tensorflow as tf 

w1 = tf.Variable(tf.random_normal(shape=[2]), name='w1')
w2 = tf.Variable(tf.random_normal(shape=[5]), name='w2')
saver = tf.train.Saver([w1, w2])

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    saver.save(sess, './model/my_model', global_step=1000

这个操作可以用来帮助我们去保存 TensorFlow 图中某些特定的部分。

3. 导入一个预训练的模型

如果你想使用别人的预训练好的模型进行微调,那么你需要做两件事:

  1. 构建网络结构 
    你可以通过编写 Python 代码来重新构建整个网络,手动来创建网络中的每一个层。但是,因为我们已经将网络保存在 .meta 文件中了,我们可以直接使用 tf.train.import() 函数来导入这个模型,如下所示:saver = tf.train.import_meta_graph('my_test_model-1000.meta') 。

请记住,import_meta_graph 将 .meta 文件中定义的计算图数据直接附加到我们定义的当前图中。因此,这个操作会帮助我们创建计算图,但是我们仍然需要去加载计算图上面所有已经训练好的权重参数。

  1. 加载参数 
    我们可以通过调用这个 tf.train.Saver() 类来恢复我们网络的参数。
with tf.Session() as sess:
  new_saver = tf.train.import_meta_graph('my_test_model-1000.meta')
  new_saver.restore(sess, tf.train.latest_checkpoint('./'))

导入之后,类似 w1 和 w2 这样的张量值就可以被访问了。

with tf.Session() as sess:
    saver = tf.train.import_meta_graph('my-model-1000.meta')
    saver.restore(sess,tf.train.latest_checkpoint('./'))
    print(sess.run('w1:0'))

所以,现在你已经了解了 TensorFlow 模型的保存和载入。在下面一节中,我将给你介绍在实际的工作中是如何来加载一个预训练的模型。

4. 使用恢复的模型

现在,你已经了解了如何去保存和载入一个 TensorFlow 模型,接下来让我们学习一个实际中可以使用的开发方式,用来恢复任何预先训练好的模型,并将其用于模型预测,模型微调或者进一步模型训练。无论你什么时候使用 TensorFlow ,你都需要定义一个计算图来训练数据,学习一些超参数(比如,学习率,步长等等)。使用占位符来输入训练数据和超参数是一种标准的做法。接下来,让我们使用占位符来构建一个小的网络并且保存这个网络,请注意,当我们保存网络的时候,占位符中的值是不进行保存的。

#!/use/bin/env python
# -*- coding: utf-8 -*-

import tensorflow as tf

w1 = tf.placeholder("float",www.vboyule.cn  name="w1")
w2 = tf.placeholder("float", name="w2www.baohuayule.net ")
b1= tf.Variable(2.0,name="bias")

#Define a test operation that we will restore
w3 = tf.add(w1,w2)
w4 = tf.multiply(w3,b1,name="op_to_restore")

#Create a saver object which will save all the variables
saver = tf.train.Saver(www.tianhengyl1.com)

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer(www.thd178.com))
    print(sess.run(w4,feed_dict ={w1:4,w2:8}))
    saver.save(sess, 'my_test_model',global_step=1000)

现在,当我们想要去载入这个模型时,我们不仅需要恢复所有的计算图和参数权重,而且还要准备一个新的 feed_dict,用来将新的训练数据送到网络中进行训练。我们可以通过 graph.get_tensor_by_name() 方法来获得对这些保存的操作和占位符变量的引用。

#How to access saved variable/Tensor/placeholders
w1 = graph.get_tensor_by_name("www.120xh.cn  w1:0")

## How to access saved operation
op_to_restore = graph.get_tensor_by_name("op_to_restore:0"

如果我们只想用不同的数据来运行相同的网络,那么我们只需要通过 feed_dict 来给网络传递数据就可以了。


with tf.Session() as sess:
    saver = tf.train.import_meta_graph(www.qinlinyule.cn 'my_test_model-1000.meta')
    saver.restore(sess,tf.www.089188.cn train.latest_checkpoint('./'))
    graph = tf.get_default_graph()
    w1 = graph.get_tensor_by_name("w1:0")
    w2 = graph.get_tensor_by_name("w2:0")
    feed_dict ={w1:13.0,w2:17.0}

    op_to_restore = graph.get_tensor_by_name("op_to_restore:0")

    print(sess.run(op_to_restore,feed_dict))

如果你想在原来的计算图基础上添加更多的操作和图层,并且进行训练。那么你可以按照如下操作来编写:

import tensorflow as tf

with tf.Session() as sess:
    saver = tf.train.import_meta_graph('my_test_model-1000.meta')
    saver.restore(sess,tf.train.latest_checkpoint('./'))
    graph = tf.get_default_graph()
    w1 = graph.get_tensor_by_name("w1:0")
    w2 = graph.get_tensor_by_name("w2:0")
    feed_dict ={w1:13.0,w2:17.0}
    op_to_restore = graph.get_tensor_by_name("op_to_restore:0")

    # 添加新的操作
    add_on_op = tf.multiply(op_to_restore, 2.)

    print(sess.run(add_on_op,feed_dict))

但是,我们可以恢复原图中的一部分,然后自己再添加一部分图,重新组成一张新的计算图来记性微调计算吗?当然可以,我们可以通过 graph.get_tensor_by_name() 来访问相应的操作,并且在其上构建计算图。我们来举一个真实的例子,我们通过 .meta 文件来导入一个 VGG 预训练好的模型,然后把最后的输出改为二分类,最后在新数据上面对这个模型进行微调。

 

TensorFlow 模型文件的更多相关文章

  1. AI tensorflow模型文件

    tensorflow模型可以利用tf.train.Saver类保存成文件.一个模型包含下面四个文件. meta文件 存储计算图的protobuf. data-00000-of-00001文件和inde ...

  2. 转 tensorflow模型保存 与 加载

    使用tensorflow过程中,训练结束后我们需要用到模型文件.有时候,我们可能也需要用到别人训练好的模型,并在这个基础上再次训练.这时候我们需要掌握如何操作这些模型数据.看完本文,相信你一定会有收获 ...

  3. tensorflow学习笔记2:c++程序静态链接tensorflow库加载模型文件

    首先需要搞定tensorflow c++库,搜了一遍没有找到现成的包,于是下载tensorflow的源码开始编译: tensorflow的contrib中有一个makefile项目,极大的简化的接下来 ...

  4. tensorflow c++ API加载.pb模型文件并预测图片

    tensorflow  python创建模型,训练模型,得到.pb模型文件后,用c++ api进行预测 #include <iostream> #include <map> # ...

  5. 查看tensorflow pb模型文件的节点信息

    查看tensorflow pb模型文件的节点信息: import tensorflow as tf with tf.Session() as sess: with open('./quantized_ ...

  6. tensorflow lite 之生成 tflite 模型文件

    下载最新的的tensorflow源码. 1.配置 tflite 文件转换所需环境 安装 bazel 编译工具 https://docs.bazel.build/versions/master/inst ...

  7. [翻译] Tensorflow模型的保存与恢复

    翻译自:http://cv-tricks.com/tensorflow-tutorial/save-restore-tensorflow-models-quick-complete-tutorial/ ...

  8. Tensorflow模型的格式

    转载:https://cloud.tencent.com/developer/article/1009979 tensorflow模型的格式通常支持多种,主要有CheckPoint(*.ckpt).G ...

  9. 移动端目标识别(3)——使用TensorFlow Lite将tensorflow模型部署到移动端(ssd)之Running on mobile with TensorFlow Lite (写的很乱,回头更新一个简洁的版本)

    承接移动端目标识别(2) 使用TensorFlow Lite在移动设备上运行         在本节中,我们将向您展示如何使用TensorFlow Lite获得更小的模型,并允许您利用针对移动设备优化 ...

随机推荐

  1. Excel文档数据转成Plist文件

    有时候我们需要导入大量数据到App中静态数据,但数据又是存在Excel中,怎么办? 第一,复制数据粘贴到一个.txt文本文档中 第二,就是撸代码了 比如,我需要导入的数据表有2列字段,name和bar ...

  2. Spring框架基础2

    Spring框架基础2 测试Spring的AOP思想和注解的使用 导包(在前面的基础上添加) SpringAOP名词解释 AOP编程思想:横向重复代码,纵向抽取:就是说多个地方重复的代码可以抽取出来公 ...

  3. Q&A - Nginx是做什么的?tomcat结合Nginx使用小结

    相信很多人都听过nginx,这个小巧的东西慢慢地在吞食apache和IIS的份额.那究竟它有什么作用呢?可能很多人未必了解. 说到反向代理,可能很多人都听说,但具体什么是反向代理,很多人估计就不清楚了 ...

  4. openldap完整版本搭建记录

    文档信息 目        的:搭建一套完整的OpenLDAP系统,实现账号的统一管理.                     1:OpenLDAP服务端的搭建                   ...

  5. css3 媒体查询的学习。

    1.什么是媒体查询 媒体查询可以让我们根据设备显示器的特性(如视口宽度.屏幕比例.设备方向:横向或纵向)为其设定CSS样式,媒体查询由媒体类型和一个或多个检测媒体特性的条件表达式组成.媒体查询中可用于 ...

  6. Apache2服务配置ubuntu16.04+django1.11

    话不多说直接上步骤 环境 Ubuntu 16.04 Python 3.5.2 Django 1.11 Apache 2.4 1.Apache2安装 sudo apt-get install apach ...

  7. 裸机——SD卡

    1.首先要对SD卡有个基础知识 (1) SD = nandflash + 主控IC. 主控IC负责了校验和坏块管理,所以SoC只需要依照时序就可以和SD卡上的主控IC进行数据交换等操作. (2) SD ...

  8. python——标准异常总结

    请参考此网站: Python 标准异常总结 https://fishc.com.cn/forum.php?mod=viewthread&tid=45814&extra=page%3D1 ...

  9. [CodeForces950C]Zebras

    Description 题目地址: Codeforces 题意:给你一串只含01的字符串,判断能否将字符串分为k个子序列,使得子序列满足以下条件: 开头和结尾都是0 相邻的2个数是01或者10 如0, ...

  10. 使用dataframe解决spark TopN问题:分组、排序、取TopN和join相关问题

    package com.profile.mainimport org.apache.spark.sql.expressions.Windowimport org.apache.spark.sql.fu ...