import numpy as np
 import matplotlib.pyplot as plt
 import os
 import time

 import tensorflow as tf
 tf.enable_eager_execution()

 # create data
 X = np.linspace(-1, 1, 5000)
 np.random.shuffle(X)
 y = 0.5 * X + 2 + np.random.normal(0, 0.05, (5000,))

 # plot data
 plt.scatter(X, y)
 plt.show()

 # split data
 X_train, y_train = X[:4000], y[:4000]
 X_test, y_test = X[4000:], y[4000:]

 # tf.data
 BATCH_SIZE = 32
 BUFFER_SIZE = 512
 dataset = tf.data.Dataset.from_tensor_slices((X_train, y_train)).batch(BATCH_SIZE).shuffle(BUFFER_SIZE)

 # subclassed model
 UNITS = 1

 class Model(tf.keras.Model):
     def __init__(self):
         super(Model, self).__init__()
         self.fc = tf.keras.layers.Dense(units=UNITS)

     def call(self, inputs):
         return self.fc(inputs)

 model = Model()

 optimizer = tf.train.AdamOptimizer()

 # loss function
 def loss_function(real, pred):
     return tf.losses.mean_squared_error(labels=real, predictions=pred)

 EPOCHS = 30
 checkpoint_dir = './save_subclassed_keras_model_training_checkpoints'
 if not os.path.exists(checkpoint_dir):
     os.makedirs(checkpoint_dir)

 # training loop
 for epoch in range(EPOCHS):
     start = time.time()
     epoch_loss = 0

     for (batch, (x, y)) in enumerate(dataset):
         x = tf.cast(x, tf.float32)
         y = tf.cast(y, tf.float32)
         x = tf.expand_dims(x, axis=1)
         y = tf.expand_dims(y, axis=1)
         # print(x)    # tf.Tensor([...], shape=(BATCH_SIZE, 1), dtype=float32)
         # print(y)    # tf.Tensor([...], shape=(BATCH_SIZE, 1), dtype=float32)
         with tf.GradientTape() as tape:
             predictions = model(x)
             # print(predictions)  # tf.Tensor([...], shape=(BATCH_SIZE, 1), dtype=float32)
             batch_loss = loss_function(real=y, pred=predictions)

         grads = tape.gradient(batch_loss, model.variables)
         optimizer.apply_gradients(zip(grads, model.variables),
                                   global_step=tf.train.get_or_create_global_step())
         epoch_loss += batch_loss

         if (batch + 1) % 10 == 0:
             print('Epoch {} Batch {} Loss {:.4f}'.format(epoch + 1,
                                                          batch + 1,
                                                          batch_loss/int(x.shape[0])))

     print('Epoch {} Loss {:.4f}'.format(epoch + 1, epoch_loss/len(X_train)))
     print('Time taken for 1 epoch {} sec\n'.format(time.time() - start))

     # save checkpoint
     checkpoint_prefix = os.path.join(checkpoint_dir, 'ckpt')
     if (epoch + 1) % 10 == 0:
         model.save_weights(checkpoint_prefix.format(epoch=epoch), overwrite=True)

 _model = Model()
 _model.load_weights(tf.train.latest_checkpoint(checkpoint_dir))
 _model.build(input_shape=tf.TensorShape([BATCH_SIZE, 1]))
 _model.summary()

 test_dataset = tf.data.Dataset.from_tensor_slices(X_test).batch(1)

 for (batch, x) in enumerate(test_dataset):
     x = tf.cast(x, tf.float32)
     x = tf.expand_dims(x, axis=1)
     print(x)
     predictions = _model(x)
     print(predictions)
     exit()

[Tensorflow] 使用 model.save_weights() 保存 Keras Subclassed Model的更多相关文章

  1. [Tensorflow] 使用 model.save_weights() 保存 / 加载 Keras Subclassed Model

    在 parameters.py 中,定义了各类参数. # training data directory TRAINING_DATA_DIR = './data/' # checkpoint dire ...

  2. [Tensorflow] 使用 tf.train.Checkpoint() 保存 / 加载 keras subclassed model

    在 subclassed_model.py 中,通过对 tf.keras.Model 进行子类化,设计了两个自定义模型. import tensorflow as tf tf.enable_eager ...

  3. keras系列︱Sequential与Model模型、keras基本结构功能(一)

    引自:http://blog.csdn.net/sinat_26917383/article/details/72857454 中文文档:http://keras-cn.readthedocs.io/ ...

  4. Keras(一)Sequential与Model模型、Keras基本结构功能

    keras介绍与基本的模型保存 思维导图 1.keras网络结构 2.keras网络配置 3.keras预处理功能 模型的节点信息提取 config = model.get_config() 把mod ...

  5. [Model] LeNet-5 by Keras

    典型的卷积神经网络. 数据的预处理 Keras傻瓜式读取数据:自动下载,自动解压,自动加载. # X_train: array([[[[ 0., 0., 0., ..., 0., 0., 0.], [ ...

  6. xen 保存快照的实现之 —— device model 状态保存

    xen 保存快照的实现之 —— device model 状态保存 实现要点: 设备状态保存在 /var/lib/xen/qemu-save.x 文件这个文件由 qemu-dm 产生,也由 qemu- ...

  7. AI - TensorFlow - 示例05:保存和恢复模型

    保存和恢复模型(Save and restore models) 官网示例:https://www.tensorflow.org/tutorials/keras/save_and_restore_mo ...

  8. 如何保存Keras模型

    我们不推荐使用pickle或cPickle来保存Keras模型 你可以使用model.save(filepath)将Keras模型和权重保存在一个HDF5文件中,该文件将包含: 模型的结构,以便重构该 ...

  9. Python之TensorFlow的模型训练保存与加载-3

    一.TensorFlow的模型保存和加载,使我们在训练和使用时的一种常用方式.我们把训练好的模型通过二次加载训练,或者独立加载模型训练.这基本上都是比较常用的方式. 二.模型的保存与加载类型有2种 1 ...

随机推荐

  1. Highcharts构建加权平均值图表

    Highcharts构建加权平均值图表 加权平均值图表是将图表中多个数据列值.依据加权算法计算获取平均值,并加入生成一个加权折线.在这里,我们直接使用第三方插件Dynamic Weighted Ave ...

  2. ERROR: resetting DM9000 -> not responding dm9000 not found at 0x88000000问题解决

    ERROR: resetting DM9000 -> not responding                                        dm9000 not found ...

  3. SpringMVC学习指南-Spring框架

    Spring框架主要使用依赖注入.实际上,很多牛叉的框架如Google的Guice都是使用依赖注入. ------------------------------------------------- ...

  4. Python爬虫开发【第1篇】【代理】

    1.简单的自定义opener() import urllib2 # 构建一个HTTPHandler 处理器对象,支持处理HTTP请求 http_handler = urllib2.HTTPHandle ...

  5. SpringMVC上传文件后返回文件服务器地址路径

    先写一个表单: <%@ page language="java" contentType="text/html; charset=UTF-8" pageE ...

  6. Codeforces 690 C3. Brain Network (hard) LCA

    C3. Brain Network (hard)   Breaking news from zombie neurology! It turns out that – contrary to prev ...

  7. 【Silverlight】Bing Maps学习系列(六):使用扩展模式(Extended Modes)(转)

    [Silverlight]Bing Maps学习系列(六):使用扩展模式(Extended Modes) 微软Bing Maps推出有有段时间了,通过不断的改进和新的地图更新,现在已经基本上形成了一套 ...

  8. Opencv+Zbar二维码识别(二维码校正)

    二维码和车牌识别基本都会涉及到图像的校正,主要是形变和倾斜角度的校正,一种二维码的畸变如下图: 这个码用微信扫了一下,识别不出来,但是用Zbar还是可以准确识别的~~. 这里介绍一种二维码校正方法,通 ...

  9. POJ2749 Building road

    传送门 这道题真是2-SAT好题啊!!卡了我两个点才做完……垃圾POJ还不告诉我哪错了…… 首先我们先花一段时间把题看懂……(其实是翻译一下),之后我们发现因为每个谷仓只能向一个中转点连边,所以他就是 ...

  10. pip 清华镜像

    临时使用: 可以在使用pip的时候加参数-i  https://pypi.tuna.tsinghua.edu.cn/simple 例:pip install -i https://pypi.tuna. ...