前言

本文接着上一篇继续来聊Tensorflow的接口,上一篇中用较低层的接口实现了线性模型,本篇中将用更高级的API——tf.estimator来改写线性模型。

还记得之前的文章《机器学习笔记2 - sklearn之iris数据集》吗?本文也将使用tf.estimator改造该示例。

本文代码都是基于API版本r1.4。本文中本地开发环境为Pycharm,在文中不再赘述。

tf.estimator

内置模型

比起用底层API“较硬”的编码方式,tf.estimator的在使用时更像是对模型描述(或定义)的过程。Tensorflow训练评估数据处理等这些过程全部封装起来,让开发人员更专注于解决实际问题的建模过程,而不是纠结于代码实现过程。如果用tf.estimator改造上一篇中的线性模型的话,完整代码如下:

本例中使用的库numpy是一个开源工具,是一个功能非常强大且执行效率很高的库,主要用作数值处理及矩阵操作等。

import numpy as np
import tensorflow as tf # 定义特性列,线性模型中特性是列是x,shape=[1],因此定义如下:
feature_columns = [tf.feature_column.numeric_column("x", shape=[1])] # 使用tf.estimator内置的LinearRegressor来完成线性回归算法
# tf.estimator提供了很多常规的算法模型以便用户调用,不需要用户自己重复造轮子
# 到底为止,短短两行代码我们的建模工作就已经完成了
estimator = tf.estimator.LinearRegressor(feature_columns=feature_columns) # 有了模型之后,我们要使用模型完成训练->评估->预测这几个步骤
# 训练数据依旧是(1.,0.),(2.,-1.),(3.,-2.),(4.,-3.)这几个点,拆成x和y两个维度的数组
x_train = np.array([1., 2., 3., 4.])
y_train = np.array([0., -1., -2., -3.]) # 评估数据为(2.,-1.01),(5.,-4.1),(8.,-7.),(1.,0.)这四个点,同样拆分成x和y两个维度的数组
x_eval = np.array([2., 5., 8., 1.])
y_eval = np.array([-1.01, -4.1, -7., 0.]) # 用tf.estimator.numpy_input_fn方法生成随机打乱的数据组,每组包含4个数据
input_fn = tf.estimator.inputs.numpy_input_fn({"x": x_train}, y_train, batch_size=4, num_epochs=None, shuffle=True)
# 循环1000次训练模型
estimator.train(input_fn=input_fn, steps=1000) # 生成训练数据,分成1000组,每组4个数据
train_input_fn = tf.estimator.inputs.numpy_input_fn({"x": x_train}, y_train, batch_size=4, num_epochs=1000, shuffle=False)
# 生成评估数据,分成1000组,每组4个数据
eval_input_fn = tf.estimator.inputs.numpy_input_fn({"x": x_eval}, y_eval, batch_size=4, num_epochs=1000, shuffle=False) # 训练数据在模型上的预测准确率
train_metrics = estimator.evaluate(input_fn=train_input_fn)
# 评估数据在模型上的预测准确率
eval_metrics = estimator.evaluate(input_fn=eval_input_fn) print("train metrics: %r"% train_metrics)
print("eval metrics: %r"% eval_metrics)

输出结果如下:

train metrics: {'average_loss': 4.4709815e-08, 'loss': 1.7883926e-07, 'global_step': 1000}
eval metrics: {'average_loss': 0.0025470245, 'loss': 0.010188098, 'global_step': 1000}

自定义模型

虽然tf.estimator内置了大量的常用模型,但也并不代表我们必须使用内置模型。如有需要,我们可以用底层API实现自定义模型,同时,继续使用tf.estimator提供的高级特性。如上例中,我们需要定义自己的线性回归模型,仅需要按如下步骤操作:

替换estimator

# 下面这行替换了原先的estimator = tf.estimator.LinearRegressor(feature_columns=feature_columns)
estimator = tf.estimator.Estimator(model_fn=model_fn)

定义并实现model_fn方法

...
def model_fn(features, labels, mode):
# 用底层API构建线性模型
W = tf.get_variable("W", [1], dtype=tf.float64)
b = tf.get_variable("b", [1], dtype=tf.float64)
y = W * features['x'] + b loss = tf.reduce_sum(tf.square(y - labels)) # 获取训练全局参数step
global_step = tf.train.get_global_step()
# 梯度下降算法,学习率是0.01
optimizer = tf.train.GradientDescentOptimizer(0.01)
# 将优化器和全局step的累加方法打包成一个方法组,相当于把若干个方法打包成事务执行的模式
train = tf.group(optimizer.minimize(loss), tf.assign_add(global_step, 1)) # 将所有内容封装成符合tf.estimator.Estimator规范的对象
return tf.estimator.EstimatorSpec(
mode=mode,
predictions=y,
loss=loss,
train_op=train)
...

生成并启动TensorBoard

tf.estimator中,生成TensorBoard的方法也被集成在了底层,我们要做的,仅仅是传入参数model_dir而已:

在LinearRegressor例中代码如下:

...
estimator = tf.estimator.LinearRegressor(feature_columns=feature_columns, model_dir='d1')
...
...
estimator = tf.estimator.Estimator(model_fn=model_fn, model_dir='d2')
...

TensorBoard的启动和上一篇文章中一样,在Pycharm的控制台中执行:

# 以LinearRegressor的代码为例
tensorboard --logdir=d1

启动TensorBoard大致效果如下:

IRIS数据集

现在我们来改造之前用sklearn实现的IRIS数据集。之前用了决策树邻近算法两种算法来实现,这次用的是Tensorflow提供的深度学习模型DNNClassifier,完整代码如下(代码是官网提供的Demo代码,仅仅将DNNClassifier中参数model_dir改为了当前目录下iris_model目录):

from __future__ import absolute_import
from __future__ import division
from __future__ import print_function import os
from six.moves.urllib.request import urlopen import numpy as np
import tensorflow as tf # 数据集
IRIS_TRAINING = "iris_training.csv"
IRIS_TRAINING_URL = "http://download.tensorflow.org/data/iris_training.csv" IRIS_TEST = "iris_test.csv"
IRIS_TEST_URL = "http://download.tensorflow.org/data/iris_test.csv" def main():
# 先将数据集保存到本地
if not os.path.exists(IRIS_TRAINING):
raw = urlopen(IRIS_TRAINING_URL).read()
with open(IRIS_TRAINING, "wb") as f:
f.write(raw) if not os.path.exists(IRIS_TEST):
raw = urlopen(IRIS_TEST_URL).read()
with open(IRIS_TEST, "wb") as f:
f.write(raw) # 读取数据集
training_set = tf.contrib.learn.datasets.base.load_csv_with_header(
filename=IRIS_TRAINING,
target_dtype=np.int,
features_dtype=np.float32)
test_set = tf.contrib.learn.datasets.base.load_csv_with_header(
filename=IRIS_TEST,
target_dtype=np.int,
features_dtype=np.float32) feature_columns = [tf.feature_column.numeric_column("x", shape=[4])] # 创建一个三层的DNN深度学习分类器,三层分别有10、20、10个神经元
classifier = tf.estimator.DNNClassifier(feature_columns=feature_columns,
hidden_units=[10, 20, 10],
n_classes=3,
model_dir="iris_model") # 定义训练用的数据集输入
train_input_fn = tf.estimator.inputs.numpy_input_fn(
x={"x": np.array(training_set.data)},
y=np.array(training_set.target),
num_epochs=None,
shuffle=True) # 训练模型
classifier.train(input_fn=train_input_fn, steps=2000) # 定义测试用的数据集输入
test_input_fn = tf.estimator.inputs.numpy_input_fn(
x={"x": np.array(test_set.data)},
y=np.array(test_set.target),
num_epochs=1,
shuffle=False) # 评估准确率
accuracy_score = classifier.evaluate(input_fn=test_input_fn)["accuracy"] print("\nTest Accuracy: {0:f}\n".format(accuracy_score)) # 预测两个新样本
new_samples = np.array(
[[6.4, 3.2, 4.5, 1.5],
[5.8, 3.1, 5.0, 1.7]], dtype=np.float32)
predict_input_fn = tf.estimator.inputs.numpy_input_fn(
x={"x": new_samples},
num_epochs=1,
shuffle=False) predictions = list(classifier.predict(input_fn=predict_input_fn)) predicted_classes = [p["classes"] for p in predictions] print(
"New Samples, Class Predictions: {}\n"
.format(predicted_classes)) if __name__ == "__main__":
main()

运行结果:

Test Accuracy: 0.966667

New Samples, Class Predictions:    [array([b'1'], dtype=object), array([b'2'], dtype=object)]

Process finished with exit code 0

可以看到,用tf.estimator提供的DNNClassifier,仅需要如下代码即可实现一个三层的DNN,并将模型保存在本地的iris_model文件夹下:

classifier = tf.estimator.DNNClassifier(feature_columns=feature_columns,
hidden_units=[10, 20, 10],
n_classes=3,
model_dir="iris_model")

启动TensorBoard,看到的效果如下:

Run on ML Engine of Google Cloud Platform

前面几篇文章中,我在本地运行代码的之后,同时在阿里云PAI上执行了一次代码。本来我也是想在PAI上再进行本文中的示例代码的,不过我花了一天多的时间,最后还是失败了,主要原因如下:

  • PAI目前只支持到Tensorflow 1.2,而官方目前已经出到Tensorflow 1.4(马上要出1.5了),而Tensorflow 1.2是不支持tf.estimator.DNNClassifier的(代码中需要用到)

  • PAI虽然是可视化拖拽,但是代码还是需要按照PAI的要求进行少量改造,不便于本地代码直接放到云端执行

  • PAI的相关文档太少,遇到问题很难解决,就算提交工单技术支持也比较敷衍,这让我这样的初学者感到非常大的挫折感

说来也可笑,我的代码无论如何调整在PAI中运行都会报错,在PAI官方的技术QQ群里寻求帮助,半天没人搭理,然后有一个群友说PAI确实不好用,建议我用Google Cloud Platform。备受挫折的我就注册了一个Google Cloud Platform,果然,即便是全英文的文档,也让我在不到2小时的时间里,从注册账号到执行代码成功。这真不是我崇洋媚外或者故意黑阿里,我仅仅叙述了我自己的亲身经历而已。相比PAIGoogle Cloud PlatformML Engine就是一个虚拟云主机(Linux),可以直接用Google的Web版远程控制台进行操作,就跟操作一台真实的Linux一样的体验。因此本地代码也可以直接拷贝过去就能执行,不需要任何修改。运行速度上,我觉得比PAI快很多(没有数据,只是感觉)。

使用Google Cloud PlatformML Engine,需要一些前提条件:

  • 收费,需要绑定信用卡(VISA或MASTER),不过注册账号是送300美金体验1年(也就是一年内不超过300美金的消费是免费的),官方承诺,免费体验额度用完,如果要产生后续扣信用卡费用的行为,需要用户确认之后才会继续扣款

  • 较好的英文阅读能力(能基本看懂英文技术、帮助文档)

  • 翻墙(你懂的)

  • 会操作Linux系统

以下就是我在Google Cloud PlatformML Engine的Web控制台中操作的动图(注册过程略):

注意:

  • 我事先做过了实验,所以代码已经放在文件~/cloudml-samples-master/mymltest/tensorflowdemo3/code.py中,动图中仅仅是复制了一份代码到新的执行目录下。

  • Google Cloud Platform的帮助文档我放在了最后的参考文档中。


参考文档

官方文档:

https://www.tensorflow.org/get_started/get_started

https://www.tensorflow.org/get_started/estimator

ML Engine帮助文档:

https://cloud.google.com/ml-engine/docs/getting-started-training-prediction


本文在我的博客园我的个人博客上同步发布,作者保留版权,转载请注明来源。

机器学习笔记5-Tensorflow高级API之tf.estimator的更多相关文章

  1. import tensorflow 报错: tf.estimator package not installed.

    import tensorflow 报错: tf.estimator package not installed. 解决方案1: 安装 pip install tensorflow-estimator ...

  2. TensorFlow高级API(tf.contrib.learn)及可视化工具TensorBoard的使用

    一.TensorFlow高层次机器学习API (tf.contrib.learn) 1.tf.contrib.learn.datasets.base.load_csv_with_header 加载cs ...

  3. tensorflow 高级api使用分布式之配置

    """Constructor. Sets the properties `cluster_spec`, `is_chief`, `master` (if `None` i ...

  4. 学习笔记TF049:TensorFlow 模型存储加载、队列线程、加载数据、自定义操作

    生成检查点文件(chekpoint file),扩展名.ckpt,tf.train.Saver对象调用Saver.save()生成.包含权重和其他程序定义变量,不包含图结构.另一程序使用,需要重新创建 ...

  5. tf.estimator.Estimator类的用法

    官网链接:https://www.tensorflow.org/api_docs/python/tf/estimator/Estimator Estimator - 一种可极大地简化机器学习编程的高阶 ...

  6. 使用TensorFlow高级别的API进行编程

    这里涉及到的高级别API主要是使用Estimator类来编写机器学习的程序,此外你还需要用到一些数据导入的知识. 为什么使用Estimator Estimator类是定义在tf.estimator.E ...

  7. 学习笔记TF048:TensorFlow 系统架构、设计理念、编程模型、API、作用域、批标准化、神经元函数优化

    系统架构.自底向上,设备层.网络层.数据操作层.图计算层.API层.应用层.核心层,设备层.网络层.数据操作层.图计算层.最下层是网络通信层和设备管理层.网络通信层包括gRPC(google Remo ...

  8. UNET学习笔记2 - 高级API(HLAPI)

    高级API是在实时传输低级API基础上建立起来的,为多人游戏提供大量通用的组件.通过HLAPI开发者仅需少量的工作就可以搭建多人联网游戏. HLAPI 使用命名空间 UnityEngine.Netwo ...

  9. Kafka技术内幕 读书笔记之(三) 生产者——消费者:高级API和低级API——基础知识

    1. 使用消费组实现消息队列的两种模式 分布式的消息系统Kafka支持多个生产者和多个消费者,生产者可以将消息发布到集群中不同节点的不同分区上:消费者也可以消费集群中多个节点的多个分区上的消息 . 写 ...

随机推荐

  1. C#打印杨辉三角

    重主要的方法在于: 1.初始化二维数组 2.边界赋值 3.中心值赋值 4.输出 <pre name="code" class="csharp"> c ...

  2. mysql TIMESTAMP与DATATIME的区别---转载加自己的看法

    from:http://lhdeyx.blog.163.com/blog/static/318196972011230113645715/ from:http://blog.csdn.NET/zht6 ...

  3. Linux第三节整理 、增删改查、用户管理

    帮助+基本文件管理+用户管理 1.怎么查看命令帮助 ls --help man ls :查看命令/man 5 file:查看配置文件 2.基本文件管理,通过{查,建,删,改} 四个维度介绍了不同的命令 ...

  4. unity -- Time类(持续更新中)

    2018年了,新年总是会制定很多具体目标和计划,不管能否坚持去完成,初衷和决心总是要有的.本年第一篇博客终于开始下笔了,先立一些今年和公司业务无关的的flag: 1.希望每月或两月能看一套蛮牛游戏上的 ...

  5. win10 音频服务未响应的解决方法

    最近在调试usb audio设备,由于使用的是自己的audio 设备,所以要频繁的更换采样率,可是 在win10中经常出现一些莫名其妙的问题,今天这个问题就是折腾了我好久才搞定的. 当把usb aud ...

  6. lodash源码分析之自减的两种形式

    这个世界需要一个特定的恶人,可以供人们指名道姓,千夫所指:"全都怪你". --村上春树<当我谈跑步时我谈些什么> 本文为读 lodash 源码的第六篇,后续文章会更新到 ...

  7. this与base关键字

    this关键字 this关键字代表当前对象,通过this关键字可以访问当前对象的成员.(当前对象的成员:自己本身的成员+从父类继承过来的所有的成员.) this关键字可以访问:本类的所有成员和父类的非 ...

  8. [Micropython][ESP8266] TPYBoard V202 之MQTT协议接入OneNET云平台

    随着移动互联网的发展,MQTT由于开放源代码,耗电量小等特点,将会在移动消息推送领域会有更多的贡献,在物联网领域,传感器与服务器的通信,信息的收集,MQTT都可以作为考虑的方案之一.在未来MQTT会进 ...

  9. 前端工程之CDN部署

    之前发的一篇文章<变态的静态资源缓存与更新>中提到了静态资源和页面部署之间的时间间隙问题,这个问题会迫使前端静态资源发布必须采用非覆盖式. 那篇文章中没有详细解释为什么会产生不可忍受的时间 ...

  10. C#Winform使用mysql作为本地数据库

    MYSQL是老牌关系型数据库,在受够了sqlite,mslocaldb,sqlce等本地数据库之后,发现了mysql5.6的一些版本也可以绿色安装,编程实现从资源文件里面解压到目标机器上,并配置好成为 ...