笔记3:Tensorflow2.0实战之MNSIT数据集
最近Tensorflow相继推出了alpha和beta两个版本,这两个都属于tensorflow2.0版本;早听说新版做了很大的革新,今天就来用一下看看
这里还是使用MNSIT数据集进行测试
导入必要的库
import tensorflow as tf
from tensorflow.keras import datasets, layers, optimizers, Sequential, metrics
数据的准备
(xs, ys),_ = datasets.mnist.load_data()
print('datasets:', xs.shape, ys.shape, xs.min(), xs.max())
xs = tf.convert_to_tensor(xs, dtype=tf.float32) / 255.
db = tf.data.Dataset.from_tensor_slices((xs,ys))
db = db.batch(32).repeat(10)
网络结构和优化器准备
network = Sequential([layers.Dense(256, activation='relu'),
layers.Dense(256, activation='relu'),
layers.Dense(256, activation='relu'),
layers.Dense(10)])
network.build(input_shape=(None, 28*28))
network.summary()
optimizer = optimizers.SGD(lr=0.01)
acc_meter = metrics.Accuracy()
对数据集进行迭代
for step, (x,y) in enumerate(db):
with tf.GradientTape() as tape:
# [b, 28, 28] => [b, 784]
x = tf.reshape(x, (-1, 28*28))
# [b, 784] => [b, 10]
out = network(x)
# [b] => [b, 10]
y_onehot = tf.one_hot(y, depth=10)
# [b, 10]
loss = tf.square(out-y_onehot)
# [b]
loss = tf.reduce_sum(loss) / 32
acc_meter.update_state(tf.argmax(out, axis=1), y)
grads = tape.gradient(loss, network.trainable_variables)
optimizer.apply_gradients(zip(grads, network.trainable_variables))
if step % 200==0:
print(step, 'loss:', float(loss), 'acc:', acc_meter.result().numpy())
acc_meter.reset_states()
最终的训练结果
Model: "sequential"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
dense (Dense) multiple 200960
_________________________________________________________________
dense_1 (Dense) multiple 65792
_________________________________________________________________
dense_2 (Dense) multiple 65792
_________________________________________________________________
dense_3 (Dense) multiple 2570
=================================================================
Total params: 335,114
Trainable params: 335,114
Non-trainable params: 0
_________________________________________________________________
0 loss: 1.6250096559524536 acc: 0.125
200 loss: 0.4169953465461731 acc: 0.68828124
400 loss: 0.3840298056602478 acc: 0.84796876
600 loss: 0.3416569232940674 acc: 0.8721875
800 loss: 0.26919665932655334 acc: 0.898125
1000 loss: 0.3009098470211029 acc: 0.8985937
1200 loss: 0.2646633982658386 acc: 0.9103125
1400 loss: 0.22533166408538818 acc: 0.91765624
1600 loss: 0.18222002685070038 acc: 0.9165625
1800 loss: 0.18201570212841034 acc: 0.9290625
2000 loss: 0.19700995087623596 acc: 0.94484377
2200 loss: 0.14550982415676117 acc: 0.93125
2400 loss: 0.20129463076591492 acc: 0.9265625
2600 loss: 0.20377759635448456 acc: 0.93921876
2800 loss: 0.1372058093547821 acc: 0.93859375
3000 loss: 0.2261861264705658 acc: 0.93359375
3200 loss: 0.1720336377620697 acc: 0.940625
3400 loss: 0.12401969730854034 acc: 0.93953127
3600 loss: 0.10386896133422852 acc: 0.9401562
3800 loss: 0.16028286516666412 acc: 0.95734376
4000 loss: 0.17534957826137543 acc: 0.95171875
4200 loss: 0.14097453653812408 acc: 0.940625
4400 loss: 0.14199058711528778 acc: 0.9490625
4600 loss: 0.19402430951595306 acc: 0.94671875
4800 loss: 0.15967118740081787 acc: 0.94625
5000 loss: 0.1375979483127594 acc: 0.953125
5200 loss: 0.22316312789916992 acc: 0.9453125
5400 loss: 0.21779394149780273 acc: 0.9501563
5600 loss: 0.08099132776260376 acc: 0.9632813
5800 loss: 0.15826722979545593 acc: 0.9603125
6000 loss: 0.11169645190238953 acc: 0.95140624
6200 loss: 0.16848763823509216 acc: 0.95203125
6400 loss: 0.10312280058860779 acc: 0.9571875
6600 loss: 0.12469235062599182 acc: 0.9521875
6800 loss: 0.1130545362830162 acc: 0.9557812
7000 loss: 0.10152068734169006 acc: 0.95921874
7200 loss: 0.2921682596206665 acc: 0.9484375
7400 loss: 0.12305493652820587 acc: 0.9625
7600 loss: 0.13934454321861267 acc: 0.97
7800 loss: 0.07814794033765793 acc: 0.9571875
8000 loss: 0.16721022129058838 acc: 0.95921874
8200 loss: 0.0795113667845726 acc: 0.9632813
8400 loss: 0.07537689059972763 acc: 0.9557812
8600 loss: 0.11197802424430847 acc: 0.9585937
8800 loss: 0.12252026051282883 acc: 0.96203125
9000 loss: 0.13232024013996124 acc: 0.9578125
9200 loss: 0.08134811371564865 acc: 0.9590625
9400 loss: 0.07900199294090271 acc: 0.973125
9600 loss: 0.18293496966362 acc: 0.9671875
9800 loss: 0.04652725160121918 acc: 0.9609375
10000 loss: 0.16443191468715668 acc: 0.9615625
10200 loss: 0.1063765436410904 acc: 0.9640625
10400 loss: 0.11965180188417435 acc: 0.95890623
10600 loss: 0.07027075439691544 acc: 0.96796876
10800 loss: 0.15515664219856262 acc: 0.961875
11000 loss: 0.07982166111469269 acc: 0.9584375
11200 loss: 0.09907206147909164 acc: 0.9715625
11400 loss: 0.10707013309001923 acc: 0.9734375
11600 loss: 0.13629364967346191 acc: 0.9646875
11800 loss: 0.09981581568717957 acc: 0.96515626
12000 loss: 0.07304492592811584 acc: 0.96734375
12200 loss: 0.065020851790905 acc: 0.96375
12400 loss: 0.13698126375675201 acc: 0.96671873
12600 loss: 0.17877255380153656 acc: 0.96546876
12800 loss: 0.10601920634508133 acc: 0.9625
13000 loss: 0.0823143720626831 acc: 0.96765625
13200 loss: 0.15889227390289307 acc: 0.974375
13400 loss: 0.10676314681768417 acc: 0.9715625
13600 loss: 0.08510202169418335 acc: 0.9684375
13800 loss: 0.08974016457796097 acc: 0.969375
14000 loss: 0.05767156183719635 acc: 0.9678125
14200 loss: 0.21300190687179565 acc: 0.96796876
14400 loss: 0.08092547953128815 acc: 0.97078127
14600 loss: 0.17201107740402222 acc: 0.96515626
14800 loss: 0.07620300352573395 acc: 0.965625
15000 loss: 0.09742768108844757 acc: 0.9767187
15200 loss: 0.09786351025104523 acc: 0.97484374
15400 loss: 0.09377723932266235 acc: 0.9689062
15600 loss: 0.08926095068454742 acc: 0.970625
15800 loss: 0.08965814113616943 acc: 0.9703125
16000 loss: 0.1047641858458519 acc: 0.96734375
16200 loss: 0.0918944925069809 acc: 0.97328126
16400 loss: 0.08902822434902191 acc: 0.9709375
16600 loss: 0.06524112075567245 acc: 0.96421874
16800 loss: 0.09127143025398254 acc: 0.975
17000 loss: 0.09830828011035919 acc: 0.9784375
17200 loss: 0.030347194522619247 acc: 0.97125
17400 loss: 0.07646052539348602 acc: 0.9728125
17600 loss: 0.09391230344772339 acc: 0.9717187
17800 loss: 0.05943562090396881 acc: 0.9714062
18000 loss: 0.08575735241174698 acc: 0.9734375
18200 loss: 0.09358179569244385 acc: 0.973125
18400 loss: 0.0565657876431942 acc: 0.97015625
18600 loss: 0.04309214651584625 acc: 0.96984375
总结
整体上使用起来比1.X版本有顺手多了,感觉和pytorch差不多,使用起来更加的丝滑流畅,真的是对这个版本爱不释手了,如果要是再有一张性能好一些的显卡就更好了
笔记3:Tensorflow2.0实战之MNSIT数据集的更多相关文章
- Google老师亲授 TensorFlow2.0实战: 入门到进阶
Google老师亲授 TensorFlow2.0 入门到进阶 课程以Tensorflow2.0框架为主体,以图像分类.房价预测.文本分类等项目为依托,讲解Tensorflow框架的使用方法,同时学习到 ...
- [TensorFlow2.0]-Fashion-MNIST本地数据集及fit_generator()的使用
本人人工智能初学者,现在在学习TensorFlow2.0,对一些学习内容做一下笔记.笔记中,有些内容理解可能较为肤浅.有偏差等,各位在阅读时如有发现问题,请评论或者邮箱(右侧边栏有邮箱地址)提醒. 若 ...
- tensorflow2.0学习笔记
今天我们开始学习tensorflow2.0,用一种简单和循循渐进的方式,带领大家亲身体验深度学习.学习的目录如下图所示: 1.简单的神经网络学习过程 1.1张量生成 1.2常用函数 1.3鸢尾花数据读 ...
- Google工程师亲授 Tensorflow2.0-入门到进阶
第1章 Tensorfow简介与环境搭建 本门课程的入门章节,简要介绍了tensorflow是什么,详细介绍了Tensorflow历史版本变迁以及tensorflow的架构和强大特性.并在Tensor ...
- TensorFlow2.0(9):TensorBoard可视化
.caret, .dropup > .btn > .caret { border-top-color: #000 !important; } .label { border: 1px so ...
- TensorFlow2.0(11):tf.keras建模三部曲
.caret, .dropup > .btn > .caret { border-top-color: #000 !important; } .label { border: 1px so ...
- 基于tensorflow2.0 使用tf.keras实现Fashion MNIST
本次使用的是2.0测试版,正式版估计会很快就上线了 tf2好像更新了蛮多东西 虽然教程不多 还是找了个试试 的确简单不少,但是还是比较喜欢现在这种写法 老样子先导入库 import tensorflo ...
- [笔记][Java7并发编程实战手冊]3.8 并发任务间的数据交换Exchanger
[笔记][Java7并发编程实战手冊]系列文件夹 简单介绍 Exchanger 是一个同步辅助类.用于两个并发线程之间在一个同步点进行数据交换. 同意两个线程在某一个点进行数据交换. 本章exchan ...
- ETL工具--DataX3.0实战
DataX是一个在异构的数据库/文件系统之间高速交换数据的工具,实现了在任意的数据处理系统(RDBMS/Hdfs/Local filesystem)之间的数据交换,由淘宝数据平台部门完成. DataX ...
- [笔记][Java7并发编程实战手冊]3.4 等待多个并发事件的完毕CountDownLatch倒计数闭锁
[笔记][Java7并发编程实战手冊]系列文件夹 简单介绍 本文学习CountDownLatch 倒计数闭锁. 本人英文不好.靠机器翻译,然后有一段非常形象的描写叙述,让我把它叫为倒计数 用给定的计数 ...
随机推荐
- cs50ai0----search
cs50ai0-------Search cs50ai0-------Search 基础知识 课后题目 代码实践 学习链接 总结 基础知识 (1) search problem 上图是搜索问题的一般形 ...
- Linux学习疑惑总结
重定向问题 Linux shell 中 2>&1 的含义 首先了解下1和2在Linux中代表什么,先整理一份在Linux系统中0 1 2是一个文件描述符: 名称 代码 操作符 Java中 ...
- 玩转 PI 系列-看起来像服务器的 ARM 开发板矩阵-Firefly Cluster Server
前言 基于我个人的工作内容和兴趣,想要在家里搞一套服务器集群,用于容器/K8s 等方案的测试验证. 考虑过使用二手服务器,比如 Dell R730, 还搞了一套配置清单,如下: Dell R730 3 ...
- 《小白WEB安全入门》01. 扫盲篇
@ 目录 基础知识 什么是WEB 什么是前端 什么是后端 什么是数据库 什么是协议 什么是WEB安全 什么是服务器 什么是IP地址.端口 什么是局域网.广域网.内网.外网 什么是URL 什么是MAC地 ...
- Go协程揭秘:轻量、并发与性能的完美结合
Go协程为并发编程提供了强大的工具,结合轻量级.高效的特点,为开发者带来了独特的编程体验.本文深入探讨了Go协程的基本原理.同步机制.高级用法及其性能与最佳实践,旨在为读者提供全面.深入的理解和应用指 ...
- WebAssembly实践指南——C++和Rust通过wasmtime实现相互调用实例
C++和Rust通过wasmtime实现相互调用实例 1 wasmtime介绍 wasmtime是一个可以运行WebAssembly代码的运行时环境. WebAssembly是一种可移植的二进制指令集 ...
- 深入理解RocketMQ 广播消费
这篇文章我们聊聊广播消费,因为广播消费在某些场景下真的有奇效.笔者会从基础概念.实现机制.实战案例.注意事项四个方面一一展开,希望能帮助到大家. 1 基础概念 RocketMQ 支持两种消息模式:集群 ...
- Redis系列内容完整版
@ 目录 Redis系列之_Redis介绍安装配置 第一章 redis初识 1.1 Redis是什么 1.2 Redis特性(8个) 1.3 Redis单机安装 1.3.1下载安装 1.3.2三种启动 ...
- Python比较字符串格式类型时间大小
已知的格式是 06/24/2021 15:47:01.491 时间比较的思路是,把数据转换成时间戳比较: 第一步是把 06/24/2021 15:47:01.491 格式转换称 2021-06-24 ...
- ESP32-MicroPython 开发环境
Linux/Mac 下使用MicroPython开发ESP32 刷入固件 使用 esptool.py 将 MicroPython 刷入 ESP32 开发板涉及几个步骤. 1. 安装 esptool 如 ...