tensorflow 莫烦教程
1,感谢莫烦
2,第一个实例:用tf拟合线性函数
import tensorflow as tf
import numpy as np # create data
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data*0.1 + 0.3 #先创建我们的线性函数目标 #搭建模型
Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
biases = tf.Variable(tf.zeros([1]))
y = Weights*x_data + biases #计算误差,然后根据误差调节loss
loss = tf.reduce_mean(tf.square(y-y_data))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss) #我们的目标是让误差尽量小 init = tf.global_variables_initializer() # 注册和初始化变量 sess = tf.Session() #创建会话,
sess.run(init) # 开始运行。tf需要在会话里运行,原因不明 for step in range(201):
sess.run(train)
if step % 20 == 0: #每训练一段时间打印一下结果
print(step, sess.run(Weights), sess.run(biases))
3,会话控制session
import tensorflow as tf # create two matrixes matrix1 = tf.constant([[3,3]]) #tf.constant表示常量
matrix2 = tf.constant([[2],
[2]])
product = tf.matmul(matrix1,matrix2) #两个同类型是数相乘,不同于tf.multiply(),这只是表示运算的步骤,而不是过程 #要想运行两个数相乘得到结果,有以下两种方法
# method 1
sess = tf.Session()
result = sess.run(product)
print(result)
sess.close() # method 2
with tf.Session() as sess:
result2 = sess.run(product)
print(result2)
4,变量Variable
和python不一样的是,tf中只有定义了是变量的才是变量,这一点和一直以来的习惯不一样
语法:
import tensorflow as tf state = tf.Variable(0, name='counter') # 定义常量 one
one = tf.constant(1) # 定义加法步骤 (注: 此步并没有直接计算)
new_value = tf.add(state, one) # 将 State 更新成 new_value
update = tf.assign(state, new_value) #但是以上步骤没有一步是直接运算的,要运算还需要载入变量
init = tf.global_variables_initializer() #激活变量是这样滴 #激活以后还是需要放在会话中运行
with tf.Session() as sess:
sess.run(init)
for _ in range(3):
sess.run(update)
print(sess.run(state))
5,placeholder传入值
import tensorflow as tf #在 Tensorflow 中需要定义 placeholder 的 type ,一般为 float32 形式
input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32) # mul = multiply 是将input1和input2 做乘法运算,并输出为 output
ouput = tf.multiply(input1, input2) with tf.Session() as sess:
print(sess.run(ouput, feed_dict={input1: [7.], input2: [2.]})) #placeholder到底像raw_input 呢还是argv呢
6,掰弯利器激励函数
7,添加层
#!coding=utf-8
import tensorflow as tf
import numpy as np def add_layer(inputs, in_size, out_size, activation_function=None):
Weights = tf.Variable(tf.random_normal([in_size, out_size]))
biases = tf.Variable(tf.zeros([1, out_size]) + 0.1) #加0.1是为了不让它为0 Wx_plus_b = tf.matmul(inputs, Weights) + biases #最基础的函数:权重乘以x加上偏移量为y
#如果激励函数为none,那我们得到的Wx_plus_b就是结果,如果有激励函数,那就需要把结果套上一层激励函数
if activation_function is None:
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b)
return outputs
建造神经网络:
x_data = np.linspace(-1,1,300, dtype=np.float32)[:, np.newaxis]
noise = np.random.normal(0, 0.05, x_data.shape).astype(np.float32)
y_data = np.square(x_data) - 0.5 + noise #y=x的平方减去0.5加上干扰 #np.linspace意思的创建一个从-1到1的一维数组,这个数组里有300个元素,x_data的数字类型是float32。
#np.newaxis例如:print(np.arange(0, 10)[:, np.newaxis]) 结果将是[[0] [1] [2] [3] [4] [5] [6] [7] [8] [9]]
#noise是故意插入数组中的干扰数字,省的算出权重和偏移量过快
xs = tf.placeholder(tf.float32, [None, 1])
ys = tf.placeholder(tf.float32, [None, 1])
#定义隐藏层,inputs为xs,大小为一个,经过10个隐藏层,激励函数为tf.nn.relu
l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) #输出层,输出层的输入值为l1,输入的值有10个,输出只有一层,激活函数是没有的
prediction = add_layer(l1, 10, 1, activation_function=None) #层虽然定义好了,我们仍旧需要通过训练优化参数,损失函数为,对二者差的平方求和再取平均。
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),
reduction_indices=[1])) #学习效率就等于
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) init = tf.global_variables_initializer() # 对变量进行初始化,然后会话中开始跑
sess = tf.Session()
sess.run(init) #开始训练 for i in range(1000):
# 注意当运算要用到placeholder时,就需要feed_dict这个字典来指定输入
sess.run(train_step, feed_dict={xs: x_data, ys: y_data})
if i % 50 == 0:
# to see the step improvement
print(sess.run(loss, feed_dict={xs: x_data, ys: y_data}))
训练得到的结果是loss损失的大小,损失越来越小,越来越接近实际值:
8,结果可视化
可视化需要用到的依赖包是:matplotlib,目测豆瓣和清华的镜像没法用,不知原因,直接按照教程来一遍吧。
实例:
#!coding=utf-8
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt def add_layer(inputs, in_size, out_size, activation_function=None):
Weights = tf.Variable(tf.random_normal([in_size, out_size]))
biases = tf.Variable(tf.zeros([1, out_size]) + 0.1) #加0.1是为了不让它为0 Wx_plus_b = tf.matmul(inputs, Weights) + biases #最基础的函数:权重乘以x加上偏移量为y
#如果激励函数为none,那我们得到的Wx_plus_b就是结果,如果有激励函数,那就需要把结果套上一层激励函数
if activation_function is None:
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b)
return outputs x_data = np.linspace(-1,1,300, dtype=np.float32)[:, np.newaxis]
noise = np.random.normal(0, 0.05, x_data.shape).astype(np.float32)
y_data = np.square(x_data) - 0.5 + noise #y=x的平方减去0.5加上干扰 #np.linspace意思的创建一个从-1到1的一维数组,这个数组里有300个元素,x_data的数字类型是float32。
#np.newaxis例如:print(np.arange(0, 10)[:, np.newaxis]) 结果将是[[0] [1] [2] [3] [4] [5] [6] [7] [8] [9]]
#noise是故意插入数组中的干扰数字,省的算出权重和偏移量过快
xs = tf.placeholder(tf.float32, [None, 1])
ys = tf.placeholder(tf.float32, [None, 1]) #定义隐藏层,inputs为xs,大小为一个,经过10个隐藏层,激励函数为tf.nn.relu
l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) #输出层,输出层的输入值为l1,输入的值有10个,输出只有一层,激活函数是没有的
prediction = add_layer(l1, 10, 1, activation_function=None) #层虽然定义好了,我们仍旧需要通过训练优化参数,损失函数为,对二者差的平方求和再取平均。
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),
reduction_indices=[1])) #学习效率就等于
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) init = tf.global_variables_initializer() # 对变量进行初始化,然后会话中开始跑
sess = tf.Session()
sess.run(init) #开始训练 fig=plt.figure() #先生成一个图片框,画板类似的
ax=fig.add_subplot(1,1,1)
#参数 111 的意思是: 显示一个图 或者写成 (1,1,1);参数 349 的意思是:将画布分割成 3 行 4 列,图像画在从左到右从上到下的第 9 块
ax.scatter(x_data,y_data)
plt.show()
就目前而言,先把x_data ,y_data的取值画出来,x_data是在-1到1之间取了300个点,y_data是x_data的平方加上噪音,目前是这样的图:
fig=plt.figure() #先 生成一个图片框,画板类似的
ax=fig.add_subplot(1,1,1)
#参数 111 的意思是: 显示一个图 或者写成 (1,1,1);参数 349 的意思是:将画布分割成 3 行 4 列,图像画在从左到右从上到下的第 9 块
ax.scatter(x_data,y_data)
plt.ion() #为了让画板能被不断更新添加,如果只有一个show()函数,那就只能画一次
plt.show() for i in range(1000):
# 注意当运算要用到placeholder时,就需要feed_dict这个字典来指定输入
sess.run(train_step, feed_dict={xs: x_data, ys: y_data})
if i % 50 == 0:
# to see the step improvement
#print(sess.run(loss, feed_dict={xs: x_data, ys: y_data}))
try:
ax.lines.remove(lines[0]) #去掉画的第一条线,第一次没有这条线,所以except跳过去了
except Exception:
pass
prediction_value=sess.run(prediction,feed_dict={xs:x_data})
lines=ax.plot(x_data,prediction_value,'r',lw=5) #画一条连续的线,画完了必须要移除,否则画不了下一条
plt.pause(0.1)
虽然不是很懂,但是可以看到训练的结果确实是不断拟合原始数据哦。啦啦。至于为什么不大懂,估计是numpy和matplotlib包以前没用过的原因。
题外话,激活函数是可以变化的哦, tf.nn.sigmoid(x), tf.nn.relu(x),tf.nn.tanh(x), tf.nn.softplus(x)经过本人实践证明,同样的条件下,l1 = add_layer(xs, 1, 10, activation_function=tf.nn.softplus)是拟合最好的。据说它是这个: log(exp( features) + 1)
tensorflow 莫烦教程的更多相关文章
- 【莫烦Pytorch】【P1】人工神经网络VS. 生物神经网络
滴:转载引用请注明哦[握爪] https://www.cnblogs.com/zyrb/p/9700343.html 莫烦教程是一个免费的机器学习(不限于)的学习教程,幽默风俗的语言让我们这些刚刚起步 ...
- tensorflow学习笔记-bili莫烦
bilibili莫烦tensorflow视频教程学习笔记 1.初次使用Tensorflow实现一元线性回归 # 屏蔽警告 import os os.environ[' import numpy as ...
- 莫烦大大TensorFlow学习笔记(9)----可视化
一.Matplotlib[结果可视化] #import os #os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' import tensorflow as tf i ...
- 稍稍乱入的CNN,本文依然是学习周莫烦视频的笔记。
稍稍乱入的CNN,本文依然是学习周莫烦视频的笔记. 还有 google 在 udacity 上的 CNN 教程. CNN(Convolutional Neural Networks) 卷积神经网络简单 ...
- Tensorflow 官方版教程中文版
2015年11月9日,Google发布人工智能系统TensorFlow并宣布开源,同日,极客学院组织在线TensorFlow中文文档翻译.一个月后,30章文档全部翻译校对完成,上线并提供电子书下载,该 ...
- Tensorflow的CNN教程解析
之前的博客我们已经对RNN模型有了个粗略的了解.作为一个时序性模型,RNN的强大不需要我在这里重复了.今天,让我们来看看除了RNN外另一个特殊的,同时也是广为人知的强大的神经网络模型,即CNN模型.今 ...
- scikit-learn学习笔记-bili莫烦
bilibili莫烦scikit-learn视频学习笔记 1.使用KNN对iris数据分类 from sklearn import datasets from sklearn.model_select ...
- TensorFlow DeepLab教程初稿-tensorflow gpu安装教程
TensorFlow DeepLab教程初稿-tensorflow gpu安装教程 商务合作,科技咨询,版权转让:向日葵,135-4855__4328,xiexiaokui#qq.com Summar ...
- 莫烦pytorch学习笔记(八)——卷积神经网络(手写数字识别实现)
莫烦视频网址 这个代码实现了预测和可视化 import os # third-party library import torch import torch.nn as nn import torch ...
随机推荐
- Java7 和 Java8 中的 ConcurrentHashMap 原理解析
Java7 中 ConcurrentHashMap ConcurrentHashMap 和 HashMap 思路是差不多的,但是因为它支持并发操作,所以要复杂一些. 整个 ConcurrentHash ...
- docker安装与测试 及 安装docker compose
Docker 是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口 ...
- 软工+C(11): 从命令行开始逐步培养编程能力(Java)
上一篇:助教指南,持续更新... // Version: 0.0.4 许多人,所不知道的是,每一种编程语言都有其对应的单元测试框架,对程序在不同阶段的测试环节也概念模糊.在实际动手编写程序许久之后才听 ...
- Netty的基本使用
Gradle 的优点 原文:https://blog.csdn.net/achenyuan/article/details/80682288 1. 按约定声明构建和建设: 2. 强大的支持多工程的构 ...
- Spark2.2 saveAsTable 函数使用 overWrite 设置 Partition 会造成全覆盖的问题
在使用 CDH 6.0.X 的版本还是自带的是 Spark2.2 的版本,2.2 版本的 Spark 使用 saveAsTable 如果使用overWrite PartitionBy 的功能会有和 h ...
- ISOMAP和MDS降维
转载自https://blog.csdn.net/victoriaw/article/details/78497316 核心:测地线距离(dijstra最短路径获得).MDS降维 Isomap(Iso ...
- <Android基础> (七)内容提供器
第七章 内容提供器 7.1 内容提供器(Content Provider) 主要应用于在不同的应用程序之间实现数据共享功能.允许一个程序访问另一个程序中的数据,同时还能保证被访数据的安全性. 7.2 ...
- java 11 实现RFC7539中指定的ChaCha20和Poly1305两种加密算法, 代替RC4
实现 RFC 7539的ChaCha20 and ChaCha20-Poly1305加密算法 RFC7748定义的秘钥协商方案更高效, 更安全. JDK增加两个新的接口 XECPublicKey 和 ...
- 浅析redis缓存 在spring中的配置 及其简单的使用
一:如果你需要在你的本地项目中配置redis.那么你首先得需要在你的本地安装redis 参考链接[http://www.runoob.com/redis/redis-install.html] 下载r ...
- element-UI的Dialog弹出框蒙版被遮住
类似于这种,相信会有很多人遇到这种问题的,其实解决的方法很简单 <el-dialog title="修改分类" :visible.sync="modifyFormV ...