参考:https://blog.csdn.net/u013733326/article/details/79971488

希望大家直接到上面的网址去查看代码,下面是本人的笔记

 到目前为止,我们一直在使用numpy来自己编写神经网络。现在我们将一步步的使用深度学习的框架来很容易的构建属于自己的神经网络。我们将学习TensorFlow这个框架:

  • 初始化变量
  • 建立一个会话
  • 训练的算法
  • 实现一个神经网络

使用框架编程不仅可以节省你的写代码时间,还可以让你的优化速度更快。

1.导入TensorFlow库

  1. import numpy as np
  2. import h5py
  3. import matplotlib.pyplot as plt
  4. import tensorflow as tf
  5. from tensorflow.python.framework import ops
  6. import tf_utils
  7. import time
  8.  
  9. #%matplotlib inline #如果你使用的是jupyter notebook取消注释
  10. np.random.seed()

2.说明TensorFlow代码的实现流程

对于Tensorflow的代码实现而言,实现代码的结构如下:

  1. 创建Tensorflow变量(此时,尚未直接计算)

  2. 实现Tensorflow变量之间的操作定义

  3. 初始化Tensorflow变量

  4. 创建Session

  5. 运行Session,此时,之前编写操作都会在这一步运行。

1)所以举例如果要计算损失函数:

实现流程为:

  1. #首先创建变量,这里设置了常量
  2. y_hat = tf.constant(,name="y_hat") #定义y_hat为固定值36
  3. y = tf.constant(,name="y") #定义y为固定值39
  4.  
  5. #实现变量之间的操作定义,即损失函数的计算
  6. loss = tf.Variable((y-y_hat)**,name="loss" ) #为损失函数创建一个变量
  7.  
  8. #声明变量的初始化操作
  9. init = tf.global_variables_initializer() #运行之后的初始化(session.run(init))
  10.  
  11. #创建session,并打印输出
  12. #损失变量将被初始化并准备计算
  13. with tf.Session() as session:
  14. #初始化变量
  15. session.run(init)
  16. #运行session,这样之前定义的变量间的操作都会在这里运行,打印损失值
  17. print(session.run(loss))

返回9

查看初始化和运行前后变量的变化:

  1. #首先创建变量
  2. y_hat = tf.constant(,name="y_hat") #定义y_hat为固定值36
  3. y = tf.constant(,name="y") #定义y为固定值39
  4.  
  5. #实现变量之间的操作定义,即损失函数的计算
  6. loss = tf.Variable((y-y_hat)**,name="loss" ) #为损失函数创建一个变量
  7. print(y_hat)
  8. print(y)
  9. print(loss)
  10.  
  11. #声明变量的初始化操作
  12. init = tf.global_variables_initializer() #运行之后的初始化(session.run(init))
  13.  
  14. #创建session,并打印输出
  15. #损失变量将被初始化并准备计算
  16. with tf.Session() as session:
  17. #初始化变量
  18. session.run(init)
  19. print(y_hat)
  20. print(y)
  21. print(loss)
  22. #运行session,这样之前定义的变量间的操作都会在这里运行,打印损失值
  23. print(session.run(loss))
  24. print(y_hat)
  25. print(y)

返回:

  1. Tensor("y_hat_2:0", shape=(), dtype=int32)
  2. Tensor("y_2:0", shape=(), dtype=int32)
  3. <tf.Variable 'loss_2:0' shape=() dtype=int32_ref>
  4. Tensor("y_hat_2:0", shape=(), dtype=int32)
  5. Tensor("y_2:0", shape=(), dtype=int32)
  6. <tf.Variable 'loss_2:0' shape=() dtype=int32_ref>
  7.  
  8. Tensor("y_hat_2:0", shape=(), dtype=int32)
  9. Tensor("y_2:0", shape=(), dtype=int32)

再运行一遍,可见版本号会变:

  1. Tensor("y_hat_3:0", shape=(), dtype=int32)
  2. Tensor("y_3:0", shape=(), dtype=int32)
  3. <tf.Variable 'loss_3:0' shape=() dtype=int32_ref>
  4. Tensor("y_hat_3:0", shape=(), dtype=int32)
  5. Tensor("y_3:0", shape=(), dtype=int32)
  6. <tf.Variable 'loss_3:0' shape=() dtype=int32_ref>
  7.  
  8. Tensor("y_hat_3:0", shape=(), dtype=int32)
  9. Tensor("y_3:0", shape=(), dtype=int32)

如果注释掉初始化就会报错:

  1. #首先创建变量
  2. y_hat = tf.constant(,name="y_hat") #定义y_hat为固定值36
  3. y = tf.constant(,name="y") #定义y为固定值39
  4.  
  5. #实现变量之间的操作定义,即损失函数的计算
  6. loss = tf.Variable((y-y_hat)**,name="loss" ) #为损失函数创建一个变量
  7. print(y_hat)
  8. print(y)
  9. print(loss)
  10.  
  11. #声明变量的初始化操作
  12. #init = tf.global_variables_initializer() #运行之后的初始化(session.run(init))
  13.  
  14. #创建session,并打印输出
  15. #损失变量将被初始化并准备计算
  16. with tf.Session() as session:
  17. #初始化变量
  18. #session.run(init)
  19. #运行session,这样之前定义的变量间的操作都会在这里运行,打印损失值
  20. print(session.run(loss))
  21. print(y_hat)
  22. print(y)

返回:

  1. Tensor("y_hat_5:0", shape=(), dtype=int32)
  2. Tensor("y_5:0", shape=(), dtype=int32)
  3. <tf.Variable 'loss_5:0' shape=() dtype=int32_ref>
  4. ...
  5. FailedPreconditionError: Attempting to use uninitialized value loss_5
  6. [[{{node _retval_loss_5_0_0}} = _Retval[T=DT_INT32, index=, _device="/job:localhost/replica:0/task:0/device:CPU:0"](loss_5)]]

因此,当我们为损失函数创建一个变量时,我们简单地将损失定义为其他数量的函数,但没有评估它的价值。

为了评估它,我们需要运行init=tf.global_variables_initializer(),初始化损失变量,在最后一行,我们最后能够评估损失的值并打印它的值。

所以init=tf.global_variables_initializer()的作用对应的是声明为变量的损失函数loss = tf.Variable((y-y_hat)**2,name="loss" )

2)另外一个更简单的函数

  1. #创建变量
  2. a = tf.constant()
  3. b = tf.constant()
  4. #实现变量之间的操作定义
  5. c = tf.multiply(a,b)
  6.  
  7. print(c)

返回:

  1. Tensor("Mul:0", shape=(), dtype=int32)

正如预料中一样,我们并没有看到结果20,不过我们得到了一个Tensor类型的变量,没有维度,数字类型为int32。我们之前所做的一切都只是把这些东西放到了一个“计算图(computation graph)”中,而我们还没有开始运行这个计算图,为了实际计算这两个数字,我们需要创建一个会话并运行它:

  1. #创建会话
  2. sess = tf.Session()
  3. #使用会话运行操作
  4. print(sess.run(c)) #返回20

⚠️因为这里没有声明变量,所以不用使用init=tf.global_variables_initializer()来初始化变量

总结一下,记得初始化变量,然后创建一个session来运行它。

3.会话

可以使用两种方法来创建并使用session
方法一:

  1. sess = tf.Session()
  2. result = sess.run(...,feed_dict = {...})
  3. sess.close()

方法二:

  1. with tf.Session as sess:
  2. result = sess.run(...,feed_dict = {...})

4.占位符(placeholder)

占位符是一个对象,它的值只能在稍后指定,要指定占位符的值,可以使用一个feed_dict变量来传入,接下来,我们为x创建一个占位符,这将允许我们在稍后运行会话时传入一个数字。

  1. #利用feed_dict来改变x的值
  2.  
  3. x = tf.placeholder(tf.int64,name="x")
  4. print(x)
  5. print(sess.run( * x,feed_dict={x:}))
  6. sess.close()

返回:

  1. Tensor("x:0", dtype=int64)

当我们第一次定义x时,我们不必为它指定一个值。 占位符只是一个变量,我们会在运行会话时将数据分配给它。

5.线性函数
让我们通过计算以下等式来开始编程:Y=WX+b,W和X是随机矩阵,b是随机向量。
我们计算WX+b,其中W,X和b是从随机正态分布中抽取的。 W的维度是(4,3),X是(3,1),b是(4,1)。

我们开始定义一个shape=(3,1)的常量X:

  1. X = tf.constant(np.random.randn(,), name = "X")

代码:

  1. def linear_function():
  2. """
  3. 实现一个线性功能:
  4. 初始化W,类型为tensor的随机变量,维度为(,)
  5. 初始化X,类型为tensor的随机变量,维度为(,)
  6. 初始化b,类型为tensor的随机变量,维度为(,)
  7. 返回:
  8. result - 运行了session后的结果,运行的是Y = WX + b
  9.  
  10. """
  11.  
  12. np.random.seed() #指定随机种子
  13.  
  14. X = np.random.randn(,)
  15. W = np.random.randn(,)
  16. b = np.random.randn(,)
  17.  
  18. Y = tf.add(tf.matmul(W,X),b) #tf.matmul是矩阵乘法
  19. #Y = tf.matmul(W,X) + b #也可以以写成这样子
  20.  
  21. #创建一个session并运行它
  22. sess = tf.Session()
  23. result = sess.run(Y)
  24.  
  25. #session使用完毕,关闭它
  26. sess.close()
  27.  
  28. return result

测试:

  1. print("result = " + str(linear_function()))

返回:

  1. result = [[-2.15657382]
  2. [ 2.95891446]
  3. [-1.08926781]
  4. [-0.84538042]]

6.计算sigmoid函数

TensorFlow提供了多种常用的神经网络的函数比如tf.softmax和 tf.sigmoid

我们将使用占位符变量x,当运行这个session的时候,我们西药使用使用feed_dict来输入z,我们将创建占位符变量x,使用tf.sigmoid来定义操作,最后运行session,我们会用到下面的代码:

  • tf.placeholder(tf.float32, name = “x”)
  • sigmoid = tf.sigmoid(x)
  • sess.run(sigmoid, feed_dict = {x: z})

实现:

  1. def sigmoid(z):
  2. """
  3. 实现使用sigmoid函数计算z
  4.  
  5. 参数:
  6. z - 输入的值,标量或矢量
  7.  
  8. 返回:
  9. result - 用sigmoid计算z的值
  10.  
  11. """
  12.  
  13. #创建一个占位符x,名字叫“x”
  14. x = tf.placeholder(tf.float32,name="x")
  15.  
  16. #计算sigmoid(z)
  17. sigmoid = tf.sigmoid(x)
  18.  
  19. #创建一个会话,使用方法二
  20. with tf.Session() as sess:
  21. result = sess.run(sigmoid,feed_dict={x:z})
  22.  
  23. return result

测试:

  1. print ("sigmoid(0) = " + str(sigmoid()))
  2. print ("sigmoid(12) = " + str(sigmoid()))

返回:

  1. sigmoid() = 0.5
  2. sigmoid() = 0.9999938

7.计算成本函数

还可以使用内置函数计算神经网络的成本。因此,不需要编写代码来计算成本函数的 a[2](i)
和 y(i),如:

tensorflow提供了用来计算成本的函数:

  1. tf.nn.sigmoid_cross_entropy_with_logits(logits = ..., labels = ...)

logits:前向传播的结果AL,如果使用的是softmax,这里传入的是ZL

labels:真正的结果Y

8.使用独热编码(0,1编码)

很多时候在深度学习中y向量的维度是从0到C−1的,C是指分类的类别数量,如果C=4,那么对y而言你可能需要有以下的转换方式:

这叫做独热编码(”one hot” encoding),因为在转换后的表示中,每列的一个元素是“hot”(意思是设置为1)。 要在numpy中进行这种转换,您可能需要编写几行代码。 在tensorflow中,只需要使用一行代码:

  1. tf.one_hot(labels,depth,axis)

下面我们要做的是取一个标签矢量(即图片的判断结果)和C类总数,返回一个独热编码。

  1. def one_hot_matrix(lables,C):
  2. """
  3. 创建一个矩阵,其中第i行对应第i个类号,第j列对应第j个训练样本
  4. 所以如果第j个样本对应着第i个标签,那么entry (i,j)将会是1
  5.  
  6. 参数:
  7. lables - 标签向量
  8. C - 分类数
  9.  
  10. 返回:
  11. one_hot - 独热矩阵
  12.  
  13. """
  14.  
  15. #创建一个tf.constant,赋值为C,名字叫C
  16. C = tf.constant(C,name="C")
  17.  
  18. #使用tf.one_hot,注意一下axis
  19. one_hot_matrix = tf.one_hot(indices=lables , depth=C , axis=)
  20.  
  21. #创建一个session
  22. sess = tf.Session()
  23.  
  24. #运行session
  25. one_hot = sess.run(one_hot_matrix)
  26.  
  27. #关闭session
  28. sess.close()
  29.  
  30. return one_hot

测试:

  1. labels = np.array([,,,,,])
  2. one_hot = one_hot_matrix(labels,C=)
  3. print(str(one_hot))

返回:

  1. [[. . . . . .]
  2. [. . . . . .]
  3. [. . . . . .]
  4. [. . . . . .]]

9.初始化参数

学习如何用0或者1初始化一个向量,我们要用到tf.ones()tf.zeros(),给定这些函数一个维度值那么它们将会返回全是1或0的满足条件的向量/矩阵,我们来看看怎样实现它们:

  1. def ones(shape):
  2. """
  3. 创建一个维度为shape的变量,其值全为1
  4.  
  5. 参数:
  6. shape - 你要创建的数组的维度
  7.  
  8. 返回:
  9. ones - 只包含1的数组
  10. """
  11.  
  12. #使用tf.ones()
  13. ones = tf.ones(shape)
  14.  
  15. #创建会话
  16. sess = tf.Session()
  17.  
  18. #运行会话
  19. ones = sess.run(ones)
  20.  
  21. #关闭会话
  22. sess.close()
  23.  
  24. return ones

测试:

  1. print ("ones = " + str(ones([])))

返回:

  1. ones = [. . .]

吴恩达课后作业学习2-week3-tensorflow learning-1-基本概念的更多相关文章

  1. 吴恩达课后作业学习1-week4-homework-two-hidden-layer -1

    参考:https://blog.csdn.net/u013733326/article/details/79767169 希望大家直接到上面的网址去查看代码,下面是本人的笔记 两层神经网络,和吴恩达课 ...

  2. 吴恩达课后作业学习1-week4-homework-multi-hidden-layer -2

    参考:https://blog.csdn.net/u013733326/article/details/79767169 希望大家直接到上面的网址去查看代码,下面是本人的笔记 实现多层神经网络 1.准 ...

  3. 吴恩达课后作业学习2-week1-1 初始化

    参考:https://blog.csdn.net/u013733326/article/details/79847918 希望大家直接到上面的网址去查看代码,下面是本人的笔记 初始化.正则化.梯度校验 ...

  4. 吴恩达课后作业学习2-week1-2正则化

    参考:https://blog.csdn.net/u013733326/article/details/79847918 希望大家直接到上面的网址去查看代码,下面是本人的笔记 4.正则化 1)加载数据 ...

  5. 吴恩达课后作业学习1-week2-homework-logistic

    参考:https://blog.csdn.net/u013733326/article/details/79639509 希望大家直接到上面的网址去查看代码,下面是本人的笔记 搭建一个能够 “识别猫” ...

  6. 吴恩达课后作业学习1-week3-homework-one-hidden-layer

    参考:https://blog.csdn.net/u013733326/article/details/79702148 希望大家直接到上面的网址去查看代码,下面是本人的笔记 建立一个带有隐藏层的神经 ...

  7. 吴恩达课后作业学习2-week2-优化算法

    参考:https://blog.csdn.net/u013733326/article/details/79907419 希望大家直接到上面的网址去查看代码,下面是本人的笔记 我们需要做以下几件事:  ...

  8. 吴恩达课后作业学习2-week3-tensorflow learning-1-例子学习

    参考:https://blog.csdn.net/u013733326/article/details/79971488 使用TensorFlow构建你的第一个神经网络 我们将会使用TensorFlo ...

  9. 吴恩达课后作业学习2-week1-3梯度校验

    参考:https://blog.csdn.net/u013733326/article/details/79847918 希望大家直接到上面的网址去查看代码,下面是本人的笔记 5.梯度校验 在我们执行 ...

随机推荐

  1. express入门

    (1)express的安装 $ npm install express 或者 $ npm install -g express 或者 $ npm install express -gd 备注: -g ...

  2. 网页导航栏 html + css的代码实现

    一般来讲,我们的网页导航栏是这么个模式来构建在结构上:1.首先我们需要给导航栏的div 给个类名 一般为nav2.然后就是一个无序表格 3.由于导航栏的文字一般都是链接用来跳转页面 要在li里面包含一 ...

  3. SQL分组函数

    分组函数是对表中的多行进行操作,而每组返回一个计算结果.常用的分组函数包括: 函数 语法格式 函数描述以及注意事项 AVG AVG([distinct|all] expr) 返回一个数字列或计算列的平 ...

  4. ViewPager结合Fragment进行无限滑动

    实现ViewPager结合Fragment实现无限循环切换,这里也是在适配器里面进行的,当然使用滑动监听也能够实现 import android.support.v4.app.Fragment; im ...

  5. 轻松搭建Xposed Hook

    0x2.导入xposed库文件XposedBridgeApi-XX.jar,将库文件放在app/lib目录下,自己创建一个lib目录,别放在libs目录下,否则会出错,然后导入库,修改 Scope 为 ...

  6. 章节二、2-String 引用数据类型-字符串类

    一.创建String(字符串对象)的两种方式 1.String str1 = "nihao"("nihao"值存储在常量值中) 2.String str2 = ...

  7. 轻量简单好用的C++JSON库CJsonObject

    1. JSON概述 JSON: JavaScript 对象表示法( JavaScript Object Notation) .是一种轻量级的数据交换格式. 它基于ECMAScript的一个子集.许多编 ...

  8. Java中线程的同步问题

    在生活中我们时常会遇到同步的问题,而且大多数的实际问题都是线程的同步问题 我这里以生活中的火车售票来进行举例: 假设现在我们总共有1000张票要进行出售,共有10个出售点,那么当售票到最后只有一张票时 ...

  9. jQuery设置元素的readonly和disabled属性

    jQuery的api中提供了对元素应用disabled和readonly属性的方法,如下: 1.readonly    $('input').attr("readonly",&qu ...

  10. PAT乙级题:1003我要通过!

    #include <iostream> #include <string> #include <vector> #include <algorithm> ...