1.为什么还会有RNN?

CNN(卷积神经网络)我们会发现, 他们的输出都是只考虑前一个输入的影响而不考虑其它时刻输入的影响, 比如简单的猫,狗,手写数字等单个物体的识别具有较好的效果. 但是, 对于一些与时间先后有关的, 比如视频的下一时刻的预测,文档前后文内容的预测等, 这些算法的表现就不尽如人意了.因此, RNN就应运而生了

2.什么是RNN?

RNN是一种特殊的神经网络结构, 它是根据"人的认知是基于过往的经验和记忆"这一观点提出的. 它与DNN,CNN不同的是: 它不仅考虑前一时刻的输入,而且赋予了网络对前面的内容的一种'记忆'功能

RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出

3.RNN的主要应用领域

  • 自然语言处理(NLP):主要有视频处理,文本生成,语言模型,图像处理
  • 机器翻译,机器写小说
  • 语音识别
  • 图像描述生成
  • 文本相似度计算
  • 音乐推荐,网易考拉商品推荐,视频推荐等等新的应用领域

4.RNN模型结构

RNN怎么实现记忆功能?

如图所示, 我们可以看到RNN层级结构较之于CNN来说比较简单, 它主要有输入层,Hidden Layer, 输出层组成.
并且会发现在Hidden Layer 有一个箭头表示数据的循环更新, 这个就是实现时间记忆功能的方法

RNN展开

如图所示为Hidden Layer的层级展开图. t-1, t, t+1表示时间序列. X表示输入的样本. St表示样本在时间t处的的记忆,St = f(W*St-1 +U*Xt). W表示输入的权重, U表示此刻输入的样本的权重, V表示输出的样本权重。

在t =1时刻, 一般初始化输入S0=0, 随机初始化W,U,V, 进行下面的公式计算

其中,f和g均为激活函数. 其中f可以是tanh,relu,sigmoid等激活函数,g通常是softmax也可以是其他

时间就向前推进,此时的状态s1作为时刻1的记忆状态将参与下一个时刻的预测活动.

依次类推,可以得到最终的输出值

注:

这里的W,U,V在每个时刻都是相等的(权重共享).
隐藏状态可以理解为: S=f(现有的输入+过去记忆总结)

5.RNN代码示例

动态RNN和静态RNN

静态RNN:

静态 rnn的意思就是按照样本时间序列个数(n_steps)展开,在图中创建(n_steps)个序列的cell。

动态RNN:

动态rnn的意思是只创建样本中的一个序列RNN,其他序列数据会通过循环进入该RNN运算通过。

区别:

静态生成的RNN网络,生成过程所需的时间会更长,网络所占有的内存会更多,导出的模型会更大。模型中会带有第个序列中间态的信息,利于调试。在使用时必须与训练的样本序列个数相同。通过动态生成的RNN网络,所占用内存较少。模型中只会有最后的状态,在使用时还能支持不同的序列个数。

  1. # 导包,加载数据,定义变量
  2. import tensorflow as tf
  3. # 流式计算图,构建第二次的时候会有内存,计算图形的时候初始化
  4. tf.reset_default_graph()
  5. import datetime # 打印时间
  6. import os # 保存文件
  7. from tensorflow.examples.tutorials.mnist import input_data
  8.  
  9. import warnings
  10. warnings.filterwarnings('ignore')
  11. # minst测试集
  12. mnist = input_data.read_data_sets('./', one_hot=True)
  13.  
  14. # 每次使用100条数据进行训练
  15. batch_size = 100
  16. # 图像向量
  17. width = 28
  18. height = 28
  19. # LSTM隐藏神经元数量
  20. rnn_size = 256
  21. # 输出层one-hot向量长度的
  22. out_size = 10
  23.  
  24. def weight_variable(shape, w_alpha=0.01):
  25. initial = w_alpha * tf.random_normal(shape)
  26. return tf.Variable(initial)
  27.  
  28. def bias_variable(shape, b_alpha=0.1):
  29. initial = b_alpha * tf.random_normal(shape)
  30. return tf.Variable(initial)
  31.  
  32. # 权重及偏置
  33. w = weight_variable([rnn_size, out_size])
  34. b = bias_variable([out_size])
  35.  
  36. # 将数据转化成RNN要求的数据
  37. # 按照图片大小申请占位符
  38. X = tf.placeholder(tf.float32, [None, height, width])
  39. # 原排列[0,1,2]transpose为[1,0,2]代表前两维装置,如shape=(1,2,3)转为shape=(2,1,3)
  40. # 这里的实际意义是把所有图像向量的相同行号向量转到一起,如x1的第一行与x2的第一行
  41. x = tf.transpose(X, [1, 0, 2])
  42. # reshape -1 代表自适应,这里按照图像每一列的长度为reshape后的列长度
  43. x = tf.reshape(x, [-1, width])
  44. # split默任在第一维即0 dimension进行分割,分割成height份,这里实际指把所有图片向量按对应行号进行重组
  45. x = tf.split(x, height)
  46.  
  47. # 构建神经网络
  48. # LSTM
  49. lstm_cell = tf.nn.rnn_cell.BasicLSTMCell(rnn_size)
  50. # 这里RNN会有与输入层相同数量的输出层,我们只需要最后一个输出
  51. outputs, status = tf.nn.static_rnn(lstm_cell, x, dtype=tf.float32)
  52.  
  53. y_conv = tf.add(tf.matmul(outputs[-1], w), b)
  54. # 最小化损失优化
  55. Y = tf.placeholder(dtype=tf.float32,shape = [None,10])
  56. loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=y_conv, labels=Y))
  57. optimizer = tf.train.AdamOptimizer(0.01).minimize(loss)
  58. # 偏差 准确率
  59. correct = tf.equal(tf.argmax(y_conv, 1), tf.argmax(Y, 1))
  60. accuracy = tf.reduce_mean(tf.cast(correct, tf.float32))
  61.  
  62. # 模型训练
  63. # 启动会话.开始训练
  64. saver = tf.train.Saver()
  65. session = tf.Session()
  66. session.run(tf.global_variables_initializer())
  67. step = 0
  68. acc_rate = 0.90
  69. while 1:
  70. batch_x, batch_y = mnist.train.next_batch(batch_size)
  71. batch_x = batch_x.reshape((batch_size, height, width))
  72. session.run(optimizer, feed_dict={X:batch_x,Y:batch_y})
  73. # 每训练10次测试一次
  74. if step % 10 == 0:
  75. batch_x_test = mnist.test.images
  76. batch_y_test = mnist.test.labels
  77. batch_x_test = batch_x_test.reshape([-1, height, width])
  78. acc = session.run(accuracy, feed_dict={X: batch_x_test, Y: batch_y_test})
  79. print(datetime.datetime.now().strftime('%c'), ' step:', step, ' accuracy:', acc)
  80. # 偏差满足要求,保存模型
  81. if acc >= acc_rate:
  82. model_path = os.getcwd() + os.sep + str(acc_rate) + "mnist.model"
  83. saver.save(session, model_path, global_step=step)
  84. break
  85. step += 1
  86. session.close()

静态RNN

  1. import tensorflow as tf
  2. tf.reset_default_graph()
  3. from tensorflow.examples.tutorials.mnist import input_data
  4.  
  5. # 载入数据
  6. mnist = input_data.read_data_sets("./", one_hot=True)
  7.  
  8. # 输入图片是28
  9. n_input = 28
  10. max_time = 28
  11. lstm_size = 100 # 隐藏单元
  12. n_class = 10 # 10个分类
  13. batch_size = 50 # 每次50个样本
  14. n_batch_size = mnist.train.num_examples // batch_size # 计算一共有多少批次
  15.  
  16. # 这里None表示第一个维度可以是任意长度
  17. # 创建占位符
  18. x = tf.placeholder(tf.float32,[None, 28*28])
  19. # 正确的标签
  20. y = tf.placeholder(tf.float32,[None, 10])
  21.  
  22. # 初始化权重 ,stddev为标准差 truncated_normal 裁剪过得正太分布,去掉特别大和特别小的值
  23. weight = tf.Variable(tf.truncated_normal([lstm_size, n_class], stddev=0.1))
  24. # 初始化偏置层
  25. biases = tf.Variable(tf.constant(0.1, shape=[n_class]))
  26.  
  27. # 定义RNN网络
  28. def RNN(X, weights, biases):
  29. # 原始数据为[batch_size,28*28]
  30. # input = [batch_size, max_time, n_input]
  31. input = tf.reshape(X,[-1, max_time, n_input])
  32. # 定义LSTM的基本单元
  33. # lstm_cell = tf.contrib.rnn.BasicLSTMCell(lstm_size)
  34. lstm_cell = tf.nn.rnn_cell.BasicLSTMCell(lstm_size)
  35. # final_state[0] 是cell state
  36. # final_state[1] 是hidden stat
  37. outputs, final_state = tf.nn.dynamic_rnn(lstm_cell, input, dtype=tf.float32)
  38. display(final_state)
  39. results = tf.nn.softmax(tf.matmul(final_state[1],weights)+biases)
  40. return results
  41.  
  42. # 计算RNN的返回结果
  43. prediction = RNN(x, weight, biases)
  44. # 损失函数
  45. loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=prediction, labels=y))
  46. # 使用AdamOptimizer进行优化
  47. train_step = tf.train.AdamOptimizer(1e-4).minimize(loss)
  48. # 将结果存下来
  49. correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(prediction, 1))
  50. # 计算正确率
  51. accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
  52.  
  53. with tf.Session() as sess:
  54. sess.run(tf.global_variables_initializer())
  55. for epoch in range(6):
  56. for batch in range(n_batch_size):
  57. # 取出下一批次数据
  58. batch_xs,batch_ys = mnist.train.next_batch(batch_size)
  59. sess.run(train_step, feed_dict={x: batch_xs,y: batch_ys})
  60. if(batch%100==0):
  61. print(str(batch)+"/" + str(n_batch_size))
  62. acc = sess.run(accuracy, feed_dict={x: mnist.test.images, y: mnist.test.labels})
  63. print("Iter" + str(epoch) + " ,Testing Accuracy = " + str(acc))

动态RNN

RNN循环神经网络的更多相关文章

  1. CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?

    https://www.zhihu.com/question/34681168 CNN(卷积神经网络).RNN(循环神经网络).DNN(深度神经网络)的内部网络结构有什么区别?修改 CNN(卷积神经网 ...

  2. Recurrent Neural Networks(RNN) 循环神经网络初探

    1. 针对机器学习/深度神经网络“记忆能力”的讨论 0x1:数据规律的本质是能代表此类数据的通用模式 - 数据挖掘的本质是在进行模式提取 数据的本质是存储信息的介质,而模式(pattern)是信息的一 ...

  3. CNN(卷积神经网络)、RNN(循环神经网络)、DNN,LSTM

    http://cs231n.github.io/neural-networks-1 https://arxiv.org/pdf/1603.07285.pdf https://adeshpande3.g ...

  4. TensorFlow框架(6)之RNN循环神经网络详解

    1. RNN循环神经网络 1.1 结构 循环神经网络(recurrent neural network,RNN)源自于1982年由Saratha Sathasivam 提出的霍普菲尔德网络.RNN的主 ...

  5. Keras(四)CNN 卷积神经网络 RNN 循环神经网络 原理及实例

    CNN 卷积神经网络 卷积 池化 https://www.cnblogs.com/peng8098/p/nlp_16.html 中有介绍 以数据集MNIST构建一个卷积神经网路 from keras. ...

  6. 关于 RNN 循环神经网络的反向传播求导

    关于 RNN 循环神经网络的反向传播求导 本文是对 RNN 循环神经网络中的每一个神经元进行反向传播求导的数学推导过程,下面还使用 PyTorch 对导数公式进行编程求证. RNN 神经网络架构 一个 ...

  7. 4.5 RNN循环神经网络(recurrent neural network)

     自己开发了一个股票智能分析软件,功能很强大,需要的点击下面的链接获取: https://www.cnblogs.com/bclshuai/p/11380657.html 1.1  RNN循环神经网络 ...

  8. 神经网络6_CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)概念区分理解

    sklearn实战-乳腺癌细胞数据挖掘(博客主亲自录制视频教程,QQ:231469242) https://study.163.com/course/introduction.htm?courseId ...

  9. CNN(卷积神经网络)、RNN(循环神经网络)和DNN(深度神经网络)

    本文转载修改自:知乎-科言君 感知机(perceptron) 神经网络技术起源于上世纪五.六十年代,当时叫感知机(perceptron),拥有输入层.输出层和一个隐含层.输入的特征向量通过隐含层变换达 ...

  10. RNN循环神经网络学习——概述

    循环神经网络(Recurrent Neural NetWork,RNN)是一种将节点定向连接成环的人工神经网络,其内部状态可以展示动态时序行为. 循环神经网络的主要用途是处理和预测序列数据.循环神经网 ...

随机推荐

  1. 【Oracle】Oracle ASM管理监控命令

    目录 Oracle ASM管理监控命令 目的: 1.查看磁盘组 2.查看目前归档 3.查看ASM的磁盘路径 4. asmcmd Oracle ASM管理监控命令 目的: 查看目前Oracle ASM相 ...

  2. c#关于数据和方法在不同类中的引用-xdd

    关于数据和方法在不同类中的引用 using System; using System.Collections.Generic; using System.Linq; using System.Text ...

  3. es3设置属性不能修改

    /*es3*/ { var Person =function () { var data ={ name:'zs', sex:'男', age:18 } this.get=function (key) ...

  4. 2019牛客暑期多校训练营(第二场)J.Subarray

    题意:给你一个n 表示有n段连续的1序列 现在问你 在总长度为0~1e9-1的范围内有多少个大于0的子段 思路:假设我们统计了当前的前缀和 我们显然可以用树状数组维护一下前缀和 这样我们可以nlogn ...

  5. ES集群操作原理

    路由 当你索引一个文档,它被存储在单独一个主分片上.Elasticsearch 是如何知道文档属于哪个分片的呢?当你创建一个新文档,它是如何知道是应该存储在分片 1 还是分片 2 上的呢? 进程不能是 ...

  6. Maven设置http代理

    背景:有时候公司处于安全因素的考虑,需要通过代理访问因特网,这种情况需要为Maven设置htpp代理 设置步骤如下: 1 首先确认自己无法访问外网公共的中央仓库(可通过ping repo1.maven ...

  7. Dockerfile构建私有镜像

    构建第一个镜像 镜像的定制实际上就是定制每一层所添加的配置,文件.我们可以把每一层修改,安装,构建,操作的命令都写入一个脚本,这个脚本就是Dockerfile.Dockerfile是一个文本文件,其内 ...

  8. centos 7 MysSQL 5.7.23 源码安装

    MySQL 5.7.23 源码安装 CentOS 7 将默认数据库MySQL替换成了Mariadb. 这里会从系统的环境准备开始一步一步安装. 环境准备 系统版本 内核版本 IP地址 Centos 7 ...

  9. PHP 获取服务器详细信息的原生方法

    获取系统类型及版本号:    php_uname()     (例:Windows NT PCA15130 6.1 build 7601 (Windows 7 Ultimate Edition Ser ...

  10. fsockopen以Socket方式模拟HTTP下载文件

    fsockopen 的功能很强大,比如前面模拟 HTTP 访问,模拟 POST/GET 请求,什么的,这里再举一个例子,那就是下载东西.比如下载 http://www.nowamagic.net//l ...