【446】Deep Learning
ref: 深度学习基础介绍 机器学习11 神经网络算法应用上
ref: 深度学习基础介绍 机器学习12 神经网络算法应用下
ref: 神经网络NN算法(应用篇)
1. 组成部分:输入层(input layer),隐藏层(hidden layer),输出层(output layer)
2. 每层由单元(units)组成(圆圈)
3. input layer 是由训练集的实例特征向量传入
4. 经过连接结点的权重(weight)传入下一层,一层的输出是下一层的输入
5. hidden layer 的个数是任意的,input layer 有一层,output layer 有一层
6. 每个 unit 也可以被称作神经结点,根据生物学来源定义
7. 以上为2层的神经网络(输入层不算)
8. 一层中加权的求和,然后根据非线性方程转化输出
9. 作为多层向前神经网络,理论上,如果有足够多的隐藏层(hidden layers)和足够大的训练集,可以模拟任何方程
设计神经网络结构
1. 使用神经网络训练数据之前,必须确定神经网络的层数,以及每层单元的个数
2. 特征向量在被传入输入层时通常被先标准化(normalize)到0和1之间(为了加速学习过程)
3. 离散型变量可以被编码成每一个输入单元对应一个特征值可能赋的值
比如:特征值A可能取三个值(a0, a1, a2),可以使用3个输入单元来代表A
- 如果 A=a0,那么代表 a0 的单元值就取1,其他取0;
- 如果 A=a1,那么代表 a1 的单元值就取1,其他取0,以此类推
4. 神经网络既可以用来做分类(classification)问题,也可以解决回归(regression)问题
- 对于分类问题,如果是2类,可以用一个输出单元表示(0和1分别代表2类)
- 如果多于2类,每一个类别用一个输出单元表示
- 所以输出层的单元数量通常等于类别的数量
- 没有明确的规则来设计最好有多少个隐藏层
- 根据实验测试和误差,以及准确度来试验并改进
5. 交叉验证方法(Cross-Validation)
K-fold cross validation
上图分成3分
- 第一次,后两个训练,第一个测试
- 第二次,两边两个驯良,中间测试
- 第三次,前两个训练,最后一个测试
6. Backpropagation 算法
6.1 通过迭代性的来处理训练集中的实例
6.2 对比经过神经网络后输入层预测值(predicted value)与真实值(target value)之间
6.3 反方向(从 输出层 => 隐藏层 => 输入层)来以最小化误差(error)来更新每个连接的权重(weight)
6.4 算法详细介绍
- 输入:D:数据集,l 学习率(learning rate),一个多层向前神经网络
- 输出:一个训练好的神经网络(a trained neural network)
- 初始化权重(weights)和偏向(bias):随机初始化在 -1 到 1 之间,或者 -0.5 到 0.5 之间,每个单元有一个偏向对于每一个训练实例 X,执行以下步骤:
6.4.1 由输入层向前传送,计算后面 units 的值
通过下面公式实现:
\[I_{j}=\sum_{i}\omega_{ij}O_{i}+\Theta_{j}\]
其中:
$i$ —— 对应前面的单元,$j$ 对应后面的单元
$\omega_{ij}$ —— 为权重
$O_{i}$ —— 为前一层的单元值
$\Theta_{j}$ —— 为偏向 bias
$I_{j}$ —— 为计算结果
公式实现如下图所示:
激活函数
$$O_{j}=\frac{1}{1+e^{-I_{j}}}$$
Sigmoid 函数,激活函数
其中:
$O_{j}$ —— 为实际的计算值
6.4.2 根据误差(error)反向传送
1) 对于输出层:(求导实现的)
$$Err_{j}=O_{j}(1-O_{j})(T_{j}-O_{j})$$
其中:
$T_{j}$ —— 为真实值
2) 对于隐藏层:(求导实现的)
$$Err_{j}=O_{j}(1-O_{j})\sum_{k}Err_k\omega_{jk}$$
其中:
$Err_k$ —— 为前面一层,相当于后面一层的误差
$\omega_{jk}$ —— 为前面一层,相当于后面一层的权重
3) 权重更新:
$$\Delta\omega_{ij}=(l)Err_{j}O_{i}$$
$$\omega_{ij}=\omega_{ij}+\Delta\omega_{ij}$$
其中:
$l$ —— 为学习率,逐渐减小,比较优化
4) 偏向更新:
$$\Delta\Theta_{j}=(l)Err_{j}$$
$$\Theta_{j}=\Theta_{j}+\Delta\Theta_{j}$$
其中:
$i$ —— 对应前面的单元,$j$ 对应后面的单元
6.4.3 终止条件
- 权重的更新低于某个阈值
- 预测的错误率低于某个阈值
- 达到预设一定的循环次数
7. 实例介绍
8. 代码实现
# Import `Sequential` from `keras.models`
from keras.models import Sequential # Import `Dense` from `keras.layers`
from keras.layers import Dense # Initialize the model
model = Sequential() # Add input layer
# 输入层的 units 为 12
# 隐藏层的 units 为 64
# 激活函数为 relu
model.add(Dense(64, input_dim=12, activation='relu'))
# or
model.add(Dense(input_dim=12, units=64, activation='relu')) # second hidden layer
model.add(Dense(units=64, activation='relu' # Add output layer
# 输出层的 units 为 10
model.add(Dense(10))
# or
model.add(Dense(units=10, activation='softmax'))
ref: Keras Tutorial: Deep Learning in Python
ref: Getting started with the Keras Sequential model
ref: Keras HelloWorld
对于上面举例的 NN,可以通过下面代码构建结构
model.add(Dense(2, input_dim=3, activation='sigmoid'))
model.add(Dense(1, activation='sigmoid'))
configuration
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
pick the best function
model.fit(x_train, y_train, batch_size=100, nb_epoch=20)
- batch_size:随机分组(多少组)(mini-batch)
batch size = 1, Stochastic gradient descent - nb_epoch:次数(重复的次数)
How to use the neural network (testing):
# case 1
score = model.evaluate(x_test, y_test)
print('Total loss on Testing Set:', score[0])
print('Accuracy of Testing Set:', score[1]) # case 2
result = model.predict(x_test)
【446】Deep Learning的更多相关文章
- 【RS】Deep Learning based Recommender System: A Survey and New Perspectives - 基于深度学习的推荐系统:调查与新视角
[论文标题]Deep Learning based Recommender System: A Survey and New Perspectives ( ACM Computing Surveys ...
- 【转载】Deep Learning(深度学习)学习笔记整理
http://blog.csdn.net/zouxy09/article/details/8775360 一.概述 Artificial Intelligence,也就是人工智能,就像长生不老和星际漫 ...
- 【转】Deep Learning(深度学习)学习笔记整理系列之(八)
十.总结与展望 1)Deep learning总结 深度学习是关于自动学习要建模的数据的潜在(隐含)分布的多层(复杂)表达的算法.换句话来说,深度学习算法自动的提取分类需要的低层次或者高层次特征. 高 ...
- 【转】Deep Learning(深度学习)学习笔记整理系列之(六)
9.3.Restricted Boltzmann Machine (RBM)限制波尔兹曼机 假设有一个二部图,每一层的节点之间没有链接,一层是可视层,即输入数据层(v),一层是隐藏层(h),如果假设所 ...
- 【转】Deep Learning(深度学习)学习笔记整理系列之(四)
九.Deep Learning的常用模型或者方法 9.1.AutoEncoder自动编码器 Deep Learning最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结 ...
- 【转】Deep Learning(深度学习)学习笔记整理系列之(三)
好了,到了这一步,终于可以聊到Deep learning了.上面我们聊到为什么会有Deep learning(让机器自动学习良好的特征,而免去人工选取过程.还有参考人的分层视觉处理系统),我们得到一个 ...
- 【转】Deep Learning(深度学习)学习笔记整理系列之(二)
因为我们要学习的是特征的表达,那么关于特征,或者说关于这个层级特征,我们需要了解地更深入点.所以在说Deep Learning之前,我们有必要再啰嗦下特征(呵呵,实际上是看到那么好的对特征的解释,不放 ...
- 【转】Deep Learning(深度学习)学习笔记整理系列之(一)
Deep Learning(深度学习)学习笔记整理系列 zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 2013-0 ...
- 【转】Deep Learning(深度学习)学习笔记整理系列之(七)
9.5.Convolutional Neural Networks卷积神经网络 卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点.它的权值共享网络结构使之更类似于生物神经网 ...
随机推荐
- MySQL/MariaDB数据库的mysqldump工具备份还原实战
MySQL/MariaDB数据库的mysqldump工具备份还原实战 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.mysqldump概述 1>.逻辑备份工具 mysq ...
- Linux代理服务器使用
1. 介绍 代理(即网络代理)是一种特殊的网络服务, 允许一个网络终端(客户端)通过这个服务与另一个终端(服务器)进行非直接连接,从而提供服务. 其中, 提供代理的网络终端称为代理服务器(Proxy ...
- Linux UART介绍
1. UART介绍 UART是一类tty设备, 是一种串行端口终端, 具体可参考<UART接口介绍>在Linux中UART属于tty驱动的一部分, 具体实现包括驱动抽象层和硬件实现层 本文 ...
- Python练习题——用列表的方法输出杨辉三角
def main(): num = int(input('请输入行数: ')) yh = [[]] * num #创建num行空列表 for row in range(len(yh)): #遍历每一行 ...
- python Thread 函数
构造方法: Thread(group=None, target=None, name=None, args=(), kwargs={}) group: 线程组,目前还没有实现,库引用中提示必须是No ...
- SOA 架构与微服务架构的区别
注重重用,微服务注重重写 SOA 的主要目的是为了企业各个系统更加容易地融合在一起. 微服务通常由重写一个模块开始.要把整个巨石型的应用重写是有很大的风险的,也不一定必要.我们向微服务迁移的时候通常从 ...
- HDU - 3644:A Chocolate Manufacturer's Problem(模拟退火, 求多边形内最大圆半径)
pro:给定一个N边形,然后给半径为R的圆,问是否可以放进去. 问题转化为多边形的最大内接圆半径.(N<50): sol:乍一看,不就是二分+半平面交验证是否有核的板子题吗. 然而事情并没有那 ...
- 查看mysql执行时间
mysql的 profiling不是默认打开的 查看profiling是否找开 mysql> show variables like "%pro%"; +---------- ...
- LeetCode(数据库):分数排名
,)); Truncate table Scores; ', '3.5'); ', '3.65'); ', '4.0'); ', '3.85'); ', '4.0'); ', '3.65'); 编写一 ...
- SQL Server 父子迭代查询语句,树状查询
这个也有用: -- Get childs by parent idWITH TreeAS( SELECT Id,ParentId FROM dbo.Node P WHERE P.Id = 21 -- ...