BP神经网络实现

以3层网络为例,Python实现;

1.代码框架

主要函数:

  1. Init函数:设定InputLayer nodes、HiddenLayer nodes、OutputLayer nodes数量,网络链接权重和学习率;
  2. Training函数:学习训练集体样本并优化权重;
  3. Query函数:给定输入,输出节点答案;

2.代码实现

2.1 Init函数

创建neuralNetwork类,在该类中通过__init__()函数实现数据初始化,当实例化neuralNetwork类时(即创建对象)会自动调用初始化函数;

class neuralNetwork:
#initialise the neural network
def __init__(self, inputnodes, hiddennodes, outputnodes, learningrate):
self.inodes = inputnodes
self.hnodes = hiddennodes
self.onodes = outputnodes self.wih = numpy.random.normal(0.0, pow(self.hnodes, -0.5),(self.hnodes, self.inodes))
self.who = numpy.random.normal(0.0, pow(self.onodes, -0.5),(self.onodes, self.hnodes))
#Learning rate
self.lr = learningrate
self.actication_function = lambda x:scipy.special.expit(x)
pass

输入层到隐藏层的权重初值,根据X=W*I知道,矩阵W的大小是[hidden nodes,input nodes],只有这样对应的X大小才是hidden nodes的大小,大小确定后,在定义矩阵时对号入座即可;

根据经验取权重值大小为1/√节点数 ,在结合numpy的正态分布函数即可;

得到两组链路权重:

self.wih = numpy.random.normal(0.0, pow(self.hnodes, -0.5),(self.hnodes, self.inodes))
self.who = numpy.random.normal(0.0, pow(self.onodes, -0.5),(self.onodes, self.hnodes))

2.2 训练函数

    def train(self, inputs_list, targets_list):
#转置由行变成列
inputs = numpy.array(inputs_list, ndmin=2).T
targets = numpy.array(targets_list, ndmin=2).T #隐藏层输入信号计算:权重计算
hidden_inputs = numpy.dot(self.wih,inputs)
#隐藏层输出信号计算:S函数计算
hidden_outputs = self.actication_function(hidden_inputs) #输出层输入信号计算:权重计算
final_inputs = numpy.dot(self.who, hidden_outputs)
#输出层输出信号计算:S函数计算
final_outputs = self.actication_function(final_inputs) #输出层误差:目标值-计算值
output_errors = targets - final_outputs
#隐藏层输出误差
hidden_errors = numpy.dot(self.who.T, output_errors) #取未更新self.who计算误差
#隐藏层权重更新
self.who += self.lr*numpy.dot((output_errors*final_outputs*(1.0-final_outputs)), numpy.transpose(hidden_outputs)) #误差计算后再更新self.who
#输入层权重更新
self.wih += self.lr * numpy.dot((hidden_errors * hidden_outputs * (1.0 - hidden_outputs)),numpy.transpose(inputs))

2.3 查询函数

    def query(self, inputs_list):
inputs = numpy.array(inputs_list, ndmin=2).T
hidden_inputs = numpy.dot(self.wih,inputs) #根据训练后的权重计算输出
hidden_outputs = self.actication_function(hidden_inputs)
final_inputs = numpy.dot(self.who, hidden_outputs)#根据训练后的权重计算输出
final_outputs = self.actication_function(final_inputs)
return final_outputs

3 数字识别

取MNIST提供的训练数据100个进行学习,获得学习后的更新权重,再自己车手写一个数字进行识别;

input_nodes = 784
hidden_nodes = 100
output_nodes = 10
learning_rate = 0.3
n = neuralNetwork(input_nodes,hidden_nodes,output_nodes,learning_rate) tranining_data_file = open("F:/0_TechPath/0_ControlMind/3_NeuralNetwork/mnist_dataset/mnist_train_100.csv", 'r')
tranining_data_list = tranining_data_file.readlines()
tranining_data_file.close()
for record in tranining_data_list:
all_values = record.strip("\n").split(',', -1) inputs = numpy.array(all_values[1:], dtype=numpy.uint8)/255*0.99+0.01 #输入归一化处理
targets = numpy.zeros(output_nodes) + 0.01 #各个输出节点初值0.01
targets[int(all_values[0])] = 0.99 #对应期望节点处的目标值
n.train(inputs, targets)#调用train函数 #测试网络
fname = "F:/0_TechPath/0_ControlMind/3_NeuralNetwork/mnist_dataset/pic.png"
image = Image.open(fname)
image = image.convert('L')
width,height = image.size
img_array = image.resize((28,28))
img_arr = numpy.array(img_array)
my_image = 255-img_arr.reshape(-1,784)
image_array = numpy.array(my_image, dtype=numpy.uint8).reshape((28, 28))
scaled_input = numpy.array(my_image, dtype=numpy.uint8) / 255 * 0.99 + 0.01
values = n.query(scaled_input)
max_index1 = numpy.argmax(values)
print("I'm:",max_index1) plt.imshow(image_array, cmap='Greys', interpolation='None')
plt.show()

[BPNN]BP神经网络实现的更多相关文章

  1. [BPNN]BP神经网络概念

    BP神经网络概念 BP神经网络的计算过程: 由正向计算过程和反向计算过程组成: 正向计算过程,输入模式从输入层经隐单元层逐层处理,并转向输出层,每一层神经元的状态只影响下一层神经元的状态.如果在输出层 ...

  2. Python实现bp神经网络识别MNIST数据集

    title: "Python实现bp神经网络识别MNIST数据集" date: 2018-06-18T14:01:49+08:00 tags: [""] cat ...

  3. BP神经网络与Python实现

    人工神经网络是一种经典的机器学习模型,随着深度学习的发展神经网络模型日益完善. 联想大家熟悉的回归问题, 神经网络模型实际上是根据训练样本创造出一个多维输入多维输出的函数, 并使用该函数进行预测, 网 ...

  4. 机器学习(4):BP神经网络原理及其python实现

    BP神经网络是深度学习的重要基础,它是深度学习的重要前行算法之一,因此理解BP神经网络原理以及实现技巧非常有必要.接下来,我们对原理和实现展开讨论. 1.原理  有空再慢慢补上,请先参考老外一篇不错的 ...

  5. Python语言编写BP神经网络

    Python语言编写BP神经网络 2016年10月31日 16:42:44 ldy944758217 阅读数 3135   人工神经网络是一种经典的机器学习模型,随着深度学习的发展神经网络模型日益完善 ...

  6. JAVA实现BP神经网络算法

    工作中需要预测一个过程的时间,就想到了使用BP神经网络来进行预测. 简介 BP神经网络(Back Propagation Neural Network)是一种基于BP算法的人工神经网络,其使用BP算法 ...

  7. BP神经网络原理及python实现

    [废话外传]:终于要讲神经网络了,这个让我踏进机器学习大门,让我读研,改变我人生命运的四个字!话说那么一天,我在乱点百度,看到了这样的内容: 看到这么高大上,这么牛逼的定义,怎么能不让我这个技术宅男心 ...

  8. BP神经网络

    秋招刚结束,这俩月没事就学习下斯坦福大学公开课,想学习一下深度学习(这年头不会DL,都不敢说自己懂机器学习),目前学到了神经网络部分,学习起来有点吃力,把之前学的BP(back-progagation ...

  9. 数据挖掘系列(9)——BP神经网络算法与实践

    神经网络曾经很火,有过一段低迷期,现在因为深度学习的原因继续火起来了.神经网络有很多种:前向传输网络.反向传输网络.递归神经网络.卷积神经网络等.本文介绍基本的反向传输神经网络(Backpropaga ...

随机推荐

  1. MonkeyRunner Mac环境 录制脚本和回放 批量回放

    1.MonkeyRunner是AndroidSDK自带的一个东西,在SDK目录中的tools\bin文件夹中 2.配置环境变量 编辑环境变量:打开终端输入:open ~/.bash_profile 将 ...

  2. OpenCV离散傅里叶变换

    离散傅里叶变换 作用:得到图像中几何结构信息 结论:傅里叶变换后的白色部分(即幅度较大的低频部分),表示的是图像中慢变化的特性,或者说是灰度变化缓慢的特性(低频部分). 傅里叶变换后的黑色部分(即幅度 ...

  3. 常见css属性

    div {            width: 100px;            height: 100px;            /* 表示行高 */            line-heigh ...

  4. python下matplotlib、numpy、pandas联合作图逐步深入分析

    1.代码1: from pandas import Series,DataFrame from numpy.random import randn import numpy as np import ...

  5. win10显示“没有有效的IP地址”

    可能你没有新建该宽带连接!!!(本人就是蠢到如此地步了_(:з)∠)_)

  6. 8.1.1 IO

    IO对象无拷贝或赋值.进行IO操作的函数通常以引用的方式传递和返回流,且该引用不能是const的 确定一个流对象是否处于良好状态的最简单的方法是将它作为一个条件来使用 while (cin >& ...

  7. 题解【洛谷P1038/CJOJ1707】[NOIP2003提高组]神经网络

    [NOIP2003]神经网络 Description 问题背景:人工神经网络( Artificial Neural Network )是一种新兴的具有自我学习能力的计算系统,在模式识别.函数逼近及贷款 ...

  8. leetcode78.子集➕90.子集2

    78子集 dfs dfs1: 和全排列的区别就是对于当前考察的索引i,全排列如果不取i,之后还要取i,所以需要一个visited数组用来记录.对于子集问题如果不取i,之后也不必再取i. 单纯递归回溯 ...

  9. 自定义php-mysqli工具增强类,支持链式调用

    <?php /*数据库访问类,支持链式访问 *function table($table):表名 *function where($where):条件 *function field(...$f ...

  10. swoole扩展怎么用

    Swoole 是 PHP 的一个扩展,可以通过 PHP 扩展的方式进行安装和启用. 本地安装 Laradock 在本地安装的话,以 Laradock 为例,需要在 laradock 目录下的 .env ...