'''
数据集:Mnist
训练集数量:60000
测试集数量:10000
------------------------------
运行结果:
正确率:81.72%(二分类) ''' import numpy as np
import time def loadData(fileName):
'''
加载Mnist数据集
:param fileName:要加载的数据集路径
:return: list形式的数据集及标记
'''
print('start to read data')
# 存放数据及标记的list
dataArr = []
labelArr = []
# 打开文件
fr = open(fileName, 'r')
# 将文件按行读取
for line in fr.readlines():
# 对每一行数据按切割福','进行切割,返回字段列表
curLine = line.strip().split(',') # Mnsit有0-9是个标记,由于是二分类任务,所以将>=5的作为1,<5为-1
if int(curLine[0]) >= 5:
labelArr.append(1)
else:
labelArr.append(-1)
# 存放标记
# [int(num) for num in curLine[1:]] -> 遍历每一行中除了以第一哥元素(标记)外将所有元素转换成int类型
# [int(num)/255 for num in curLine[1:]] -> 将所有数据除255归一化(非必须步骤,可以不归一化)
dataArr.append([int(num) / 255 for num in curLine[1:]]) # 返回data和label
return dataArr, labelArr def perceptron(dataArr, labelArr, iter=50):
'''
感知器训练过程
:param dataArr:训练集的数据 (list)
:param labelArr: 训练集的标签(list)
:param iter: 迭代次数,默认50
:return: 训练好的w和b
'''
print('start to trans')
# 将数据转换成矩阵形式(在机器学习中因为通常都是向量的运算,转换称矩阵形式方便运算)
# 转换后的数据中每一个样本的向量都是横向的
dataMat = np.mat(dataArr)
# 将标签转换成矩阵,之后转置(.T为转置)。
# 转置是因为在运算中需要单独取label中的某一个元素,如果是1xN的矩阵的话,无法用label[i]的方式读取
# 对于只有1xN的label可以不转换成矩阵,直接label[i]即可,这里转换是为了格式上的统一
labelMat = np.mat(labelArr).T
# 获取数据矩阵的大小,为m*n
m, n = np.shape(dataMat)
# 创建初始权重w,初始值全为0。
# np.shape(dataMat)的返回值为m,n -> np.shape(dataMat)[1])的值即为n,与
# 样本长度保持一致
w = np.zeros((1, np.shape(dataMat)[1]))
# 初始化偏置b为0
b = 0
# 初始化步长,也就是梯度下降过程中的n,控制梯度下降速率
h = 0.0001 # 进行iter次迭代计算
for k in range(iter):
# 对于每一个样本进行梯度下降
# 李航书中在2.3.1开头部分使用的梯度下降,是全部样本都算一遍以后,统一
# 进行一次梯度下降
# 在2.3.1的后半部分可以看到(例如公式2.6 2.7),求和符号没有了,此时用
# 的是随机梯度下降,即计算一个样本就针对该样本进行一次梯度下降。
# 两者的差异各有千秋,但较为常用的是随机梯度下降。
for i in range(m):
# 获取当前样本的向量
xi = dataMat[i]
# 获取当前样本所对应的标签
yi = labelMat[i]
# 判断是否是误分类样本
# 误分类样本特诊为: -yi(w*xi+b)>=0,详细可参考书中2.2.2小节
# 在书的公式中写的是>0,实际上如果=0,说明改点在超平面上,也是不正确的
if -1 * yi * (w * xi.T + b) >= 0:
# 对于误分类样本,进行梯度下降,更新w和b
w = w + h * yi * xi
b = b + h * yi
# 打印训练进度
print('Round %d:%d training' % (k, iter)) # 返回训练完的w、b
return w, b def accuracy(dataArr, labelArr, w, b):
'''
测试准确率
:param dataArr:测试集
:param labelArr: 测试集标签
:param w: 训练获得的权重w
:param b: 训练获得的偏置b
:return: 正确率
'''
print('start to test')
# 将数据集转换为矩阵形式方便运算
dataMat = np.mat(dataArr)
# 将label转换为矩阵并转置,详细信息参考上文perceptron中
# 对于这部分的解说
labelMat = np.mat(labelArr).T # 获取测试数据集矩阵的大小
m, n = np.shape(dataMat)
# 错误样本数计数
errorCnt = 0
# 遍历所有测试样本
for i in range(m):
# 获得单个样本向量
xi = dataMat[i]
# 获得该样本标记
yi = labelMat[i]
# 获得运算结果
result = -1 * yi * (w * xi.T + b)
# 如果-yi(w*xi+b)>=0,说明该样本被误分类,错误样本数加一
if result >= 0:
errorCnt += 1
# 正确率 = 1 - (样本分类错误数 / 样本总数)
accruRate = 1 - (errorCnt / m)
# 返回正确率
return accruRate if __name__ == '__main__':
# 获取当前时间
# 在文末同样获取当前时间,两时间差即为程序运行时间
start = time.time() # 获取训练集及标签
trainData, trainLabel = loadData('../Mnist/mnist_train.csv')
# 获取测试集及标签
testData, testLabel = loadData('../Mnist/mnist_test.csv') # 训练获得权重
w, b = perceptron(trainData, trainLabel, iter=30)
# 进行测试,获得正确率
accruRate = accuracy(testData, testLabel, w, b) # 获取当前时间,作为结束时间
end = time.time()
# 显示正确率
print('accuracy rate is:', accruRate)
# 显示用时时长
print('time span:', end - start)

程序结果

start to read data
start to read data
start to trans
Round 0:30 training
Round 1:30 training
Round 2:30 training
Round 3:30 training
Round 4:30 training
Round 5:30 training
Round 6:30 training
Round 7:30 training
Round 8:30 training
Round 9:30 training
Round 10:30 training
Round 11:30 training
Round 12:30 training
Round 13:30 training
Round 14:30 training
Round 15:30 training
Round 16:30 training
Round 17:30 training
Round 18:30 training
Round 19:30 training
Round 20:30 training
Round 21:30 training
Round 22:30 training
Round 23:30 training
Round 24:30 training
Round 25:30 training
Round 26:30 training
Round 27:30 training
Round 28:30 training
Round 29:30 training
start to test
accuracy rate is: 0.8172
time span: 2366.2143952846527

Python实现机器学习算法:感知机的更多相关文章

  1. Python实现机器学习算法:AdaBoost算法

    Python程序 ''' 数据集:Mnist 训练集数量:60000(实际使用:10000) 测试集数量:10000(实际使用:1000) 层数:40 ------------------------ ...

  2. Python实现机器学习算法:决策树算法

    ''' 数据集:Mnist 训练集数量:60000 测试集数量:10000 ------------------------------ 运行结果:ID3(未剪枝) 正确率:85.9% 运行时长:35 ...

  3. Python实现机器学习算法:EM算法

    ''' 数据集:伪造数据集(两个高斯分布混合) 数据集长度:1000 ------------------------------ 运行结果: ---------------------------- ...

  4. Python实现机器学习算法:朴素贝叶斯算法

    ''' 数据集:Mnist 训练集数量:60000 测试集数量:10000 ''' import numpy as np import time def loadData(fileName): ''' ...

  5. Python实现机器学习算法:K近邻算法

    ''' 数据集:Mnist 训练集数量:60000 测试集数量:10000(实际使用:200) ''' import numpy as np import time def loadData(file ...

  6. Python实现机器学习算法:逻辑回归

    import numpy as np import matplotlib.pyplot as plt from sklearn.datasets.samples_generator import ma ...

  7. Python实现机器学习算法:线性回归

    import numpy as np from sklearn.datasets import load_diabetes from sklearn.utils import shuffle impo ...

  8. 【python与机器学习实战】感知机和支持向量机学习笔记(一)

    对<Python与机器学习实战>一书阅读的记录,对于一些难以理解的地方查阅了资料辅以理解并补充和记录,重新梳理一下感知机和SVM的算法原理,加深记忆. 1.感知机 感知机的基本概念 感知机 ...

  9. 建模分析之机器学习算法(附python&R代码)

    0序 随着移动互联和大数据的拓展越发觉得算法以及模型在设计和开发中的重要性.不管是现在接触比较多的安全产品还是大互联网公司经常提到的人工智能产品(甚至人类2045的的智能拐点时代).都基于算法及建模来 ...

随机推荐

  1. SVM支撑向量机原理

    转自:http://blog.csdn.net/v_july_v/article/details/7624837 目录(?)[-] 支持向量机通俗导论理解SVM的三层境界 前言 第一层了解SVM 1分 ...

  2. 20165305 苏振龙《Java程序设计》第八周课上测试补做

    1. 下载附件中的world.sql.zip, 参考http://www.cnblogs.com/rocedu/p/6371315.html#SECDB,导入world.sql,提交导入成功截图 2. ...

  3. Runtime单例模式类 -- 控制电脑关机

    package demo1; import java.io.IOException; public class RunTimeDemo { public static void main(String ...

  4. Subversion1.8源码安装流程

    为了解决svnamin:Unrecognized record type in stream的问题,决定将Subversion1.7升级为Subversion1.8 Subversion1.8的源码安 ...

  5. right spindle supply short to gnd-- compact version

    hardware guy found that the R1004 lead to this error, but this error should not be checked, because ...

  6. Tensorflow学习笔记01

    Tensorflow官方网站:http://tensorflow.org/ 极客学院Tensorflow中文版:http://wiki.jikexueyuan.com/project/tensorfl ...

  7. applyColorMap()研究(如果我对现有的colormap不满意,那么如何具体来做)

    cv::applyColorMap()能够实现预定义的伪彩色,这个是众所周知的事情. 并且和matlab提供的很相近 除了这些预置的变换,如果我想实现新的变换,需要做LUT变换     cv::Mat ...

  8. KNN(K-Nearest Neighbor)介绍

    KNN(K-Nearest Neighbor)介绍 原文地址:https://www.cnblogs.com/nucdy/p/6349172.html Wikipedia上的 KNN词条 中有一个比较 ...

  9. tf.nn.relu

    tf.nn.relu(features, name = None) 这个函数的作用是计算激活函数 relu,即 max(features, 0).即将矩阵中每行的非最大值置0. import tens ...

  10. UVa Live 3942 Remember the Word - Hash - 动态规划

    题目传送门 高速路出口I 高速路出口II 题目大意 给定若干种短串,和文本串$S$,问有多少种方式可以将短串拼成长串. 显然,你需要一个动态规划. 用$f[i]$表示拼出串$S$前$i$个字符的方案数 ...