一、梯度下降算法理论知识

我们给出一组房子面积,卧室数目以及对应房价数据,如何从数据中找到房价y与面积x1和卧室数目x2的关系?

 

为了实现监督学习,我们选择采用自变量x1、x2的线性函数来评估因变量y值,得到:

 

这里,sita1、sita2代表自变量x1、x2的权重(weights),sita0代表偏移量。为了方便,我们将评估值写作h(x),令x0=1,则h(x)可以写作:

 

其中n为输入样本数的数量。为了得到weights的值,我们需要令我们目前的样本数据评估出的h(x)尽可能的接近真实y值。我们定义误差函数(cost function)来表示h(x)和y值相接近的程度:

 

这里的系数1/2是为了后面求解偏导数时可以与系数相互抵消。我们的目的是要误差函数尽可能的小,即求解weights使误差函数尽可能小。首先,我们随机初始化weigths,然后不断反复的更新weights使得误差函数减小,直到满足要求时停止。这里更新算法我们选择梯度下降算法,利用初始化的weights并且反复更新weights:

 

这里a代表学习率,表示每次向着J最陡峭的方向迈步的大小。为了更新weights,我们需要求出函数J的偏导数。首先计算只有一个数据样本(x,y)时,如何计算J的偏导数:

 

对于只含有一组数据的训练样本,我们可以得到更新weights的规则为:

 

扩展到多组数据样本,更新公式为:

 

称为批处理梯度下降算法,这种更新算法所需要的运算成本很高,尤其是数据量较大时。考虑下面的更新算法:

 

该算法又叫做随机梯度下降法,这种算法不停的更新weights,每次使用一个样本数据进行更新。当数据量较大时,一般使用后者算法进行更新。

二、梯度下降Python实现

自己创建了一组数据,存为csv格式,如下图所示:

 

待训练数据A、B为自变量,C为因变量。
在写程序之前,要先导入我们需要的模块。

  1. import numpy as np
  2. from numpy import genfromtxt

首先将数据读入Python中,程序如下所示:

  1. dataPath = r"E:\learning\house.csv"
  2. dataSet = genfromtxt(dataPath, delimiter=',')

接下来将读取的数据分别得到自变量矩阵和因变量矩阵:

  1. def getData(dataSet):
  2. m, n = np.shape(dataSet)
  3. trainData = np.ones((m, n))
  4. trainData[:,:-1] = dataSet[:,:-1]
  5. trainLabel = dataSet[:,-1]
  6. return trainData, trainLabel

这里需要注意的是,在原有自变量的基础上,需要主观添加一个均为1的偏移量,即公式中的x0。原始数据的前n-1列再加上添加的偏移量组成自变量trainData,最后一列为因变量trainLabel。
下面开始实现批处理梯度下降算法:

  1. def getData(dataSet):
  2. m, n = np.shape(dataSet)
  3. trainData = np.ones((m, n))
  4. trainData[:,:-1] = dataSet[:,:-1]
  5. trainLabel = dataSet[:,-1]
  6. return trainData, trainLabel

x为自变量训练集,y为自变量对应的因变量训练集;theta为待求解的权重值,需要事先进行初始化;alpha是学习率;m为样本总数;maxIterations为最大迭代次数;
求解权重过程,初始化batchGradientDescent函数需要的各个参数:

  1. trainData, trainLabel = getData(dataSet)
  2. m, n = np.shape(trainData)
  3. theta = np.ones(n)
  4. alpha = 0.05
  5. maxIteration = 1000

alpha和maxIterations可以更改,之后带入到batchGradientDescent中可以求出最终权重值。

  1. theta = batchGradientDescent(trainData, trainLabel, theta, alpha, m, maxIteration)

之后我们给出一组数据,需要进行预测,预测函数:

  1. def predict(x, theta):
  2. m, n = np.shape(x)
  3. xTest = np.ones((m, n+1))
  4. xTest[:, :-1] = x
  5. yPre = np.dot(xTest, theta)
  6. return yPre

x为待预测值的自变量,thta为已经求解出的权重值,yPre为预测结果
我们给出测试集

 

对该组数据进行预测,程序如下:

  1. x = np.array([[3.1, 5.5], [3.3, 5.9], [3.5, 6.3], [3.7, 6.7], [3.9, 7.1]])
  2. print predict(x, theta)

输出结果如下:

  1. [9.49608552 10.19523475 10.89438398 11.59353321 12.29268244]

我们可以更改学习率和迭代次数进行预测结果的对比:
更改学习率由0.05变为0.1时,结果为:

  1. [ 9.49997917 10.19997464 10.89997012 11.59996559 12.29996106]

发现预测结果要由于学习率为0.05时,这说明学习率0.05选择的偏小,即每一次迈步偏小。
固定学习率为0.05,更改迭代次数为5000时,结果为:

  1. [ 9.5 10.2 10.9 11.6 12.3]

这正是我们想要的预测结果,这说明有限循环次数内,循环次数越多,越接近真实值。但是也不能无限循环下去,需要寻找一个度。
一般达到以下的任意一种情况即可以停止循环:
1.权重的更新低于某个阈值;
2.预测的错误率低于某个阈值;
3.达到预设的最大循环次数;
其中达到任意一种,就停止算法的迭代循环,得出最终结果。
完整的程序如下:

  1. #coding=utf-8
  2.  
  3. import numpy as np
  4. import random
  5. from numpy import genfromtxt
  6.  
  7. def getData(dataSet):
  8. m, n = np.shape(dataSet)
  9. trainData = np.ones((m, n))
  10. trainData[:,:-1] = dataSet[:,:-1]
  11. trainLabel = dataSet[:,-1]
  12. return trainData, trainLabel
  13.  
  14. def batchGradientDescent(x, y, theta, alpha, m, maxIterations):
  15. xTrains = x.transpose()
  16. for i in range(0, maxIterations):
  17. hypothesis = np.dot(x, theta)
  18. loss = hypothesis - y
  19. # print loss
  20. gradient = np.dot(xTrains, loss) / m
  21. theta = theta - alpha * gradient
  22. return theta
  23.  
  24. def predict(x, theta):
  25. m, n = np.shape(x)
  26. xTest = np.ones((m, n+1))
  27. xTest[:, :-1] = x
  28. yP = np.dot(xTest, theta)
  29. return yP
  30.  
  31. dataPath = r"E:\learning\house.csv"
  32. dataSet = genfromtxt(dataPath, delimiter=',')
  33. trainData, trainLabel = getData(dataSet)
  34. m, n = np.shape(trainData)
  35. theta = np.ones(n)
  36. alpha = 0.1
  37. maxIteration = 5000
  38. theta = batchGradientDescent(trainData, trainLabel, theta, alpha, m, maxIteration)
  39. x = np.array([[3.1, 5.5], [3.3, 5.9], [3.5, 6.3], [3.7, 6.7], [3.9, 7.1]])
  40. print predict(x, theta)

我是一个机器学习的小白,刚刚开始接触,从最基本的也是很重要的梯度下降开始学习。这篇文章是我对梯度下降的理解,还有很多不完善的地方,我只给出了批量梯度下降算法的python实现,随机梯度下降还需要我进一步编写,而且关于循环停止,本文只是最简单的循环次数停止,等等,还有很多问题,以后会继续更近并改进该文章。写下来就是为了随时随地翻出来看看,巩固知识,并不断改进。

原文链接:梯度下降算法以及其Python实现

【转】梯度下降算法以及其Python实现的更多相关文章

  1. 梯度下降算法以及其Python实现

    一.梯度下降算法理论知识 我们给出一组房子面积,卧室数目以及对应房价数据,如何从数据中找到房价y与面积x1和卧室数目x2的关系?   为了实现监督学习,我们选择采用自变量x1.x2的线性函数来评估因变 ...

  2. 梯度下降法原理与python实现

    梯度下降法(Gradient descent)是一个一阶最优化算法,通常也称为最速下降法. 要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离 ...

  3. 梯度下降算法的一点认识(Ng第一课)

    昨天开始看Ng教授的机器学习课,发现果然是不错的课程,一口气看到第二课. 第一课 没有什么新知识,就是机器学习的概况吧. 第二课 出现了一些听不太懂的概念.其实这堂课主要就讲了一个算法,梯度下降算法. ...

  4. ng机器学习视频笔记(二) ——梯度下降算法解释以及求解θ

    ng机器学习视频笔记(二) --梯度下降算法解释以及求解θ (转载请附上本文链接--linhxx)   一.解释梯度算法 梯度算法公式以及简化的代价函数图,如上图所示. 1)偏导数 由上图可知,在a点 ...

  5. 监督学习:随机梯度下降算法(sgd)和批梯度下降算法(bgd)

    线性回归 首先要明白什么是回归.回归的目的是通过几个已知数据来预测另一个数值型数据的目标值. 假设特征和结果满足线性关系,即满足一个计算公式h(x),这个公式的自变量就是已知的数据x,函数值h(x)就 ...

  6. [机器学习Lesson3] 梯度下降算法

    1. Gradient Descent(梯度下降) 梯度下降算法是很常用的算法,可以将代价函数J最小化.它不仅被用在线性回归上,也被广泛应用于机器学习领域中的众多领域. 1.1 线性回归问题应用 我们 ...

  7. Spark MLib:梯度下降算法实现

    声明:本文参考< 大数据:Spark mlib(三) GradientDescent梯度下降算法之Spark实现> 1. 什么是梯度下降? 梯度下降法(英语:Gradient descen ...

  8. AI-2.梯度下降算法

    上节定义了神经网络中几个重要的常见的函数,最后提到的损失函数的目的就是求得一组合适的w.b 先看下损失函数的曲线图,如下 即目的就是求得最低点对应的一组w.b,而本节要讲的梯度下降算法就是会一步一步地 ...

  9. Logistic回归Cost函数和J(θ)的推导(二)----梯度下降算法求解最小值

    前言 在上一篇随笔里,我们讲了Logistic回归cost函数的推导过程.接下来的算法求解使用如下的cost函数形式: 简单回顾一下几个变量的含义: 表1 cost函数解释 x(i) 每个样本数据点在 ...

随机推荐

  1. oracle缩写与术语

    术语 定义活动会话池 资源组或子计划允许的当前活动会话数ADDM Automatic Database Diagnostic Monitor(自动数据库诊断监视程序)ASM Automatic Sto ...

  2. ZOJ 3212 K-Nice

    K-Nice Time Limit: 1 Second      Memory Limit: 32768 KB      Special Judge This is a super simple pr ...

  3. Django - Cookie、Session、自定义分页和Django分页器

    2. 今日内容 https://www.cnblogs.com/liwenzhou/p/8343243.html 1. Cookie和Session 1. Cookie 服务端: 1. 生成字符串 2 ...

  4. SHFileOperation的用法

    //删除文件或者文件夹bool DeleteFile(char * lpszPath){SHFILEOPSTRUCT FileOp={0};FileOp.fFlags = FOF_ALLOWUNDO ...

  5. ManyToMany参数(through,db_constraint)

    through : 指定自己写好的第三张表,我们可以给第三张表添加字段了(告诉Django不用建第三张表了,我们都给他配好了) class Book(models.Model): name=model ...

  6. Mybatis三剑客之mybatis-plugin

    搜索mybatis plugin并安装. 如果没有的话,就按照如下: 1. 简介     mybatis plugin作为一款优秀的mybatis跳转插件,比起free mybatis plugin插 ...

  7. Shell特殊变量介绍与实践 $0

    2.$0特殊变量的作用及变量实践$0的作用为取出执行脚本的名称(包括路径) ,下面是该功能的实践.范例4-4:获取脚本的名称及路径. [root@salt-client- sh1]# cat n1.s ...

  8. stm8s 时钟库函数选择内部RC初始化

    //本文选择16M内部RC震荡.分频为1 即系统时钟为16M void CLK_HSICmd(FunctionalState NewState) { /* Check the parameters * ...

  9. 表单(中)-EasyUI Combogrid 组合网格、EasyUI Numberbox 数字框、EasyUI Datebox 日期框、EasyUI Datetimebox 日期时间框、EasyUI Calendar 日历

    EasyUI Combogrid 组合网格 扩展自 $.fn.combo.defaults 和 $.fn.datagrid.defaults.通过 $.fn.combogrid.defaults 重写 ...

  10. sqlserver三种分页方式性能比较

    Liwu_Items表,CreateTime列建立聚集索引 第一种,sqlserver2005特有的分页语法 declare @page intdeclare @pagesize intset @pa ...