6.1  分类问题

6.2  假说表示

6.3  判定边界

6.4  代价函数

6.5  简化的成本函数和梯度下降

6.6  高级优化

6.7  多类分类:一个对所有


6.1  分类问题

在分类问题中,我们尝试预测的结果是否属于某一个类(例如正确或错误)。分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈等等。

我们从二元的分类问题开始讨论。

      我们将因变量(dependant variable)可能属于的两个类分别称为负向类(negative class)和 正向类(positive class),

      则因变量

其中0表示负向类,1表示正向类。


6.2  假说表示

回顾在一开始提到的乳腺癌分类问题,可以用线性回归的方法求出适合数据的一条直线:

(原点到0.5的直线)

根据线性回归模型只能预测连续的值,对于这样的分类问题,需要输出0或1, 可以这样预测:

hθ = θTx

当 hθ 大于等于 0.5 时,预测 y=1

当 hθ 小于 0.5 时,     预测 y=0

对于上图所示的数据,这样的一个线性模型似乎能很好地完成分类任务。
 
假使又观测到一个非常大尺寸的恶性肿瘤,将其作为实例加入到训练集中来,这将获得一条新的直线。

这时,再使用 0.5 作为阀值来预测肿瘤是良性还是恶性便不合适了。可以看出,线性回归模型,因为其预测的值可以超越[0,1]的范围,并不适合解决这样的问题。

所以引入一个新的模型,逻辑回归,该模型的输出变量范围始终在 0 和 1 之间。 逻辑回归模型的假设是:

其中:

X  代表特征向量

g  代表逻辑函数(logistic function)是一个常用的逻辑函数为 S 形函数(Sigmoid function),

公式为:

该函数的图像为:

合起来,得到逻辑回归模型的假设: 对模型的理解:

hθ(x)的作用是,对于给定的输入变量,根据选择的参数计算输出变量=1 的可能性

(estimated probablity)即 

EXP,如果对于给定的 x,通过已经确定的参数计算得出 hθ(x)=0.7,则表示有 70%的几 率 y 为正向类,相应地 y 为负向类的几率为 1-0.7=0.3。


6.3  判定边界

在逻辑回归中,我们预测:

当 hθ 大于等于0.5时,预测 y=1

当 hθ 小于 0.5时,预测 y=0

根据上面绘制出的 S 形函数图像,我们知道当

z=0 时 g(z)=0.5

z>0 时 g(z)>0.5

z<0 时 g(z)<0.5

即:

     

现在假设有一个模型: 并且参数 θ 是向量[-3 1 1]。 则当-3+x1+x2(x0 = 1)>= 0,即 x1+x2 >= 3  时,模型将预测 y=1。

可以绘制直线 x1+x2=3,这条线便是我们模型的分界线,将预测为 1 的区域和预测 为 0 的区域分隔开。

假使我们的数据呈现这样的分布情况,怎样的模型才能适合呢?

因为需要用曲线才能分隔 y=0  的区域和 y=1  的区域,我们需要二次方特征:(三次方特征是先上升再衰弱) 假设= -1)

则得到的判定边界恰好是圆点在原点且半径为 1 的圆形。

注:假设本身及其参数θ确定了决策边界,而不是训练集。只要我们给定了参数向量θ,决策边界就确定了。我们不是用训练集来定义的决策边界,而是我们用训练集来拟合参数θ,一旦你有参数θ它就确定了决策边界。


6.4  代价函数

对于线性回归模型,我们定义的代价函数是所有模型误差的平方和。理论上来说,也可以对逻辑回归模型沿用这个定义,但是问题在于,当我们将

这意味着这样的代价函数有许多局部最小值,这将影响梯度下降算法寻找全局最小值。

因此我们重新定义逻辑回归的代价函数为:

其中

hθ(x)与 Cost(hθ(x),y)(之间的关系如下图所示:

这样构建的 Cost(hθ(x),y)函数的特点是:

当实际的 y=1  且 hθ 也为 1  时误差为 0,当 y=1 但 hθ 不为 1 时误差随着 hθ 的变小而变大;

当实际的 y=0  且 hθ 也为 0  时代价为 0,当 y=0 但 hθ 不为 0 时误差随着 hθ 的变大而变大。

将构建的 Cost(hθ(x),y)简化如下:

带入代价函数得到:

在得到这样一个代价函数以后,便可以用梯度下降算法来求得能使代价函数最小的 参数了。算法为:

求导后得到:

注:

  1. 虽然得到的梯度下降算法表面上看上去与线性回归的梯度下降算法一样,但是这里的
  2. 另外,在运行梯度下降算法前,进行特征缩放依旧是非常必要的。
  3. 一些梯度下降算法之外的选择: 除了梯度下降算法以外,还有一些常被用来令代价函 数最小的算法,这些算法更加复杂和优越,而且通常不需要人工选择学习率,通常比梯度下降算法要更加快速。这些算法有:共轭梯度(Conjugate Gradient),局部优化法(Broyden fletcher goldfarb shann,BFGS)和有限内存局部优化法(LBFGS) 。fminunc 是 matlab 和 octave 中都带的一个最小值优化函数,使用时我们需要提供代价函数和每个参数的求导。

6.5  简化的成本函数和梯度下降

多类分类问题中,训练集中有多个类(>2),我们无法仅仅用一个二元变量(0 或 1) 来做判断依据。例如要预测天气情况分四种类型:晴天、多云、下雨或下雪。

下面是一个多类分类问题可能的情况:

一种解决这类问题的途径是采用一对多(One-vs-All)方法。在一对多方法中,将多类分类问题转化成二元分类问题。

为了能实现这样的转变,将多个类中的一个类标记为正向类(y=1),然后将其他所有类都标记为负向类,这个模型记作

最后得到一系列的模型简记为:

最后,在我们需要做预测时,我们将所有的分类机都运行一遍,然后对每一个输入变量, 都选择最高可能性的输出变量,如下图:


6.6  高级优化

6.7  多类分类:一个对所有

Ng第六课:逻辑回归(Logistic Regression)的更多相关文章

  1. Coursera公开课笔记: 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)” 清晰讲解logistic-good!!!!!!

    原文:http://52opencourse.com/125/coursera%E5%85%AC%E5%BC%80%E8%AF%BE%E7%AC%94%E8%AE%B0-%E6%96%AF%E5%9D ...

  2. 机器学习 (三) 逻辑回归 Logistic Regression

    文章内容均来自斯坦福大学的Andrew Ng教授讲解的Machine Learning课程,本文是针对该课程的个人学习笔记,如有疏漏,请以原课程所讲述内容为准.感谢博主Rachel Zhang 的个人 ...

  3. 机器学习总结之逻辑回归Logistic Regression

    机器学习总结之逻辑回归Logistic Regression 逻辑回归logistic regression,虽然名字是回归,但是实际上它是处理分类问题的算法.简单的说回归问题和分类问题如下: 回归问 ...

  4. 机器学习(四)--------逻辑回归(Logistic Regression)

    逻辑回归(Logistic Regression) 线性回归用来预测,逻辑回归用来分类. 线性回归是拟合函数,逻辑回归是预测函数 逻辑回归就是分类. 分类问题用线性方程是不行的   线性方程拟合的是连 ...

  5. 机器学习入门11 - 逻辑回归 (Logistic Regression)

    原文链接:https://developers.google.com/machine-learning/crash-course/logistic-regression/ 逻辑回归会生成一个介于 0 ...

  6. 机器学习方法(五):逻辑回归Logistic Regression,Softmax Regression

    欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld. 技术交流QQ群:433250724,欢迎对算法.技术.应用感兴趣的同学加入. 前面介绍过线性回归的基本知识, ...

  7. ML 逻辑回归 Logistic Regression

    逻辑回归 Logistic Regression 1 分类 Classification 首先我们来看看使用线性回归来解决分类会出现的问题.下图中,我们加入了一个训练集,产生的新的假设函数使得我们进行 ...

  8. 逻辑回归(Logistic Regression)详解,公式推导及代码实现

    逻辑回归(Logistic Regression) 什么是逻辑回归: 逻辑回归(Logistic Regression)是一种基于概率的模式识别算法,虽然名字中带"回归",但实际上 ...

  9. 斯坦福第六课:逻辑回归(Logistic Regression)

    6.1  分类问题 6.2  假说表示 6.3  判定边界 6.4  代价函数 6.5  简化的成本函数和梯度下降 6.6  高级优化 6.7  多类分类:一个对所有 6.1  分类问题 在分类问题中 ...

随机推荐

  1. php新增的一些特性

    php新增的特性,只是略微整理,并不完全. 一.php5.3添加的新特性 1.?:简化的三元运算符 <?php $cur = $cur ? $cur : 1; $cur = $cur ?: 1; ...

  2. 在pom.xml中引入jar包坐标的依赖范围

    A依赖B,需要在A的pom.xml文件中添加B的坐标,添加坐标时需要指定依赖范围,依赖范围包括: compile:编译范围,指A在编译时依赖B,此范围为默认依赖范围.编译范围的依赖会用在编译.测试.运 ...

  3. TLS1.1升级到TLS1.2(微信小程序要求TLS1.2以上)

    检测是否具有TLS1.2:www.ssllabs.com 实验过的办法: https://www.cnblogs.com/wqcheng/p/6618070.html http://www.ocbc. ...

  4. eclipse导入项目以后,内容没有错误,项目上却有个小红叉?

    对于上面的错误,应该如何解决?

  5. 梦殇 chapter five

    一弦情殇未谱,半纸离愁难书,不记年,叹花开几度...... 蜡烛用它自己的死亡来温暖别人,奉献自己的同时,它内心是快乐的吗?那残留的蜡油是它的泪水,还是它快乐的预兆? 这个世界上除了父母家人外,会有真 ...

  6. c# sharpsvn 客户端开发测试

    1:没有工作副本,上传时会报错的. 会提示本地目录不是not a working copy   而此中文名称就是工作副本, 本地要与svn服务器公用的一个文件夹. 所以每次要checkout 然后才能 ...

  7. Oracle_PL/SQL(4) 过程和函数

    create table s_sc ( SNAME VARCHAR2(20) primary key, c_grade NUMBER(6), m_grade NUMBER(6), e_grade NU ...

  8. python使用sqlite

    摘自python帮助文档 一.基本用法 import sqlite3 conn = sqlite3.connect('example.db')#conn = sqlite3.connect(':mem ...

  9. How to program BMW KOMBI and NBTwith ENET E sys cable ICOM A2

    This is how to set up Router or DHCP server for BMW KOMBI and NBT programming with Enet e sys cable ...

  10. BZOJ1925或洛谷2467 [SDOI2010]地精部落

    BZOJ原题链接 洛谷原题链接 先讲下关于波动数列的\(3\)个性质. 性质\(1\):对于数列中的每一对\(i\)和\(i + 1\),若它们不相邻,那么交换这两个数形成的依旧是一个波动数列. 性质 ...