Logistic Regression

之前我们讨论过回归问题,并且讨论了线性回归模型。现在我们来看看分类问题,分类问题与回归问题类似,只不过输出变量一个是离散的,一个是连续的。我们先关注二分类问题,假设

输出变量 y 只能取 0 或者 1 两个值,直观上,对于所有的输入变量,我们都希望可以映射到 [0-1] 的范围内, 为此,我们可以建立如下的函数:

hθ(x)=g(θTx)=11+e−θTx

其中,

g(z)=11+e−z

称之为 logistic 函数 或者 sigmoid 函数. 很容易看出这个函数的值域在(0-1)之间。我们可以求得 logistic 函数的导数为:

g′(z)=1(1+e−z)2e−z=1(1+e−z)⋅(1−1(1+e−z))=g(z)(1−g(z))

那么,对于 logistic 回归模型,如何估计参数 θ。我们之前讲过,从最大似然估计出发,可以导出最小均方误差函数,也就是

最小二乘回归模型。同样地,我们仍然可以利用最大似然估计的方法来拟合 logistic 回归模型的参数,我们先给出如下的概率假设:

P(y=1|x;θ)=hθ(x)P(y=0|x;θ)=1−hθ(x)

考虑到 y 只能取 0 或 1 两个值,上面的概率分布可以用一个式子表示成:

p(y|x;θ)=(hθ(x))y(1−hθ(x))1−y

假设一组训练集含有m个训练样本,并且训练样本是相互独立的,那么这组训练集的概率分布为:

L(θ)=p(y|X;θ)=∏i=1mp(yi|xi;θ)=∏i=1m(hθ(xi))yi(1−hθ(xi))1−yi

对上式取对数,可以得到:

l(θ)=logL(θ)=∑i=1myilogh(xi)+(1−yi)log(1−h(xi))

如何使得上式的概率最大?我们可以利用梯度下降法,定义如下的式子:

θ:=θ+α∇θl(θ)

其中,∇θl(θ) 是函数 l(θ) 对 θ 的导数。

为了推导l(θ) 对 θ 的导数,我们先考虑只有一对训练样本的情况。则:

∂∂θjl(θ)=(yg(θTx)−1−y1−g(θTx))∂∂θjg(θTx)=(yg(θTx)−1−y1−g(θTx))g(θTx)(1−g(θTx))∂∂θjθTx=(y(1−g(θTx))−(1−y)g(θTx))xj=(y−g(θTx))xj=(y−hθ(x))xj

因此,我们可以得到如下的参数 θj的更新表达式:

θj:=θj+α(y−hθ(x))xj

我们可以看到,这个表达式和第一讲里的LMS更新表达式很像,两者的区别在于LMS里的 hθ(x) 是一个线性函数,所以我们称之为线性回归,而这里的 hθ(x) 是一个非线性函数。

Generalized Linear Models

迄今为止,我们探讨了一个回归问题(第一讲),也探讨了一个分类问题(第三讲)。在回归问题中,我们定义了如下的概率分布:y|x;θ∼N(μ,σ2), 而在分类问题中,我们定义了另外一种概率分布:y|x;θ∼Bernoulli(ϕ). 接下来,我们将说明,上面所提到的两种分布,是一个广义分布族的特殊情况。这个广义分布族我们称之为,Generalized Linear Models (GLMs) (广义线性模), 我们也将说明该广义分布族中的其他模型能够适用于其他的回归或者分类问题。

The exponential family

首先我们定义一个指数族分布。如果任何一组变量满足指数族分布,那么该变量的概率分布可以表示为:

p(y;η)=b(y)exp(ηTT(y)−a(η))(1)

其中,η 称之为 natural parameter 或者 canonical parameter, T(y) 是 sufficient statistic, a(η)是log partition function. e−a(η)是归一化参数。

对于给定的 T,a,b,可以得到关于 η 的一组概率分布,不同的 η 对应着不同的概率分布。

接下来,我们将证明,Bernoulli分布和Gaussian分布是属于指数分布中的两种情况。Bernoulli分布,假设均值为ϕ,写作Bernoulli}(ϕ),输出变量的范围为y∈{0,1}, 那么,Bernoulli分布可以表示成 p(y=1;ϕ)=ϕ, p(y=0;ϕ)=1−ϕ,不同的ϕ可以得到不同均值的\textbf{Bernoulli}分布。我们将会看到,通过设置T,a,b,式(1)可以变成Bernoulli分布。

Bernoulli分布可以写成:

p(y;ϕ)=ϕy(1−ϕ)(1−y)=exp(ylogϕ+(1−y)log(1−ϕ))=exp((log(ϕ1−ϕ))y+log(1−ϕ))

为了用式(1)表示Bernoulli分布,我们可以定义 η=log(ϕ/(1−ϕ)),我们也可以得到 ϕ=1/(1+e−η),进一步的,我们可以定义

T(y)=y;a(η)=−log(1−ϕ)=log(1+eη);b(y)=1;

我们可以看到,通过定义合适的 T,a,b,Bernoulli分布可以用广义的指数分布族表示。

接下来,我们看看Gaussian分布和广义指数分布族的关系,我们定义高斯分布为 N∼(μ,σ2),在讨论最大似然概率的时候,我们曾经看到方差 σ2 对最终的结果没有影响,为了简化这个问题,这里假定

方差为1,即σ2=1, 那么Gaussian概率分布可以表示为:

p(y;μ)=12π−−√exp(−12(y−μ)2)=12π−−√exp(−12y2)⋅exp(μy−12μ2)

因此,我们可以定义

η=μ;T(y)=y;a(η)=μ2/2=η2/2;b(y)=12π−−√exp(−y2/2)

同样可以看到,Gaussian分布可以表示成指数分布。

事实上,我们常见的很多分布都是指数分布族中的一种,像multinomial (二项式分布), Poisson (泊松分布), 还有Gamma 分布,Beta分布等。

构造 Generalized Linear Models(GLMs)

这一章节,我们将要探讨如何构造Generalized Linear Models(GLMs),通常情况下,当我们考虑一个回归问题或者分类问题,我们希望预测随机变量y的值,y

是关于x的函数值,为了能够建立GLM模型,求得y关于x的条件分布,我们先给出三个假设:

1: y|x;θ∼ExponentialFamily(η), 即给定x和θ,y的分布是满足指数族分布的。

2:给定x,我们的目标是预测T(y)关于x的期望值,大多数情况下,T(y)=y,这意味着我们希望预测值h(x)满足 h(x)=E[y|x].

3: natural parameter η与输入x满足线性关系,即 η=θTx.

这三个假设可以让我们派生出一系列非常优美的学习算法,我们称之为广义线性模型,这些模型可以非常有效地建立关于y的不同的概率分布,接下来,我们将简单证明

之前提到的logistic regression和一般最小二乘(LMS)都从GLMs 演化而来。

为了证明一般最小二乘是广义线性模型中的一个特例,我们先假设目标变量y是连续的,并且假设y关于x的条件分布服从高斯分布 N∼(μ,σ2),我们把指数族分布式(1) 定义成高斯分布的形式,那么 μ=η,因此,我们有:

hθ(x)=E[y|x;θ]=μ=η=θTx

从上式可以看出,第一个等式基于假设2,因为高斯分布的期望就是均值μ,所以第二个等式也成立,第三个等式基于假设1,最后一个等式基于假设3。

我们可以看到从这三个假设可以推导出一般最小二乘的假设函数是 hθ(x)=θTx,所以一般最小二乘属于广义线性模型中的一种。现在我们看看 logistic regression, 这里我们探讨的是二分类问题,所以y∈{0,1}。考虑到y只能取0,1两个值,所以选择Bernoulli分布来表示y相对于x的条件分布,Bernoulli表示成指数分布族的时候,我们知道ϕ=1/(1+e−η), 而且注意,如果 y|x;θ∼Bernoulli(ϕ),那么 E[y|x;θ]=ϕ,所以和一般最小二乘的推导相似,我们可以得到:

hθ(x)=E[y|x;θ]=ϕ=1/(1+e−η)=1/(1+e−θTx)

因此我们可以得到logistic regression的假设函数 hθ(x)=1/(1+e−θTx),所以logistic regression也是广义线性模型中的一种. 一般来说,某个分布的期望与natural parameter η的关系可以用函数g表示为(g(η)=E[T(y);η]),函数g称为canonical response function,而g的反函数g−1称为canonical link function。所以高斯分布的 canonical response function就是 identify function,而Bernoulli分布的 canonical response function就是 logistic function。

参考文献

Andrew Ng, “Machine Learning”, Stanford University.

机器学习 Logistic Regression的更多相关文章

  1. 在opencv3中实现机器学习之:利用逻辑斯谛回归(logistic regression)分类

    logistic regression,注意这个单词logistic ,并不是逻辑(logic)的意思,音译过来应该是逻辑斯谛回归,或者直接叫logistic回归,并不是什么逻辑回归.大部分人都叫成逻 ...

  2. Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization

    原文:http://blog.csdn.net/abcjennifer/article/details/7716281 本栏目(Machine learning)包括单参数的线性回归.多参数的线性回归 ...

  3. 机器学习总结之逻辑回归Logistic Regression

    机器学习总结之逻辑回归Logistic Regression 逻辑回归logistic regression,虽然名字是回归,但是实际上它是处理分类问题的算法.简单的说回归问题和分类问题如下: 回归问 ...

  4. 机器学习入门11 - 逻辑回归 (Logistic Regression)

    原文链接:https://developers.google.com/machine-learning/crash-course/logistic-regression/ 逻辑回归会生成一个介于 0 ...

  5. 李宏毅机器学习笔记3:Classification、Logistic Regression

    李宏毅老师的机器学习课程和吴恩达老师的机器学习课程都是都是ML和DL非常好的入门资料,在YouTube.网易云课堂.B站都能观看到相应的课程视频,接下来这一系列的博客我都将记录老师上课的笔记以及自己对 ...

  6. 【机器学习】逻辑回归(Logistic Regression)

    注:最近开始学习<人工智能>选修课,老师提纲挈领的介绍了一番,听完课只了解了个大概,剩下的细节只能自己继续摸索. 从本质上讲:机器学习就是一个模型对外界的刺激(训练样本)做出反应,趋利避害 ...

  7. 机器学习算法与Python实践之(七)逻辑回归(Logistic Regression)

    http://blog.csdn.net/zouxy09/article/details/20319673 机器学习算法与Python实践之(七)逻辑回归(Logistic Regression) z ...

  8. Coursera公开课笔记: 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)” 清晰讲解logistic-good!!!!!!

    原文:http://52opencourse.com/125/coursera%E5%85%AC%E5%BC%80%E8%AF%BE%E7%AC%94%E8%AE%B0-%E6%96%AF%E5%9D ...

  9. 【机器学习】Logistic Regression 的前世今生(理论篇)

    Logistic Regression 的前世今生(理论篇) 本博客仅为作者记录笔记之用,不免有非常多细节不正确之处. 还望各位看官能够见谅,欢迎批评指正. 博客虽水,然亦博主之苦劳也. 如需转载,请 ...

随机推荐

  1. output的使用

    如果现在让你做一个滑动的效果 然后在右侧显示滑动停止以后的数值 那么很多人会选择input 和output 来使用 <!DOCTYPE html> <html lang=" ...

  2. 自定义cginc文件

    首先定义一个cginc文件如下所示: #ifndef MY_CG_INCLUDE #define MY_CG_INCLUDE struct appdata_x { float4 vertex : PO ...

  3. 将PHP 5.3.3 (cli)升级到PHP 5.6.31 (cli)

    centos默认系统安装的是php5.3 [root@sz-local1 scripts]# rpm -qa |grep phpphp-pdo-5.3.3-47.el6.x86_64php-mysql ...

  4. Android动画详解

    一.动画类型 Android的animation由四种类型组成:alpha.scale.translate.rotate XML配置文件中 alpha 渐变透明度动画效果 scale 渐变尺寸伸缩动画 ...

  5. Java对文件夹中的文件按修改时间排序

    import java.io.File; import java.util.Arrays; import java.util.Comparator; import java.util.Date; pu ...

  6. django定时任务python调度框架APScheduler使用详解

    # coding=utf-8 2 """ 3 Demonstrates how to use the background scheduler to schedule a ...

  7. 软件测试人员需要精通的开发语言(3)--- Linux

    Linux是一套免费使用和自由传播的类Unix操作系统,是一个基于POSIX和UNIX的多用户.多任务.支持多线程和多CPU的操作系统.不得不说下,中国产的红旗系统,牛的一逼,造价很贵,但具体何用处估 ...

  8. 2820: YY的GCD

    2820: YY的GCD Time Limit: 10 Sec  Memory Limit: 512 MBSubmit: 1693  Solved: 901[Submit][Status][Discu ...

  9. spring bean实例化的三种方式

    一.使用类的无参构造创建 配置文件 java代码 注意若类里面没有无参的构造,则会出现异常 二.使用静态工厂创建 配置文件 java代码 Factory类 测试类 结果 三.使用实例工厂 配置文件 1 ...

  10. JVM虚拟机参数

    追踪参数: 打印GC简要信息 -XX:+PrintGC 打印GC详细信息 -XX:+PrintGCDetails 打印CG发生的时间戳 -XX:+PrintGCTimeStamps 指定GC log的 ...