逻辑回归与线性回归

逻辑回归 线性回归
目标函数 $\prod_{i=1}^N[\pi(x_i)^{y_i}][(1-\pi(x_i))^{(1-y_i)}] $ \(\frac{1}{2}\sum_{i=1}^N(\hat{y_i}-y_i)^2\)
输出 离散值(分类) 连续值(回归)
求解 对似然函数求导,交叉熵 最小均方差求导

联系:

  • 输出是从连续值到离散值的映射

    \(\pi(x)=p(y=1|x)=\frac{exp(wx)}{1+exp(wx)}=\frac{1}{1+exp(-wx)}\),sigmoid激活函数将输出的连续值变成了离散值,在没有sigmoid函数时,输出就是\(wx\), 和回归的输出一样。

  • 求解时都可以使用梯度下降

逻辑回归

1.建立目标函数

设 \(P(y=1|x) = \pi(x), P(y=0|x) = 1-\pi(x)\)

似然函数为:

\[\prod_{i=1}^N[\pi(x_i)^{y_i}][(1-\pi(x_i))^{(1-y_i)}]
\]

对数似然函数:

\[\begin{aligned}
L(w) &= \sum y_ilog(\pi(x_i))+(1-y_i)log(1-\pi(x_i)) \\
&= \sum y_ilog(\pi(x_i))+log(1-\pi(x_i))-y_ilog(1-\pi(x_i)) \\
&= \sum y_i(log\frac{\pi(x_i)}{1-\pi(x_i)})+log(1-\pi(x_i)) \\
&= \sum y_i(wx_i)-log(1+exp(wx_i))
\end{aligned}
\]

2. 梯度求解

\[\begin{aligned}
\nabla L(w) &= \sum y_ix_i - \frac{x_iexp(wx_i)}{1+exp(wx_i)}
\end{aligned}
\]

求极大值,用梯度上升:

\[w = w + \alpha \nabla L(w)
\]

3. 实现

  1. """
  2. 只写了核心部分
  3. """
  4. def fit(x,y,n_iter):
  5. cal_gradient(x,y,alpha,n_iter)
  6. def cal_grdient(x,y,alpha,n_iter):
  7. """sgd
  8. """
  9. w = np.ones(len(x))
  10. for i in range(n_iter):
  11. for xi,yi in zip(x,y):
  12. grdient = (xi*yi-xi*(np.exp(w*xi)/(1+np.exp(w*x_i))))
  13. w = w + alpha*gradient
  14. return w
  15. def loss(y,y_hat):
  16. pass
  17. def predict(x):
  18. y_hat = w*x

线性回归

1. 建立目标函数

\[J(w) = \frac{1}{2}\sum(\hat y - y)^2
\]

2. 求解

\[\begin{aligned}
\nabla J(w) &= \sum (\hat y_i - y_i) \frac{\partial\hat y}{\partial w} \\
&= \sum (\hat y_i - y)x_i
\end{aligned}
\]

求极小值,使用梯度下降:

\[w = w - \alpha \nabla J(w)
\]

3. 实现

和逻辑回归比,只改变了求梯度方法

  1. """
  2. 只写了核心部分
  3. """
  4. def fit(x,y,n_iter):
  5. cal_gradient(x,y,alpha,n_iter)
  6. def cal_grdient(x,y,alpha,n_iter):
  7. """sgd
  8. """
  9. w = np.ones(len(x))
  10. for i in range(n_iter):
  11. for xi,yi in zip(x,y):
  12. grdient = xi*(w*xi-yi)
  13. w = w + alpha*gradient
  14. return w
  15. def loss(y,y_hat):
  16. pass
  17. def predict(x):
  18. y_hat = w*x

逻辑回归与交叉熵

熵:

  • 信息熵:衡量信息量大小

    \[H(x) = -\sum^n_{i=1}p(x_i)log(p(x_i))
    \]

    为什么取负号?

    概率值越大,信息量越小(倾向于确定事件)

  • 相对熵(KL散度):衡量两个概率分布间差异

    \[D_{KL}(p||q) =\sum^n_{i=1}p(x_i)log(\frac{p(x_i)}{q(x_i)})
    \]

    KL散度越小,表示\(p(x)\)与\(q(x)\)的分布更加接近

  • 交叉熵

    \[H(p,q) = -\sum^n_{i=1}p(x_i)log(q(x_i))
    \]

    为什么使用交叉熵作为损失函数?

    KL散度衡量真实分布与预测之间的差异,需要最小化KL散度。KL = 交叉熵 - 信息熵,给定原样本分布 p 时,信息熵为常量,所以最小化交叉熵即为最小化KL散度。

对 0-1 分布,假设预测概率为p,交叉熵为:

\[-\sum ylog(p)+(1-y)log(1-p)
\]

而逻辑回归似然函数为

\[L(w) = \sum [y_ilog(\pi (x_i))+(1-y_i)log(1-\pi(x_i))]
\]

极大化似然函数相当于极小化交叉熵。

references:

机器学习实战

统计机器学习

https://blog.csdn.net/b1055077005/article/details/100152102

LR与LR?的更多相关文章

  1. LL LR SLR LALR 傻傻分不清

    [转] 一:LR(0),SLR(1),规范LR(1),LALR(1)的关系     首先LL(1)分析法是自上而下的分析法.LR(0),LR(1),SLR(1),LALR(1)是自下而上的分析法.   ...

  2. 逻辑回归LR

    逻辑回归算法相信很多人都很熟悉,也算是我比较熟悉的算法之一了,毕业论文当时的项目就是用的这个算法.这个算法可能不想随机森林.SVM.神经网络.GBDT等分类算法那么复杂那么高深的样子,可是绝对不能小看 ...

  3. 编译系统中的LR与LL理解

    编译原理:LL(1),LR(0),SLR(1),LALR(1),LR(1)对比 LL(1)定义:一个文法G是LL(1)的,当且仅当对于G的每一个非终结符A的任何两个不同产生式 A→α|β,下面的条件成 ...

  4. lr各种问题以及解决办法

    LR 脚本为空的解决方法: 1.去掉ie设置中的第三方支持取消掉 2.在系统属性-高级-性能-数据执行保护中,添加loadrunner安装目录中的vugen.exe文件 遇到flight界面为空的解决 ...

  5. 软件测试面试(2)LR篇

    一:LoadRunner常见问题整理 1.LR 脚本为空的解决方法: 1.去掉ie设置中的第三方支持取消掉 2.在系统属性-高级-性能-数据执行保护中,添加loadrunner安装目录中的vugen. ...

  6. LR 常见问题收集及总结

    一:LoadRunner常见问题整理 1.LR 脚本为空的解决方法: 1.去掉ie设置中的第三方支持取消掉 2.在系统属性-高级-性能-数据执行保护中,添加loadrunner安装目录中的vugen. ...

  7. (转)深入理解SP、LR和PC

    网址:http://blog.csdn.net/zhou1232006/article/details/6149548 深入理解ARM的这三个寄存器,对编程以及操作系统的移植都有很大的裨益. 1.堆栈 ...

  8. GBDT与LR融合提升广告点击率预估模型

    1GBDT和LR融合      LR模型是线性的,处理能力有限,所以要想处理大规模问题,需要大量人力进行特征工程,组合相似的特征,例如user和Ad维度的特征进行组合.      GDBT天然适合做特 ...

  9. LR测试

    LoadRunner种预测系统行性能负载测试工具通模拟千万用户实施并发负载及实性能监测式确认查找问题LoadRunner能够整企业架构进行测试通使用 LoadRunner企业能限度缩短测试间优化性能加 ...

随机推荐

  1. IntelliJ IDEA 2020.2正式发布,诸多亮点总有几款能助你提效

    向工具人致敬.本文已被 https://www.yourbatman.cn 收录,里面一并有Spring技术栈.MyBatis.JVM.中间件等小而美的专栏供以免费学习.关注公众号[BAT的乌托邦]逐 ...

  2. Python爆火的原因与未来|内附Python学习书籍大礼包无偿领取|

    从12年到20年,python以肉眼可见的趋势超过了java,成为了当今It界人人皆知的编程语言. python为什么这么火? 网络编程语言搜索指数 适合初学者 Python具有语法简单.语句清晰的特 ...

  3. 学习python的几个资料网站

    菜鸟教程 https://www.runoob.com/python3/python3-tutorial.html https://www.runoob.com/python/python-tutor ...

  4. 解析Class文件

    类文件解析的入口是ClassFileParser类中定义的parseClassFile()方法.上一小节得到了文件字节流stream后,接着会在ClassLoader::load_classfile( ...

  5. 谈谈Spring中都用到了那些设计模式?

    以下文章来源于微信公众号JavaGuide ,作者:JavaGuide JDK 中用到了那些设计模式?Spring 中用到了那些设计模式?这两个问题,在面试中比较常见.我在网上搜索了一下关于 Spri ...

  6. SLAM中的逆深度参数化

    参数化问题 在SLAM的建图过程中,把像素深度假设成了高斯分布.那么这么假设是否是合适的呢?这里关系到一个参数化的问题. 我们经常用一个点的世界坐标x,y,z三个量来描述它,这是一种参数化形式.我们认 ...

  7. PCL使用RANSAC拟合三位平面

    1.使用PCL工具 //创建一个模型参数对象,用于记录结果 pcl::ModelCoefficients::Ptr coefficients(new pcl::ModelCoefficients); ...

  8. 017_go语言中的指针

    代码演示 package main import "fmt" func zeroval(ival int) { ival = 0 } func zeroptr(iptr *int) ...

  9. MapReduce之自定义OutputFormat

    @ 目录 OutputFormat接口实现类 自定义OutputFormat使用场景及步骤 使用场景 自定义OutputFormat 案例实操 OutputFormat接口实现类 OutputForm ...

  10. MySQL--->高级对象

    本章目标: 掌握MySQL视图 掌握MySQL存储过程 掌握MySQL触发器 1.视图: 视图就是一条select语句执行后返回的结果集. 使用场景:权限控制的时候不希望用户访问表中某些敏感信息的列 ...