1. import numpy as np
  2. import os
  3. os.chdir('../')
  4. from ml_models import utils
  5. import matplotlib.pyplot as plt
  6. %matplotlib inline

一.简介

逻辑回归(LogisticRegression)简单来看就是在线性回归模型外面再套了一个\(Sigmoid\)函数:

\[\delta(t)=\frac{1}{1+e^{-t}}
\]

它的函数形状如下:

  1. t=np.arange(-8,8,0.5)
  2. d_t=1/(1+np.exp(-t))
  3. plt.plot(t,d_t)
  1. [<matplotlib.lines.Line2D at 0x233d3c47a58>]

而将\(t\)替换为线性回归模型\(w^Tx^*\)(这里\(x^*=[x^T,1]^T\))即可得到逻辑回归模型:

\[f(x)=\delta(w^Tx^*)=\frac{1}{1+e^{-(w^Tx^*)}}
\]

我们可以发现:\(Sigmoid\)函数决定了模型的输出在\((0,1)\)区间,所以逻辑回归模型可以用作区间在\((0,1)\)的回归任务,也可以用作\(\{0,1\}\)的二分类任务;同样,由于模型的输出在\((0,1)\)区间,所以逻辑回归模型的输出也可以看作这样的“概率”模型:

\[P(y=1\mid x)=f(x)\\
P(y=0\mid x)=1-f(x)
\]

所以,逻辑回归的学习目标可以通过极大似然估计求解:\(\prod_{j=1}^n f(x_j)^{y_j}(1-f(x_j))^{(1-y_j)}\),即使得观测到的当前所有样本的所属类别概率尽可能大;通过对该函数取负对数,即可得到交叉熵损失函数:

\[L(w)=-\sum_{j=1}^n y_j log(f(x_j))+(1-y_j)log(1-f(x_j))
\]

这里\(n\)表示样本量,\(x_j\in R^m\),\(m\)表示特征量,\(y_j\in \{0,1\}\),接下来的与之前推导一样,通过梯度下降求解\(w\)的更新公式即可:

\[\frac{\partial L}{\partial w}=-\sum_{i=1}^n (y_i-f(x_i))x_i^*
\]

所以\(w\)的更新公式:

\[w:=w-\eta \frac{\partial L}{\partial w}
\]

二.代码实现

同LinearRegression类似,这里也将\(L1,L2\)的正则化功能加入

  1. class LogisticRegression(object):
  2. def __init__(self, fit_intercept=True, solver='sgd', if_standard=True, l1_ratio=None, l2_ratio=None, epochs=10,
  3. eta=None, batch_size=16):
  4. self.w = None
  5. self.fit_intercept = fit_intercept
  6. self.solver = solver
  7. self.if_standard = if_standard
  8. if if_standard:
  9. self.feature_mean = None
  10. self.feature_std = None
  11. self.epochs = epochs
  12. self.eta = eta
  13. self.batch_size = batch_size
  14. self.l1_ratio = l1_ratio
  15. self.l2_ratio = l2_ratio
  16. # 注册sign函数
  17. self.sign_func = np.vectorize(utils.sign)
  18. # 记录losses
  19. self.losses = []
  20. def init_params(self, n_features):
  21. """
  22. 初始化参数
  23. :return:
  24. """
  25. self.w = np.random.random(size=(n_features, 1))
  26. def _fit_closed_form_solution(self, x, y):
  27. """
  28. 直接求闭式解
  29. :param x:
  30. :param y:
  31. :return:
  32. """
  33. self._fit_sgd(x, y)
  34. def _fit_sgd(self, x, y):
  35. """
  36. 随机梯度下降求解
  37. :param x:
  38. :param y:
  39. :return:
  40. """
  41. x_y = np.c_[x, y]
  42. count = 0
  43. for _ in range(self.epochs):
  44. np.random.shuffle(x_y)
  45. for index in range(x_y.shape[0] // self.batch_size):
  46. count += 1
  47. batch_x_y = x_y[self.batch_size * index:self.batch_size * (index + 1)]
  48. batch_x = batch_x_y[:, :-1]
  49. batch_y = batch_x_y[:, -1:]
  50. dw = -1 * (batch_y - utils.sigmoid(batch_x.dot(self.w))).T.dot(batch_x) / self.batch_size
  51. dw = dw.T
  52. # 添加l1和l2的部分
  53. dw_reg = np.zeros(shape=(x.shape[1] - 1, 1))
  54. if self.l1_ratio is not None:
  55. dw_reg += self.l1_ratio * self.sign_func(self.w[:-1]) / self.batch_size
  56. if self.l2_ratio is not None:
  57. dw_reg += 2 * self.l2_ratio * self.w[:-1] / self.batch_size
  58. dw_reg = np.concatenate([dw_reg, np.asarray([[0]])], axis=0)
  59. dw += dw_reg
  60. self.w = self.w - self.eta * dw
  61. # 计算losses
  62. cost = -1 * np.sum(
  63. np.multiply(y, np.log(utils.sigmoid(x.dot(self.w)))) + np.multiply(1 - y, np.log(
  64. 1 - utils.sigmoid(x.dot(self.w)))))
  65. self.losses.append(cost)
  66. def fit(self, x, y):
  67. """
  68. :param x: ndarray格式数据: m x n
  69. :param y: ndarray格式数据: m x 1
  70. :return:
  71. """
  72. y = y.reshape(x.shape[0], 1)
  73. # 是否归一化feature
  74. if self.if_standard:
  75. self.feature_mean = np.mean(x, axis=0)
  76. self.feature_std = np.std(x, axis=0) + 1e-8
  77. x = (x - self.feature_mean) / self.feature_std
  78. # 是否训练bias
  79. if self.fit_intercept:
  80. x = np.c_[x, np.ones_like(y)]
  81. # 初始化参数
  82. self.init_params(x.shape[1])
  83. # 更新eta
  84. if self.eta is None:
  85. self.eta = self.batch_size / np.sqrt(x.shape[0])
  86. if self.solver == 'closed_form':
  87. self._fit_closed_form_solution(x, y)
  88. elif self.solver == 'sgd':
  89. self._fit_sgd(x, y)
  90. def get_params(self):
  91. """
  92. 输出原始的系数
  93. :return: w,b
  94. """
  95. if self.fit_intercept:
  96. w = self.w[:-1]
  97. b = self.w[-1]
  98. else:
  99. w = self.w
  100. b = 0
  101. if self.if_standard:
  102. w = w / self.feature_std.reshape(-1, 1)
  103. b = b - w.T.dot(self.feature_mean.reshape(-1, 1))
  104. return w.reshape(-1), b
  105. def predict_proba(self, x):
  106. """
  107. 预测为y=1的概率
  108. :param x:ndarray格式数据: m x n
  109. :return: m x 1
  110. """
  111. if self.if_standard:
  112. x = (x - self.feature_mean) / self.feature_std
  113. if self.fit_intercept:
  114. x = np.c_[x, np.ones(x.shape[0])]
  115. return utils.sigmoid(x.dot(self.w))
  116. def predict(self, x):
  117. """
  118. 预测类别,默认大于0.5的为1,小于0.5的为0
  119. :param x:
  120. :return:
  121. """
  122. proba = self.predict_proba(x)
  123. return (proba > 0.5).astype(int)
  124. def plot_decision_boundary(self, x, y):
  125. """
  126. 绘制前两个维度的决策边界
  127. :param x:
  128. :param y:
  129. :return:
  130. """
  131. y = y.reshape(-1)
  132. weights, bias = self.get_params()
  133. w1 = weights[0]
  134. w2 = weights[1]
  135. bias = bias[0][0]
  136. x1 = np.arange(np.min(x), np.max(x), 0.1)
  137. x2 = -w1 / w2 * x1 - bias / w2
  138. plt.scatter(x[:, 0], x[:, 1], c=y, s=50)
  139. plt.plot(x1, x2, 'r')
  140. plt.show()
  141. def plot_losses(self):
  142. plt.plot(range(0, len(self.losses)), self.losses)
  143. plt.show()

三.校验

我们构造一批伪分类数据并可视化

  1. from sklearn.datasets import make_classification
  2. data,target=make_classification(n_samples=100, n_features=2,n_classes=2,n_informative=1,n_redundant=0,n_repeated=0,n_clusters_per_class=1)
  1. data.shape,target.shape
  1. ((100, 2), (100,))
  1. plt.scatter(data[:, 0], data[:, 1], c=target,s=50)
  1. <matplotlib.collections.PathCollection at 0x233d4c86748>

训练模型

  1. lr = LogisticRegression(l1_ratio=0.01,l2_ratio=0.01)
  2. lr.fit(data, target)

查看loss值变化

交叉熵损失

  1. lr.plot_losses()

绘制决策边界:

令\(w_1x_1+w_2x_2+b=0\),可得\(x_2=-\frac{w_1}{w_2}x_1-\frac{b}{w_2}\)

  1. lr.plot_decision_boundary(data,target)

  1. #计算F1
  2. from sklearn.metrics import f1_score
  3. f1_score(target,lr.predict(data))
  1. 0.96

与sklearn对比

  1. from sklearn.linear_model import LogisticRegression
  1. lr = LogisticRegression()
  2. lr.fit(data, target)
  1. D:\app\Anaconda3\lib\site-packages\sklearn\linear_model\logistic.py:432: FutureWarning: Default solver will be changed to 'lbfgs' in 0.22. Specify a solver to silence this warning.
  2. FutureWarning)
  3. LogisticRegression(C=1.0, class_weight=None, dual=False, fit_intercept=True,
  4. intercept_scaling=1, l1_ratio=None, max_iter=100,
  5. multi_class='warn', n_jobs=None, penalty='l2',
  6. random_state=None, solver='warn', tol=0.0001, verbose=0,
  7. warm_start=False)
  1. w1=lr.coef_[0][0]
  2. w2=lr.coef_[0][1]
  3. bias=lr.intercept_[0]
  4. w1,w2,bias
  1. (3.119650945418208, 0.38515595805512637, -0.478776183999758)
  1. x1=np.arange(np.min(data),np.max(data),0.1)
  2. x2=-w1/w2*x1-bias/w2
  1. plt.scatter(data[:, 0], data[:, 1], c=target,s=50)
  2. plt.plot(x1,x2,'r')
  1. [<matplotlib.lines.Line2D at 0x233d5f84cf8>]

  1. #计算F1
  2. f1_score(target,lr.predict(data))
  1. 0.96

四.问题讨论:损失函数为何不用mse?

上面我们基本完成了二分类LogisticRegression代码的封装工作,并将其放到liner_model模块方便后续使用,接下来我们讨论一下模型中损失函数选择的问题;在前面线性回归模型中我们使用了mse作为损失函数,并取得了不错的效果,而逻辑回归中使用的确是交叉熵损失函数;这是因为如果使用mse作为损失函数,梯度下降将会比较困难,在\(f(x^i)\)与\(y^i\)相差较大或者较小时梯度值都会很小,下面推导一下:

我们令:

\[L(w)=\frac{1}{2}\sum_{i=1}^n(y^i-f(x^i))^2
\]

则有:

\[\frac{\partial L}{\partial w}=\sum_{i=1}^n(f(x^i)-y^i)f(x^i)(1-f(x^i))x^i
\]

我们简单看两个极端的情况:

(1)\(y^i=0,f(x^i)=1\)时,\(\frac{\partial L}{\partial w}=0\);

(2)\(y^i=1,f(x^i)=0\)时,\(\frac{\partial L}{\partial w}=0\)

接下来,我们绘图对比一下两者梯度变化的情况,假设在\(y=1,x\in(-10,10),w=1,b=0\)的情况下

  1. y=1
  2. x0=np.arange(-10,10,0.5)
  3. #交叉熵
  4. x1=np.multiply(utils.sigmoid(x0)-y,x0)
  1. #mse
  2. x2=np.multiply(utils.sigmoid(x0)-y,utils.sigmoid(x0))
  3. x2=np.multiply(x2,1-utils.sigmoid(x0))
  4. x2=np.multiply(x2,x0)
  1. plt.plot(x0,x1)
  2. plt.plot(x0,x2)
  1. [<matplotlib.lines.Line2D at 0x233d6046048>]

可见在错分的那一部分(x<0),mse的梯度值基本停留在0附近,而交叉熵会让越“错”情况具有越大的梯度值

《机器学习_02_线性模型_Logistic回归》的更多相关文章

  1. 简单物联网:外网访问内网路由器下树莓派Flask服务器

    最近做一个小东西,大概过程就是想在教室,宿舍控制实验室的一些设备. 已经在树莓上搭了一个轻量的flask服务器,在实验室的路由器下,任何设备都是可以访问的:但是有一些限制条件,比如我想在宿舍控制我种花 ...

  2. 利用ssh反向代理以及autossh实现从外网连接内网服务器

    前言 最近遇到这样一个问题,我在实验室架设了一台服务器,给师弟或者小伙伴练习Linux用,然后平时在实验室这边直接连接是没有问题的,都是内网嘛.但是回到宿舍问题出来了,使用校园网的童鞋还是能连接上,使 ...

  3. 外网访问内网Docker容器

    外网访问内网Docker容器 本地安装了Docker容器,只能在局域网内访问,怎样从外网也能访问本地Docker容器? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装并启动Docker容器 ...

  4. 外网访问内网SpringBoot

    外网访问内网SpringBoot 本地安装了SpringBoot,只能在局域网内访问,怎样从外网也能访问本地SpringBoot? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装Java 1 ...

  5. 外网访问内网Elasticsearch WEB

    外网访问内网Elasticsearch WEB 本地安装了Elasticsearch,只能在局域网内访问其WEB,怎样从外网也能访问本地Elasticsearch? 本文将介绍具体的实现步骤. 1. ...

  6. 怎样从外网访问内网Rails

    外网访问内网Rails 本地安装了Rails,只能在局域网内访问,怎样从外网也能访问本地Rails? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装并启动Rails 默认安装的Rails端口 ...

  7. 怎样从外网访问内网Memcached数据库

    外网访问内网Memcached数据库 本地安装了Memcached数据库,只能在局域网内访问,怎样从外网也能访问本地Memcached数据库? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装 ...

  8. 怎样从外网访问内网CouchDB数据库

    外网访问内网CouchDB数据库 本地安装了CouchDB数据库,只能在局域网内访问,怎样从外网也能访问本地CouchDB数据库? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装并启动Cou ...

  9. 怎样从外网访问内网DB2数据库

    外网访问内网DB2数据库 本地安装了DB2数据库,只能在局域网内访问,怎样从外网也能访问本地DB2数据库? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装并启动DB2数据库 默认安装的DB2 ...

  10. 怎样从外网访问内网OpenLDAP数据库

    外网访问内网OpenLDAP数据库 本地安装了OpenLDAP数据库,只能在局域网内访问,怎样从外网也能访问本地OpenLDAP数据库? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装并启动 ...

随机推荐

  1. [Python进阶].pyc的那点事

    1. 什么是 .pyc文件 .pyc文件 就是 Python的字节码(byte-compiled)文件..py文件运行时,python会自动将其编译成PyCodeObject并写入.pyc文件,再有p ...

  2. CRS-0184 Cannot communicate with the CRS daemon

    事件背景 rman清理脚本异常.导致磁盘空间爆满(一个环境变量没有设置正确) 释放磁盘空间,进行rman清理 之后,领导把实例重启,但是ams实例没有关闭 环境 系统 : AIX 数据库: Oracl ...

  3. (五)PL/SQL条件控制

    简述 决策结构需要程序员指定一个或多个条件要计算,或由程序进行测试,如果条件被确定为真那么一条或多条语句被执行,如果要被执行的其它语句条件被确定为假,则选其它执行块. PL/SQL编程语言提供了以下几 ...

  4. js 函数的多图片懒加载(lazy) 带插件版完整解析

    前言:         本人纯小白一个,有很多地方理解的没有各位大牛那么透彻,如有错误,请各位大牛指出斧正!小弟感激不尽.         本篇文章为您分析一下原生JS实现图片懒加载效果 页面需求 1 ...

  5. RxJava--Buffer,GroupBy 对比

    Buffer 设定收集n个元素为一组,以下方代码为例,三个为一组,则当组满三个元素时,返回一次List数据 没组满三个元素时,如果调用onComplete,直接发送剩余元素,没调用onComplete ...

  6. Linux下必知必会文件和目录

    转载于:https://blog.51cto.com/xiyuxingxia/2372712

  7. MyBaties一级缓存

    2019独角兽企业重金招聘Python工程师标准>>> 一.一级缓存简介 在系统代码的运行中,我们可能会在一个数据库会话中,执行多次查询条件完全相同的Sql,鉴于日常应用的大部分场景 ...

  8. pvresize

    lvm pv 扩容 pvresize 当PV对应的设备分区(如md软raid)扩容之后,利用该命令可以扩容PV

  9. 使用PHP-Beast加密你的PHP源代码

    PHP-Beast是一个PHP源码加密的模块,其使用DES算法加密,用户可以自定义加密的key来加密源代码. 1. PHP-Beast的安装 $ wget https://github.com/lie ...

  10. Codeforces Round #623 (Div. 2, based on VK Cup 2019-2020 - Elimination Round, Engine) A Dead Pixel

    讨论坏点的左右上下的矩形大小. #include <bits/stdc++.h> using namespace std; int main() { int t; cin >> ...