目录

  一元线性回归、多元线性回归、Logistic回归、广义线性回归、非线性回归的关系

  什么是极大似然估计

  逻辑斯谛回归(Logistic回归)

  多类分类Logistic回归

  Python代码(sklearn库)


一元线性回归、多元线性回归、逻辑斯谛回归、广义线性回归、非线性回归的关系  

  通过上图(插图摘自周志华《机器学习》及互联网)可以看出:

  线性模型虽简单,却拥有着丰富的变化。例如对于样例,当我们希望线性模型的预测值逼近真实标记y时,就得到了线性回归模型:。当令模型逼近y的衍生物,比如时,就得到了对数线性回归(Log-linear regression)模型,这样的模型称为“广义线性回归(Generalized linear regression)模型”。

什么是极大似然估计(Maximum Likelihood Estimate,MLE)

  引例

  有两个射击运动员,一个专业水平,一个业余水平,但是不知道哪个是专业的哪个是业余的。那么如何判断呢? 让两个运动员都打几枪,A运动员平均水平9.8环,B运动员平均水平2.2环,那我们就判断了:A远动员是专业的,B运动员是业余的。因为射击成绩已经产生了9.8环,当未知参数=专业水平时,射击成绩=9.8环的概率最大。这就是极大似然法。

  极大似然法:事情已经发生了,当未知参数等于多少时,能让这个事情发生的概率最大,执果索因。

  百度百科定义

  极大似然估计,只是一种概率论在统计学的应用,它是参数估计的方法之一。说的是已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计就是通过若干次试验,观察其结果,利用结果推出参数的大概值。极大似然估计是建立在这样的思想上:已知某个参数能使这个样本出现的概率最大,我们当然不会再去选择其他小概率的样本,所以干脆就把这个参数作为估计的真实值。

逻辑斯谛回归(Logistic回归)

  上一节讨论了如何使用线性模型进行回归学习,但若要做的是分类任务该怎么办?答案就蕴含在Logistic模型中。

  在Logistic模型中,我们是用去拟合,其中y是样本x作为正例的概率。针对Logistic模型,这里有几个问题:(1)为什么要这样做拟合?(2)真实的训练集的标记都是1或0(正例或负例)而不是概率怎么办?下面我们一一解答。

  假设我们有训练集:

  首先解释:(1)为什么要这样做拟合?

  二娃:既然你的标记是概率值,是一个连续的值,是不是可以用线性模型去进行模型学习?当对新样本进行预测的时候,如果模型预测的概率值>0.5就输出1;如果模型预测的概率值<=0.5就输出0?

  好,那我们就实验一下二娃提供的思路。

  从图像上可以看出由于最后两个样本点的原因,导致我们的拟合出来的直线的斜率变小,截距变高,如果按照二娃的思路来做,模型的效果很差。所以不能用线性模型去直接拟合概率值y。

  翠花:那我们为何不直接找一条分割线去分割,而是非要去拟合呢?在本例中,直接用“尺寸如果>5.5输出1,尺寸<=5.5输出0”的规则岂不是很好?

  其实,翠花的思路是我们未来要讲的支持向量机(SVM)。但是当样本量较大时SVM的收敛速度很慢,所以SVM从2012年开始渐渐退出历史舞台。在用于分类的模型有很多,这里我们先介绍Logistic模型。

  我们接着说二娃的问题。线性模型直接拟合概率值y的方法不好用,那么去拟合(正例概率/反例概率,称为几率,再取对数,称为对数几率),当对新样本进行预测的时候,如果模型预测值>0就输出1;如果模型预测值<=0就输出0呢?

  很明显,从图像拟合的情况看,模型在训练集上的表现很好。

  那为什么要这样做拟合呢?首先,Logistic模型公式为:,转换形式后:,我们来讨论一下函数(一种Sigmoid函数)的性质

   图摘自自周志华《机器学习》

  函数是一个单调可微函数,当z趋于正无穷时,函数值趋于1;当z趋于负无穷时,函数值趋于0;而且关于点(0,1/2)中心对称。这种Sigmoid函数适合拟合概率值。可以粗略的画出拟合曲线:

  因此,当有新的样本输入时,Logistic回归模型中的函数会计算出它是正例的概率。若y>0.5模型预测为1(是恶性肿瘤),否则为0(非恶性肿瘤)。

  随后解释:(2)真实的训练集的标记都是1或0(正例或负例)而不是概率怎么办?

  假设数据集为

  我们知道函数可以表示某个样例是正例的概率。虽然其中的是未知的,是未知参数,但是可以表示出每一个样例属于其标记的概率,如:

,......,

  现在有了每一个样例属于其标记的概率,然后将这些概率相乘求一个总体概率S,即:

(似然函数)

  可以证明这个似然函数是一个凸函数,使用最优化方法令其最大,从而求出最优的,然后代入,完成模型的求解。

  细心的朋友一定会发现:“事情已经发生了(训练集确定了),当未知参数()等于多少时,能让这个事情发生的概率(S)最大,执果索因”。这正是极大似然估计的应用啊!

  因此Logistic回归模型中学习的代价函数可以是:

  当然,我们也能求一下对数似然函数:

  损失函数也相应变为:

多类分类Logistic回归

  有两种方式:

  (1)采用one-vs-rest策略

  (2)采用多分类逻辑回归策略

  设离散型随机变量Y的取值集合是{1,2,...,K},那么多分类逻辑回归模型是

  二分类逻辑回归的参数估计方法也可以推广到多分类逻辑回归。

Python代码(sklearn库)

# -*- coding: utf-8 -*-
from numpy import *
from sklearn.datasets import load_iris
from sklearn.linear_model import LogisticRegression iris = load_iris()
trainX = iris.data
trainY = iris.target clf = LogisticRegression(penalty='l2', dual=False, tol=1e-4, C=1.0,
fit_intercept=True, intercept_scaling=1, class_weight=None,
random_state=None, solver='liblinear', max_iter=100,
multi_class='ovr', verbose=0, warm_start=False, n_jobs=1)
'''
@param penalty: 指定正则化策略
@param dual: 是否求解对偶形式
@param C: 惩罚项系数的倒数,越大,正则化项越小
@param fit_intercept: 是否拟合截距
@param intercept_scaling: 当solver='liblinear'、fit_intercept=True时,会制造出一个恒为1的特征,权重为b,为了降低这个人造特征对正则化的影响,可以将其设为1
@param class_weight: 可以是一个字典或'balanced'。字典:可以指定每一个分类的权重;'balanced':可以指定每个分类的权重与该分类在训练集中的频率成反比
@param max_iter: 最大迭代次数
@param random_state: 一个整数或一个RandomState对象或None
@param solver: 指定求解最优化问题的算法:
'newton-cg':牛顿法;
'lbfgs':拟牛顿法;
'liblinear':使用liblinear;(适用于小数据集)
'sag':使用Stochastic Average Gradient Descent算法(适用于大数据集)
@param tol: 指定迭代收敛与否的阈值
@param multi_class:
'ovr': 采用one-vs-rest策略
'multi_class': 采用多类分类Logistic回归
@param verbose: 是否开启迭代过程中输出日志
@param warm_start: 是否使用前一次的训练结果继续训练
@param n_jobs: 任务并行时指定使用的CPU数,-1表示使用所有可用的CPU @attribute coef_: 权重向量
@attribute intercept_: 截距b
@attribute n_iter_: 实际迭代次数 @method fit(X,y[,sample_weight]): 训练模型
@method predict(X): 预测
@method predict_log_proba(X): 返回X预测为各类别的概率的对数
@method predict_proba(X): 返回X预测为各类别的概率
@method score(X,y[,sample_weight]): 计算在(X,y)上的预测的准确率
''' clf.fit(trainX, trainY) print "权值:"+str(clf.coef_)
print "截距:"+str(clf.intercept_)
print "分数:"+str(clf.score(trainX, trainY))
print clf.predict(trainX)
print trainY '''
C:\Anaconda2\lib\site-packages\sklearn\datasets
权值:[[ 0.41498833 1.46129739 -2.26214118 -1.0290951 ]
[ 0.41663969 -1.60083319 0.57765763 -1.38553843]
[-1.70752515 -1.53426834 2.47097168 2.55538211]]
截距:[ 0.26560617 1.08542374 -1.21471458]
分数:0.96
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 1 1 1 2 1 1 1
1 1 1 1 1 1 1 1 1 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2
2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2
2 2]
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2
2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2
2 2]
'''

【机器学习速成宝典】模型篇03逻辑斯谛回归【Logistic回归】(Python版)的更多相关文章

  1. 【机器学习速成宝典】模型篇02线性回归【LR】(Python版)

    目录 什么是线性回归 最小二乘法 一元线性回归 多元线性回归 什么是规范化 Python代码(sklearn库) 什么是线性回归(Linear regression) 引例 假设某地区租房价格只与房屋 ...

  2. 【Spark机器学习速成宝典】模型篇02逻辑斯谛回归【Logistic回归】(Python版)

    目录 Logistic回归原理 Logistic回归代码(Spark Python) Logistic回归原理 详见博文:http://www.cnblogs.com/itmorn/p/7890468 ...

  3. 吴恩达《机器学习》课程笔记——第七章:Logistic回归

    上一篇  ※※※※※※※※  [回到目录]  ※※※※※※※※  下一篇 7.1 分类问题 本节内容:什么是分类 之前的章节介绍的都是回归问题,接下来是分类问题.所谓的分类问题是指输出变量为有限个离散 ...

  4. 《机器学习实战》学习笔记第五章 —— Logistic回归

    一.有关笔记: 1..吴恩达机器学习笔记(二) —— Logistic回归 2.吴恩达机器学习笔记(十一) —— Large Scale Machine Learning 二.Python源码(不带正 ...

  5. 【Spark机器学习速成宝典】模型篇03线性回归【LR】(Python版)

    目录 线性回归原理 线性回归代码(Spark Python) 线性回归原理 详见博文:http://www.cnblogs.com/itmorn/p/7873083.html 返回目录 线性回归代码( ...

  6. 【机器学习速成宝典】模型篇06决策树【ID3、C4.5、CART】(Python版)

    目录 什么是决策树(Decision Tree) 特征选择 使用ID3算法生成决策树 使用C4.5算法生成决策树 使用CART算法生成决策树 预剪枝和后剪枝 应用:遇到连续与缺失值怎么办? 多变量决策 ...

  7. 【Spark机器学习速成宝典】模型篇08保序回归【Isotonic Regression】(Python版)

    目录 保序回归原理 保序回归代码(Spark Python) 保序回归原理 待续... 返回目录 保序回归代码(Spark Python) 代码里数据:https://pan.baidu.com/s/ ...

  8. 【Spark机器学习速成宝典】模型篇07梯度提升树【Gradient-Boosted Trees】(Python版)

    目录 梯度提升树原理 梯度提升树代码(Spark Python) 梯度提升树原理 待续... 返回目录 梯度提升树代码(Spark Python) 代码里数据:https://pan.baidu.co ...

  9. 【Spark机器学习速成宝典】模型篇06随机森林【Random Forests】(Python版)

    目录 随机森林原理 随机森林代码(Spark Python) 随机森林原理 参考:http://www.cnblogs.com/itmorn/p/8269334.html 返回目录 随机森林代码(Sp ...

随机推荐

  1. [Wpf]在C#中添加 collectionViewSource

    Products = new ObservableCollection<Product>(products); ProductOptions = new ObservableCollect ...

  2. 机器学习及scikit-learn

    一.机器学习以及scikit-learn 1. 机器学习基本步骤: (1)定义一系列函数  =>   (2)定义函数的优劣  =>  (3)选择最优函数 2.什么是scikit-learn ...

  3. 一个显示 OpenCV Mat 图像的自定义 Qt 控件

    今天学习 Qt 的时候顺手写了一个,包含一个头文件 qcvdisplay.h 和一个源文件 qcvdisplay.cpp,因为这是 qt 默认的文件命名方式,在 Qt Designer 中提升控件时会 ...

  4. mysql面试题练习01

    1.数学函数 有如下表和数组 把num值处于[20,29]之间,改为20 num值处于[30,39]之间的,改为30 ) ; 2.字符串 把good表中商品名为'诺基亚xxxx'的商品,改为'HTCx ...

  5. openssl x.509证书

    openssl x.509证书 openssl x.509证书 ngnix 支持

  6. 【洛谷P2602】数字计数

    题目大意:求 [a,b] 中 0-9 分别出现了多少次. 题解:看数据范围应该是一个数位dp. 在 dfs 框架中维护当前的位置和到当前位置一共出现了多少个 \(x,x\in [0,9]\).因此,用 ...

  7. 一个IP,一个linux服务器,两个项目,两个域名;如何将两个域名配置到同一个IP的两个项目中。

    一.现有资源: 1.阿里云centOS6.5服务器: 2.安装tomcat8.0+JDK: 3.两个不同maven项目的war包,项目名分别为cloud.am: 4.两个域名http://www.lu ...

  8. 两个惊艳的python库:tqdm和retry

    转载到请包括本文地址:http://spaces.ac.cn/archives/3902/ Python基本是我目前工作.计算.数据挖掘的唯一编程语言(除了符号计算用Mathematica外).当然, ...

  9. 【leetcode】Valid Parenthesis String

    题目: Given a string containing only three types of characters: '(', ')' and '*', write a function to ...

  10. Python 列表(List)Ⅰ

    Python 列表(List) 序列是Python中最基本的数据结构.序列中的每个元素都分配一个数字 - 它的位置,或索引,第一个索引是0,第二个索引是1,依此类推. Python有6个序列的内置类型 ...