总结自<机器学习>周志华 2.3 目录 最常用的是查准率P(precision),查全率R(recall),F1 一.对于二分类问题 二.对于多分类问题 1.macro 2.micro 最常用的是查准率P(precision),查全率R(recall),F1 一.对于二分类问题 混淆矩阵(confusion matrix):   预测结果    真实情况 正例  反例  正例  TP,true positive,真正 FN,false negative 假反 反例  FP ,false pos…
文章目录 1.背景 2.ROC曲线 2.1 ROC名称溯源(选看) 2.2 ROC曲线的绘制 3.AUC(Area Under ROC Curve) 3.1 AUC来历 3.2 AUC几何意义 3.3 AUC计算 3.4 理解AUC的意义 3.4.1 从Mann-Whitney U test角度理解 3.4.2 从AUC计算公式角度理解 3.4.3 一句话介绍AUC 3.5 为什么用AUC 3.6 AUC的一般判断标准 1.背景 很多学习器是为测试样本产生一个实值或概率预测(比如比较简单的逻辑回…
文章目录 1.错误率与精度 2.查准率.查全率与F1 2.1 查准率.查全率 2.2 P-R曲线(P.R到F1的思维过渡) 2.3 F1度量 2.4 扩展 性能度量是用来衡量模型泛化能力的评价标准,错误率.精度.查准率.查全率.F1.ROC与AUC这7个指标都是分类问题中用来衡量模型泛化能力的评价标准,也就是性能度量.本文主要介绍前五种度量,ROC与AUC讲解见超强整理,超详细解析,一文彻底搞懂ROC.AOC. 性能度量反映了任务需求,在对比不同模型的能力时,使用不同的性能度量往往会导致不同的评…
错误率 在常见的具体机器学习算法模型中,一般都使用错误率来优化loss function来保证模型达到最优. \[错误率=\frac{分类错误的样本}{样本总数}\] \[error=\frac{1}{m} \sum_{i=1}^{m} I(f(x_{i})\neq y_{i})\] 但是错误率有一个严重的缺点: 错误率会掩盖样本如何被错误分类事实,这样对于有的问题很难进行下一步的分析 混淆矩阵 confusion matrix 真正例: True Positive 真反例: True Nega…
import numpy as np import matplotlib.pyplot as plt from sklearn.svm import SVC from sklearn.datasets import load_iris from sklearn.preprocessing import label_binarize from sklearn.multiclass import OneVsRestClassifier from sklearn.model_selection imp…
1.经验误差与过拟合 通常我们把分类错误的样本数占样本总数的比例称为“错误率”(error rate),即如果在m个样本中有a个样本分类错误,则错误率E=a/m:相应的,1-a/m称为“精度”(accuracy),即“精度=1一错误率”.更一般地,我(学习器的实际预测输出与样本的真实输出之间的差异称为“误差”(error),学习器在训练集上的误差称为“训练误差”(training error)或“经验误差”(empirical error),在新样本上的误差称为“泛化误差”(generaliza…
在sklearn当中,可以在三个地方进行模型的评估 1:各个模型的均有提供的score方法来进行评估. 这种方法对于每一种学习器来说都是根据学习器本身的特点定制的,不可改变,这种方法比较简单.这种方法受模型的影响, 2:用交叉验证cross_val_score,或者参数调试GridSearchCV,它们都依赖scoring参数传入一个性能度量函数.这种方法就是我们下面讨论的使用scoring进行模型的性能评估. 3:Metric方法,Metric有为各种问题提供的评估方法.这些问题包括分类.聚类…
在IJCAI 于2015年举办的竞赛:Repeat Buyers Prediction Competition 中, 很多参赛队伍在最终的Slides展示中都表示使用了 AUC 作为评估指标:     那么,AUC是什么呢? AUC是一个机器学习性能度量指标,只能用于二分类模型的评价.(拓展二分类模型的其他评价指标:logloss.accuracy.precision)   对于二分类问题,可将样例根据其真实类别与学习器预测类别的组合划分为真正例(true positive).假正例(false…
一.选择正确的特征 1.建立分类器的工作中如何选择相关特征,并且为其编码来表示这些特征是首要问题. 2.特征提取,要避免过拟合或者欠拟合 过拟合,是提供的特征太多,使得算法高度依赖训练数据的特性,而对于一般化的新例子不起作用,在小型训练集上通常会出现这种问题. 欠拟合,是特征太少,算法不能很好地反映实例的特性 3.用错误分析的方法来完善特征集,首先选择开发集,其中包含用于创建模型的语料数据.然后开发集分为训练集和开发测试集. >>> train_names = names[1500:]…
在上一篇博客中,我们了解了对Windows及应用程序进行性能分析的基础:Event Trace for Windows (ETW).现在来看看基于ETW的性能分析工具——Perfview.exe Perfview简介 Perfview是一个开源的CPU和内存性能分析工具,也包括一些针对.NET的分析功能,例如GC分析,JIT分析,甚至ASP.NET中的请求统计等等.Perfview是一个Windows应用程序,但也能对在Linux系统上采集的数据进行分析(参考).Perfview免安装,而且只是…