区别在于:最大似然估计分析中估计是刚好正负对调
加上EVENT:
%LET DVVAR = Y;
%LET LOGIT_IN = S.T3;
%LET LOGIT_MODEL = S.Model_Params;
%LET LOGIT_SCORE = S.Pred_Probs;

%let VarList= X1_WOE--B&BN._WOE;

/* Storing the results of the model in a dataset */
proc logistic data=&LOGIT_IN OUTEST=&LOGIT_MODEL;
model &DVVAR (event='1')= &VarList /
selection =stepwise sls=0.05 sle=0.05;
OUTPUT OUT=&LOGIT_SCORE P=Pred_Y;
run;

输出结果
最大似然估计分析

标准 Wald
参数 自由度 估计 误差 卡方 Pr > 卡方

Intercept 1 -0.2769 0.0618 20.0856 <.0001
X1_WOE 1 0.8903 0.2490 12.7851 0.0003
X3_WOE 1 1.0583 0.1558 46.1674 <.0001
X4_WOE 1 1.0319 0.1264 66.6874 <.0001
B1_WOE 1 0.8293 0.4066 4.1600 0.0414

没有加上EVENT:
%LET DVVAR = Y;
%LET LOGIT_IN = S.T3;
%LET LOGIT_MODEL = S.Model_Params;
%LET LOGIT_SCORE = S.Pred_Probs;

%let VarList= X1_WOE--B&BN._WOE;

/* Storing the results of the model in a dataset */
proc logistic data=&LOGIT_IN OUTEST=&LOGIT_MODEL;
model &DVVAR= &VarList /
selection =stepwise sls=0.05 sle=0.05;
OUTPUT OUT=&LOGIT_SCORE P=Pred_Y;
run;

输出结果:

最大似然估计分析

标准 Wald
参数 自由度 估计 误差 卡方 Pr > 卡方

Intercept 1 0.2769 0.0618 20.0856 <.0001
X1_WOE 1 -0.8903 0.2490 12.7851 0.0003
X3_WOE 1 -1.0583 0.1558 46.1674 <.0001
X4_WOE 1 -1.0319 0.1264 66.6874 <.0001
B1_WOE 1 -0.8293 0.4066 4.1600 0.0414

SAS LOGISTIC 逻辑回归中加(EVENT='1')和不加(EVENT='1')区别的更多相关文章

  1. 【笔记】逻辑回归中使用多项式(sklearn)

    在逻辑回归中使用多项式特征以及在sklearn中使用逻辑回归并添加多项式 在逻辑回归中使用多项式特征 在上面提到的直线划分中,很明显有个问题,当样本并没有很好地遵循直线划分(非线性分布)的时候,其预测 ...

  2. logistic逻辑回归公式推导及R语言实现

    Logistic逻辑回归 Logistic逻辑回归模型 线性回归模型简单,对于一些线性可分的场景还是简单易用的.Logistic逻辑回归也可以看成线性回归的变种,虽然名字带回归二字但实际上他主要用来二 ...

  3. 02-12 Logistic(逻辑)回归

    目录 逻辑回归 一.逻辑回归学习目标 二.逻辑回归引入 三.逻辑回归详解 3.1 线性回归与逻辑回归 3.2 二元逻辑回归的假设函数 3.2.1 让步比 3.2.2 Sigmoid函数图像 3.3 二 ...

  4. 逻辑回归与神经网络还有Softmax regression的关系与区别

    本文讨论的关键词:Logistic Regression(逻辑回归).Neural Networks(神经网络) 之前在学习LR和NN的时候,一直对它们独立学习思考,就简单当做是机器学习中的两个不同的 ...

  5. Spark LR逻辑回归中RDD转DF中VectorUDT设置

    System.setProperty("hadoop.home.dir", "C:\\hadoop-2.7.2"); val spark = SparkSess ...

  6. 含有分类变量(categorical variable)的逻辑回归(logistic regression)中虚拟变量(哑变量,dummy variable)的理解

    版权声明:本文为博主原创文章,博客地址:,欢迎大家相互转载交流. 使用R语言做逻辑回归的时候,当自变量中有分类变量(大于两个)的时候,对于回归模型的结果有一点困惑,搜索相关知识发现不少人也有相同的疑问 ...

  7. ng-深度学习-课程笔记-2: 神经网络中的逻辑回归(Week2)

    1 二分类( Binary Classification ) 逻辑回归是一个二分类算法.下面是一个二分类的例子,输入一张图片,判断是不是猫. 输入x是64*64*3的像素矩阵,n或者nx代表特征x的数 ...

  8. Deep Learning 学习笔记(4):Logistic Regression 逻辑回归

    逻辑回归主要用于解决分类问题,在现实中有更多的运用, 正常邮件or垃圾邮件 车or行人 涨价or不涨价 用我们EE的例子就是: 高电平or低电平 同时逻辑回归也是后面神经网络到深度学习的基础. (原来 ...

  9. 斯坦福机器学习视频笔记 Week3 逻辑回归与正则化 Logistic Regression and Regularization

    我们将讨论逻辑回归. 逻辑回归是一种将数据分类为离散结果的方法. 例如,我们可以使用逻辑回归将电子邮件分类为垃圾邮件或非垃圾邮件. 在本模块中,我们介绍分类的概念,逻辑回归的损失函数(cost fun ...

随机推荐

  1. VSTO学习问题(一)

    入门按照网上的写了第一个VSTO外接程序,点击运行按钮进行调试,发生错误: 名称: 从: file:///D:/Program Files (x86)/Microsoft Visual Studio ...

  2. Wireshark 过滤器语法

    wireshark有两种过滤器: 捕捉过滤器(CaptureFilters):用于决定将什么样的信息记录在捕捉结果中. 显示过滤器(DisplayFilters):用于在捕捉结果中进行详细查找. 捕捉 ...

  3. 高性能场景下,HashMap的优化使用建议

    1. HashMap 在JDK 7 与 JDK8 下的差别 顺便理一下HashMap.get(Object key)的几个关键步骤,作为后面讨论的基础. 1.1 获取key的HashCode并二次加工 ...

  4. 1091 N-自守数

    如果某个数 K 的平方乘以 N 以后,结果的末尾几位数等于 K,那么就称这个数为“N-自守数”.例如 3×92​2​​=25392,而 25392 的末尾两位正好是 92,所以 92 是一个 3-自守 ...

  5. Delphi xe8 FMX StringGrid根据内容自适应列宽。

    Delphi xe8 FMX StringGrid根据内容自适应列宽. 网上的资料比较复杂,而且不是根据字体字号等设置列宽.故自己写了个function来用. function GetColMaxDa ...

  6. cut语法

    cut是一个选取命令,就是将一段数据经过分析,取出我们想要的.一般来说,选取信息通常是针对“行”来进行分析的,并不是整篇信息分析的. (1)其语法格式为:cut  [-bn] [file] 或 cut ...

  7. 关于surface gradient

    [转载请注明出处]http://www.cnblogs.com/mashiqi 2017/06/16 函数定义及前后文详见<Inverse Acoustic and Electromagneti ...

  8. C与指针练习题4.14.1

    //C与指针练习题4.14.1 //ai+1=(ai+n/ai)/2公式逼近,当ai+1=ai时,取得n的平方根 #include<stdio.h> float sq_root(float ...

  9. Bootstrap如何禁止响应式布局 不适配

    Bootstrap 会自动帮你针对不同的屏幕尺寸调整你的页面,使其在各个尺寸的屏幕上表现良好.下面我们列出了如何禁用这一特性,就像这个非响应式布局实例页面一样. 禁止响应式布局有如下几步: 移除 此 ...

  10. MAC如何生成SSH key与GitHub关联

    一.检查 SSH key 是否存在 在终端输入如下代码: ls -al ~/.ssh 如果没有,终端显示如下: No such file or directory 如果有,终端显示如下: ➜ ~ ls ...