基于Apache Spark机器学习的客户流失预测
流失预测是个重要的业务,通过预测哪些客户可能取消对服务的订阅来最大限度地减少客户流失。虽然最初在电信行业使用,但它已经成为银行,互联网服务提供商,保险公司和其他垂直行业的通用业务。
预测过程是大规模数据的驱动,并且经常结合使用先进的机器学习技术。在本篇文章中,我们将看到通常使用的哪些类型客户数据,对数据进行一些初步分析,并生成流失预测模型 - 所有这些都是通过Spark及其机器学习框架来完成的。
使用数据科学更好地理解和预测客户行为是一个迭代过程,其中涉及:
1.发现和模型创建:
- 分析历史数据。
- 由于格式,大小或结构,传统分析或数据库不能识别新数据源。
- 收集,关联和分析跨多数据源的数据。
- 认识并应用正确的机器学习算法来从数据中获取价值。
2.在生产中使用模型进行预测。
3.使用新数据发现和更新模型。
为了了解客户,可以分析许多特征因素,例如:
- 客户人口统计数据(年龄,婚姻状况等)。
- 社交媒体的情感分析。
- 客户习惯模式和地理使用趋势。
- 标记数据。
- 从点击流日志中分析浏览行为。
- 支持呼叫中心统计
- 显示行为模式的历史数据。
通过这种分析,电信公司可以获得预测和增强客户体验,防止客户流失和定制营销活动。
分类
分类是一系列有监督的机器学习算法,其基于已知项目的标记特征(即,已知是欺诈的交易)来识别项目属于哪个类别(即交易是否是欺诈)。分类采用已知标签和预定特征的一组数据,并学习如何基于该标记信息应用与新记录。特征就是你问的“问题”。标签是这些问题的答案。在下面的例子中,如果它像鸭子一样走路,游泳,嘎嘎叫,那么标签就是“鸭子”。
我们来看一个电信客户流失的例子:
- 我们试图预测什么?
- 客户是否有很高的服务退订概率。
- 流失被标记为“真”或“假”。
- 什么是“问题”或你可以用属性来做出预测?
- 来电统计,客服电话等
- 要构建分类器模型,需要提取最有助于分类的有利的特征。
决策树
决策树根据几个输入特征预测类或标签来创建模型。决策树通过在每个节点处评估包含特征的表达式并根据答案选择到下一个节点的分支来工作。下面显示了一个可能的信用风险的决策树预测。特征问题是节点,答案“是”或“否”是树中到子节点的分支。
- 问题1:检查帐户余额是否> 200DM?
- 没有
- Q2:目前的就业年限是多少>1年?
- 没有
- 不可信
示例用例数据集
对于本教程,我们将使用Orange 电信公司流失数据集。它由已清理的客户活动数据(特征)和流失标签组成,标记客户是否取消订阅。数据可以从BigML的S3 bucket,churn-80和churn-20中获取。churn-80和churn-20两套是来自同一批次,但已被分成80/20的比例。我们将使用较大的集合进行训练和交叉验证,最后一组数据用于测试和模型性能评估。为方便起见,这两个数据集已包含在此存储库中的完整代码中。数据集有以下结构:
. State: string . Account length: integer . Area code: integer . International plan: string . Voice mail plan: string . Number vmail messages: integer . Total day minutes: double . Total day calls: integer . Total day charge: double .Total eve minutes: double . Total eve calls: integer . Total eve charge: double . Total night minutes: double . Total night calls: integer . Total night charge: double . Total intl minutes: double . Total intl calls: integer . Total intl charge: double . Customer service calls: integer
CSV文件具有以下格式:
LA,,,No,No,,184.5,,31.37,351.6,,29.89,215.8,,9.71,8.7,,2.35,,False IN,,,No,No,,129.1,,21.95,228.5,,19.42,208.8,,9.4,12.7,,3.43,,True
下图显示了数据集的前几行:
软件
本教程将在Spark 2.0.1及更高版本上运行。
- 您可以从这里下载代码和数据来运行这些示例。
- 这个帖子中的例子可以在启动spark-shell命令之后运行在Spark shell中。
- 您也可以将代码作为独立应用程序运行,如在MapR沙箱上启动Spark的教程中所述,使用用户名user01,密码mapr登录到MapR沙箱。使用scp 将示例数据文件复制到沙箱主目录/ user / user01下。用以下命令启动Spark shell: $
spark -shell --master local [1]
从CSV文件加载数据
首先,我们将导入SQL和机器学习包。
import org.apache.spark._ import org.apache.spark.sql.SparkSession import org.apache.spark.sql.functions._ import org.apache.spark.sql.types._ import org.apache.spark.sql._ import org.apache.spark.sql.Dataset import org.apache.spark.ml.Pipeline import org.apache.spark.ml.classification.DecisionTreeClassifier import org.apache.spark.ml.classification.DecisionTreeClassificationModel import org.apache.spark.mllib.evaluation.BinaryClassificationMetrics import org.apache.spark.ml.evaluation.BinaryClassificationEvaluator import org.apache.spark.ml.feature.StringIndexer import org.apache.spark.ml.tuning.ParamGridBuilder import org.apache.spark.ml.tuning.CrossValidator import org.apache.spark.ml.feature.VectorAssembler 我们使用Scala案例类和Structype来定义模式,对应于CSV数据文件中的一行。 // define the Churn Schema case class Account(state: String, len: Integer, acode: String, intlplan: String, vplan: String, numvmail: Double, tdmins: Double, tdcalls: Double, tdcharge: Double, temins: Double, tecalls: Double, techarge: Double, tnmins: Double, tncalls: Double, tncharge: Double, timins: Double, ticalls: Double, ticharge: Double, numcs: Double, churn: String) val schema =StructType(Array( StructField("state", StringType,true), StructField("len", IntegerType,true), StructField("acode", StringType,true), StructField("intlplan", StringType,true), StructField("vplan", StringType,true), StructField("numvmail", DoubleType,true), StructField("tdmins", DoubleType,true), StructField("tdcalls", DoubleType,true), StructField("tdcharge", DoubleType,true), StructField("temins", DoubleType,true), StructField("tecalls", DoubleType,true), StructField("techarge", DoubleType,true), StructField("tnmins", DoubleType,true), StructField("tncalls", DoubleType,true), StructField("tncharge", DoubleType,true), StructField("timins", DoubleType,true), StructField("ticalls", DoubleType,true), StructField("ticharge", DoubleType,true), StructField("numcs", DoubleType,true), StructField("churn", StringType,true) ))
使用Spark 2.0,我们指定要加载到数据集中的数据源和模式。请注意,对于Spark 2.0,将数据加载到DataFrame中时指定模式将比模式推断提供更好的性能。我们缓存数据集以便快速重复访问。我们也打印数据集的模式。
val train: Dataset[Account]= spark.read.option("inferSchema","false") .schema(schema).csv("/user/user01/data/churn-bigml-80.csv").as[Account] train.cache val test: Dataset[Account]= spark.read.option("inferSchema","false") .schema(schema).csv("/user/user01/data/churn-bigml-20.csv").as[Account] test.cache train.printSchema() root |-- state:string(nullable =true) |-- len:integer(nullable =true) |-- acode:string(nullable =true) |-- intlplan:string(nullable =true) |-- vplan:string(nullable =true) |-- numvmail:double(nullable =true) |-- tdmins:double(nullable =true) |-- tdcalls:double(nullable =true) |-- tdcharge:double(nullable =true) |-- temins:double(nullable =true) |-- tecalls:double(nullable =true) |-- techarge:double(nullable =true) |-- tnmins:double(nullable =true) |-- tncalls:double(nullable =true) |-- tncharge:double(nullable =true) |-- timins:double(nullable =true) |-- ticalls:double(nullable =true) |-- ticharge:double(nullable =true) |-- numcs:double(nullable =true) |-- churn:string(nullable =true) //display the first 20 rows: train.show
摘要统计
Spark DataFrame包含一些用于统计处理的内置函数。describe()函数对所有数字列执行摘要统计的计算,并将其作为DataFrame形式返回。
train.describe()
输出:
数据探索
我们可以使用Spark SQL来研究数据集。以下是使用Scala DataFrame API的一些示例查询:
train.groupBy("churn").sum("numcs").show +-----+----------+ |churn|sum(numcs)| +-----+----------+ |False|3310.0| | True|856.0| +-----+----------+ train.createOrReplaceTempView("account") spark.catalog.cacheTable("account")
总日分钟数和总日费用是高度相关的领域。这样的相关数据对于我们的模型训练运行不会有利处,所以我们将会删除它们。我们将通过删除每个相关字段对中的一列,以及州和地区代码列,我们也不会使用这些列。
val dtrain =train.drop("state").drop("acode").drop("vplan") .drop("tdcharge").drop("techarge")
根据churn 字段对数据进行分组并计算每个组中的实例数目,显示其中有大约是真实流失样本6倍的虚假流失样本。
dtrain.groupBy("churn").count.show 输出: +-----+-----+ |churn|count| +-----+-----+ |False|| | True|| +-----+-----+
商业决策将被用来保住最有可能离开的客户,而不是那些可能留下来的客户。因此,我们需要确保我们的模型对Churn = True
样本敏感。
分层抽样
我们可以使用分层采样将两个样本类型放在同一个基础上。DataFrames sampleBy()
函数在提供要返回的每个样本类型的分数时执行此操作。在这里,我们保留Churn = True
类的所有实例,但是将Churn = False
类下采样为388/2278分之一。
val fractions =Map("False"->.,"True"->1.0) val strain = dtrain.stat.sampleBy("churn", fractions, 36L) strain.groupBy("churn").count.show
输出:
-----+-----+ |churn|count| +-----+-----+ |False|| | True|| +-----+-----+
特征数组
要构建分类器模型,可以提取对分类贡献最大的特征。每个条目的特征由以下显示的字段组成:
- 标签 - 流失:真或假
- 特征 -
{“len”,“iplanIndex”,“numvmail”,“tdmins”,“tdcalls”,“temins”,“tecalls”,“tminmin”,“tncalls”,“timins”,“ticalls” }
为了使这些特征被机器学习算法使用,它们需变换并放入特征向量中,特征向量是代表每个特征值的数字的向量。
使用Spark ML包
在ML封装是机器学习程序的新库。Spark ML提供了在DataFrame上构建的统一的高级API集合。
我们将使用ML管道将数据通过变换器传递来提取特征和评估器以生成模型。
- 转换器(Transformer):将一个DataFrame转换为另一个DataFrame的算法。我们将使用变换器来获取具有特征矢量列的DataFrame。
- 估计器(Estimator):可以适合DataFrame生成变换器(例如,在DataFrame上进行训练/调整并生成模型)的算法。
- 管道:连接多个变换器和估算器,以指定一个ML工作流程。
特征提取和流水线
ML包需要将数据放入(label:Double,features:Vector) DataFrame格式并带有相应命名的字段。我们建立了一个流水线,通过三个转换器来传递数据 ,以此提取特征:2个StringIndexers
和1个 VectorAssembler
。我们使用StringIndexers将String Categorial特性intlplan
和标签转换为数字索引。索引分类特征允许决策树适当地处理分类特征,提高性能。
// set up StringIndexer transformers for label and string feature val ipindexer =newStringIndexer() .setInputCol("intlplan") .setInputCol("intlplan") val labelindexer =newStringIndexer() .setInputCol("churn") .setOutputCol("label") VectorAssembler 将一个给定的列表列成一个单一的特征向量列。 // set up a VectorAssembler transformer val featureCols =Array("len","iplanIndex","numvmail","tdmins", "tdcalls","temins","tecalls","tnmins","tncalls","timins", "ticalls","numcs") val assembler =newVectorAssembler() .setInputCols(featureCols) .setOutputCol("features")
我们管道中的最后一个元素是估计器(决策树分类器),对标签和特征向量进行训练。
// set up a DecisionTreeClassifier estimator val dTree =newDecisionTreeClassifier().setLabelCol("label") .setFeaturesCol("features") // Chain indexers and tree in a Pipeline val pipeline =newPipeline() .setStages(Array(ipindexer, labelindexer, assembler, dTree))
训练模型
我们想确定决策树的哪个参数值产生最好的模型。模型选择的常用技术是k交叉验证,其中数据被随机分成k个分区。每个分区使用一次作为测试数据集,其余的则用于训练。然后使用训练集生成模型,并使用测试集进行评估,从而得到k个模型性能测量结果。考虑到构建参数,性能得分的平均值通常被认为是模型的总体得分。对于模型选择,我们可以搜索模型参数,比较它们的交叉验证性能。导致最高性能指标的模型参数产生最佳模型。
Spark ML支持使用变换/估计流水线进行k-fold交叉验证,以使用称为网格搜索的过程尝试不同的参数组合,在该过程中设置要测试的参数,并使用交叉验证评估器构建模型选择工作流程。
下面我们用一个 aramGridBuilder
来构造参数网格。
// Search through decision tree's maxDepth parameter for best model val paramGrid =newParamGridBuilder().addGrid(dTree.maxDepth, Array(,,,,,)).build()
我们定义一个BinaryClassificationEvaluator
计算器,通过比较测试标签列和测试预测列,它将根据精度度量来评估模型。默认度量标准是ROC曲线下的面积。
// Set up Evaluator (prediction, true label) val evaluator =newBinaryClassificationEvaluator() .setLabelCol("label") .setRawPredictionCol("prediction")
我们使用一个CrossValidator
模型选择。在CrossValidator
使用管道评估,参数网格和分类评估。该CrossValidator
使用 ParamGridBuilder
遍历maxDepth
决策树的参数和评价模型,重复每个参数值三次以便于获得可靠的结果。
// Set up 3-fold cross validation val crossval =newCrossValidator().setEstimator(pipeline) .setEvaluator(evaluator) .setEstimatorParamMaps(paramGrid).setNumFolds() val cvModel = crossval.fit(ntrain)
我们得到最佳的决策树模型,以便打印出决策树和参数。
// Fetch best model val bestModel = cvModel.bestModel val treeModel = bestModel.asInstanceOf[org.apache.spark.ml.PipelineModel] .stages().asInstanceOf[DecisionTreeClassificationModel] println("Learned classification tree model:\n"+ treeModel.toDebugString)
输出:
//0-11 feature columns: len, iplanIndex, numvmail, tdmins, tdcalls, temins, //tecalls, tnmins, tncalls, timins, ticalls, numcs println("Feature 11:"+featureCols()) println("Feature 3:"+featureCols()) Feature :numcs Feature :tdmins
我们发现使用交叉验证过程产生的最佳树模型是树深度为5的模型。toDebugString()
函数提供树的决策节点和最终预测结果的打印。我们可以看到特征11和特征3用于决策,因此应该被认为具有高度的预测能力来确定客户流失的可能性。这些特征值映射到“ 客户服务电话 ”字段和“ 总分钟数”字段并不奇怪。决策树通常用于特征选择,因为它们提供了一个确定最重要特征(最接近树根的特征)的自动化机制。
预测和模型评估
模型的实际性能可以使用尚未用于任何训练或交叉验证活动的测试数据集来确定。我们将使用模型管道来转换测试集,这将根据相同的方法来映射特征。
val predictions = cvModel.transform(test)
计算器将为我们提供预测的分数,然后我们会将它们的概率打印出来。
val accuracy = evaluator.evaluate(predictions) evaluator.explainParams() val result = predictions.select("label","prediction","probability") result.show
输出:
accuracy: Double =0.8484817813765183 metric name inevaluation(default: areaUnderROC)
在这种情况下,评估返回率为84.8%。预测概率可以非常有用地排列可能性的客户流失。这样,企业可用于保留的有限资源在适当的客户身上。
下面,我们计算一些更多的指标。错误/正确的正面和负面预测的数量也是有用的:
- 真正的好处是模型正确预测订阅取消的频率。
- 误报是模型错误地预测订阅取消的频率。
- 真正的否定表示模型正确预测不消除的频率。
- 假表示模型错误地预测不取消的频率。
val lp = predictions.select("label","prediction") val counttotal = predictions.count() val correct = lp.filter($"label"=== $"prediction").count() val wrong = lp.filter(not($"label"=== $"prediction")).count() val ratioWrong = wrong.toDouble / counttotal.toDouble val ratioCorrect = correct.toDouble / counttotal.toDouble val truep = lp.filter($"prediction"===0.0) .filter($"label"=== $"prediction").count()/ counttotal.toDouble val truen = lp.filter($"prediction"===1.0) .filter($"label"=== $"prediction").count()/ counttotal.toDouble val falsep = lp.filter($"prediction"===1.0) .filter(not($"label"=== $"prediction")).count()/ counttotal.toDouble val falsen = lp.filter($"prediction"===0.0) .filter(not($"label"=== $"prediction")).count()/ counttotal.toDouble println("counttotal : "+ counttotal) println("correct : "+ correct) println("wrong: "+ wrong) println("ratio wrong: "+ ratioWrong) println("ratio correct: "+ ratioCorrect) println("ratio true positive : "+ truep) println("ratio false positive : "+ falsep) println("ratio true negative : "+ truen) println("ratio false negative : "+ falsen)
基于Apache Spark机器学习的客户流失预测的更多相关文章
- 使用基于Apache Spark的随机森林方法预测贷款风险
使用基于Apache Spark的随机森林方法预测贷款风险 原文:Predicting Loan Credit Risk using Apache Spark Machine Learning R ...
- 带有Apache Spark的Lambda架构
欢迎大家前往腾讯云+社区,获取更多腾讯海量技术实践干货哦~ 目标 市场上的许多玩家已经建立了成功的MapReduce工作流程来每天处理以TB计的历史数据.但是谁愿意等待24小时才能获得最新的分析结果? ...
- Robinhood基于Apache Hudi的下一代数据湖实践
1. 摘要 Robinhood 的使命是使所有人的金融民主化. Robinhood 内部不同级别的持续数据分析和数据驱动决策是实现这一使命的基础. 我们有各种数据源--OLTP 数据库.事件流和各种第 ...
- 客户流失?来看看大厂如何基于spark+机器学习构建千万数据规模上的用户留存模型 ⛵
作者:韩信子@ShowMeAI 大数据技术 ◉ 技能提升系列:https://www.showmeai.tech/tutorials/84 行业名企应用系列:https://www.showmeai. ...
- Spark学习之基于MLlib的机器学习
Spark学习之基于MLlib的机器学习 1. 机器学习算法尝试根据训练数据(training data)使得表示算法行为的数学目标最大化,并以此来进行预测或作出决定. 2. MLlib完成文本分类任 ...
- Apache Flink vs Apache Spark——感觉二者是互相抄袭啊 看谁的好就抄过来 Flink支持在runtime中的有环数据流,这样表示机器学习算法更有效而且更有效率
Apache Flink是什么 Flink是一款新的大数据处理引擎,目标是统一不同来源的数据处理.这个目标看起来和Spark和类似.没错,Flink也在尝试解决 Spark在解决的问题.这两套系统都在 ...
- 掌握Spark机器学习库-07.6-线性回归实现房价预测
数据集 house.csv 数据概览 代码 package org.apache.spark.examples.examplesforml import org.apache.spark.ml.fea ...
- Apache Spark 2.2中基于成本的优化器(CBO)(转载)
Apache Spark 2.2最近引入了高级的基于成本的优化器框架用于收集并均衡不同的列数据的统计工作 (例如., 基(cardinality).唯一值的数量.空值.最大最小值.平均/最大长度,等等 ...
- Spark学习笔记——基于MLlib的机器学习
使用MLlib库中的机器学习算法对垃圾邮件进行分类 分类的垃圾邮件的如图中分成4个文件夹,两个文件夹是训练集合,两个文件夹是测试集合 build.sbt文件 name := "spark-f ...
随机推荐
- 10.10xadmin
2018-10-10 15:11:55 这几天讲的是xadmin插件 就是把表单,数据内容封装到类里面,简化的增删改查步骤! 放上源代码: app01/xadim.py from django.con ...
- PCL Save VTK File With Texture Coordinates 使用PCL库来保存带纹理坐标的VTK文件
我之前有一篇博客Convert PLY to VTK Using PCL 1.6.0 or PCL 1.8.0 使用PCL库将PLY格式转为VTK格式展示了如何将PLY格式文件转化为VTK格式的文件, ...
- es7 class装饰器
文档http://es6.ruanyifeng.com/#docs/decorator ts文档 https://www.tslang.cn/docs/handbook/decorators.html ...
- AIX文件系统和存储部署(转)
文件系统和存储部署 文件系统的管理是AIX存储结构中的最后一环.定义完lv后,可采用如下两种方式使用lv: a.作为裸设备(raw)使用,一般是数据库型的应用 b.在lv上定义文件系统,并提供文件和数 ...
- Google、微软、Linkedln、Uber、亚马逊等15+海外技术专家聚首2018TOP100Summit
11月30日-12月3日,由msup主办的第七届全球软件案例研究峰会(以下简称为TOP100Summit)将在北京国家会议中心举办.本届峰会以“释放AI生产力,让组织向智能化演进”作为开幕式主题, 4 ...
- ThinkPad X1 Carbon 2018 Windows 10无法关机的问题
最近两天在工作中很多同事都遇到了自己的X1电脑关机时自动重启的现象,这个问题让我在知乎.微软支持.国外各种科技论坛找到了很多类似的症状. 但是针对同事们遇到的问题,解决方案异常的简单:就是下载联想驱动 ...
- LUA 语言易混点
--代码: tab1 = { key1 = "val1", key2 = "val2","val2", "val3" , ...
- UDP,TCP的套接字编程的Python实现
UDP,TCP的套接字编程的Python实现 套接字:连接应用层和运输层,应用层的网络应用程序使用IP地址+端口号来标识自己,然后通过套接字调用运输层为其服务,网络应用程序只能指定自己要使用的网络类型 ...
- React中ref的使用方法
React中ref的使用方法 在react典型的数据流中,props传递是父子组件交互的唯一方式:通过传递一个新的props值来使子组件重新re-render,从而达到父子组件通信.当然,就像reac ...
- HTTP缓存机制及原理
前言 Http 缓存机制作为 web 性能优化的重要手段,对于从事 Web 开发的同学们来说,应该是知识体系库中的一个基础环节,同时对于有志成为前端架构师的同学来说是必备的知识技能.但是对于很多前端同 ...