作者:韩信子@ShowMeAI

机器学习实战系列: http://www.showmeai.tech/tutorials/41

本文地址http://www.showmeai.tech/article-detail/287

声明:版权所有,转载请联系平台与作者并注明出处

收藏ShowMeAI查看更多精彩内容

机器学习与流水线(pipeline)简介

我们知道机器学习应用过程包含很多步骤,如图所示『标准机器学习应用流程』,有数据预处理、特征工程、模型训练、模型迭代优化、部署预估等环节。

在简单分析与建模时,可以对每个板块进行单独的构建和应用。但在企业级应用中,我们更希望机器学习项目中的不同环节有序地构建成工作流(pipeline),这样不同流程步骤更易于理解、可重现、也可以防止数据泄漏等问题。

常用的机器学习建模工具,比如 Scikit-Learn,它的高级功能就覆盖了 pipeline,包含转换器、模型和其他模块等。

关于 Scikit-Learn 的应用方法可以参考ShowMeAI 机器学习实战教程 中的文章 SKLearn最全应用指南,也可以前往 Scikit-Learn 速查表 获取高密度的知识点清单。

但是,SKLearn 的简易用法下,如果我们把外部工具库,比如处理数据样本不均衡的 imblearn合并到 pipeline 中,却可能出现不兼容问题,比如有如下报错:

  1. TypeError: All intermediate steps should be transformers and implement fit and transform or be the string passthrough SMOTE()’ (type <class imblearn.over_sampling._smote.base.SMOTE’>) doesnt

本文以『客户流失』为例,讲解如何构建 SKLearn 流水线,具体地说包含:

  • 构建一个流水线(pipeline) ,会覆盖到 Scikit-Learn、 imblearn 和 feature-engine 工具的应用
  • 在编码步骤(例如 one-hot 编码)之后提取特征
  • 构建特征重要度图

最终解决方案如下图所示:在一个管道中组合来自不同包的多个模块。

我们下面的方案流程,覆盖了上述的不同环节:

  • 步骤 ①:数据预处理:数据清洗
  • 步骤 ②:特征工程:数值型和类别型特征处理
  • 步骤 ③:样本处理:类别非均衡处理
  • 步骤 ④:逻辑回归、xgboost、随机森林 及 投票集成
  • 步骤 ⑤:超参数调优与特征重要度分析

步骤0:准备和加载数据

我们先导入所需的工具库。

  1. # 数据处理与绘图
  2. import pandas as pd
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. # Sklearn工具库
  6. from sklearn.model_selection import train_test_split, RandomizedSearchCV, RepeatedStratifiedKFold, cross_validate
  7. # pipeline流水线相关
  8. from sklearn import set_config
  9. from sklearn.pipeline import make_pipeline, Pipeline
  10. from imblearn.pipeline import Pipeline as imbPipeline
  11. from sklearn.compose import ColumnTransformer, make_column_selector
  12. from sklearn.impute import SimpleImputer
  13. from sklearn.preprocessing import OneHotEncoder, MinMaxScaler
  14. # 常数列、缺失列、重复列 等处理
  15. from feature_engine.selection import DropFeatures, DropConstantFeatures, DropDuplicateFeatures
  16. # 非均衡处理、样本采样
  17. from imblearn.over_sampling import SMOTE
  18. from imblearn.under_sampling import RandomUnderSampler
  19. # 建模模型
  20. from xgboost import XGBClassifier
  21. from sklearn.linear_model import LogisticRegression
  22. from sklearn.ensemble import RandomForestClassifier, VotingClassifier
  23. from sklearn.metrics import roc_auc_score
  24. from sklearn.inspection import permutation_importance
  25. from scipy.stats import loguniform
  26. # 流水线可视化
  27. set_config(display="diagram")

如果你之前没有听说过 imblearn 和 feature-engine 工具包,我们做一个简单的说明:

  • Imblearn 可以处理类别不平衡的分类问题,内置不同的采样策略
  • feature-engine 用于特征列的处理(常数列、缺失列、重复列 等)

数据集:报纸订阅用户流失

我们这里用到的数据集来自 Kaggle 比赛 Newspaper churn。数据集包括15856条现在或曾经订阅该报纸的个人记录。

实战数据集下载(百度网盘):公众号『ShowMeAI研究中心』回复『实战』,或者点击 这里 获取本文 [14] 机器学习建模应用流水线 pipelineNewspaper churn 数据集

ShowMeAI官方GitHubhttps://github.com/ShowMeAI-Hub

数据集包含人口统计信息,如代表家庭收入的HH信息、房屋所有权、小孩信息、种族、居住年份、年龄范围、语言;地理信息如地址、州、市、县和邮政编码。另外,用户选择的订阅期长,以及与之相关的收费数据。该数据集还包括用户的来源渠道。最后会有字段表征客户是否仍然是我们的订户(是否流失)。

数据预处理与切分

我们先加载数据并进行预处理(例如将所有列名都小写并将目标变量转换为布尔值)。

  1. # 读取数据
  2. data = pd.read_excel("NewspaperChurn new version.xlsx")
  3. #数据预处理
  4. data.columns = [k.lower().replace(" ", "_") for k in data.columns]
  5. data.rename(columns={'subscriber':'churn'}, inplace=True)
  6. data['churn'].replace({'NO':False, 'YES':True}, inplace=True)
  7. # 类型转换
  8. data[data.select_dtypes(['object']).columns] = data.select_dtypes(['object']).apply(lambda x: x.astype('category'))
  9. # 取出特征列和标签列
  10. X = data.drop("churn", axis=1)
  11. y = data["churn"]
  12. # 训练集验证集切分
  13. X_train, X_val, y_train, y_val = train_test_split(X, y, test_size=0.2)

预处理过后的数据应如下所示:

步骤1:数据清洗

我们构建的 pipeline 流程的第一步是『数据清洗』,删除对预测没有帮助的列(比如 id 类字段,恒定值字段,或者重复的字段)。

  1. # 步骤1:数据清洗+字段处理
  2. ppl = Pipeline([
  3. ('drop_columns', DropFeatures(['subscriptionid'])),
  4. ('drop_constant_values', DropConstantFeatures(tol=1, missing_values='ignore')),
  5. ('drop_duplicates', DropDuplicateFeatures())
  6. ])

上面的代码创建了一个 pipeline 对象,它包含 3 个步骤:drop_columnsdrop_constant_valuesdrop_duplicates

这些步骤是元组形态的,第一个元素定义了步骤的名称(如 drop_columns),第二个元素定义了转换器(如 DropFeatures())。

这些简单的步骤,大家也可以通过 pandas 之类的外部工具轻松完成。 但是,我们在组装流水线时的想法是在pipeline中集成尽可能多的功能。

步骤2:特征工程与数据变换

在前面剔除不相关的列之后,我们接下来做一下缺失值处理和特征工程。 可以看到数据集包含不同类型的列(数值型和类别型 ),我们会针对这两个类型定义两个独立的工作流程。

关于特征工程,可以查看ShowMeAI 机器学习实战教程 中的文章 机器学习特征工程最全解读

  1. # 数据处理与特征工程pipeline
  2. ppl = Pipeline([
  3. # ① 剔除无关列
  4. ('drop_columns', DropFeatures(['subscriptionid'])),
  5. ('drop_constant_values', DropConstantFeatures(tol=1, missing_values='ignore')),
  6. ('drop_duplicates', DropDuplicateFeatures()),
  7. # ② 缺失值填充与数值/类别型特征处理
  8. ('cleaning', ColumnTransformer([
  9. # 2.1: 数值型字段缺失值填充与幅度缩放
  10. ('num',make_pipeline(
  11. SimpleImputer(strategy='mean'),
  12. MinMaxScaler()),
  13. make_column_selector(dtype_include='int64')
  14. ),
  15. # 2.2:类别型字段缺失值填充与独热向量编码
  16. ('cat',make_pipeline(
  17. SimpleImputer(strategy='most_frequent'),
  18. OneHotEncoder(sparse=False, handle_unknown='ignore')),
  19. make_column_selector(dtype_include='category')
  20. )])
  21. )
  22. ])

添加一个名为clearning 的步骤,对应一个 ColumnTransformer 对象。

ColumnTransformer 中,设置了两个新 pipeline:一个用于处理数值型,一个用于类别型处理。 通过 make_column_selector 函数确保每次选出的字段类型是对的。

这里使用 dtype_include 参数选择对应类型的列,这个函数也可以提供列名列表或正则表达式来选择。

步骤3:类别非均衡处理(数据采样)

在『用户流失』和『欺诈识别』这样的问题场景中,一个非常大的挑战就是『类别不平衡』——也就是说,流失用户相对于非流失用户来说,数量较少。

这里我们会采用到一个叫做 im``blearn 的工具库来处理类别非均衡问题,它提供了一系列数据生成与采样的方法来缓解上述问题。 本次选用 SMOTE 采样方法来对少的类别样本进行重采样。

SMOTE类别非均衡处理

添加 SMOTE 步骤后的 pipeline 如下:

  1. # 总体处理pipeline
  2. ppl = Pipeline([
  3. # ① 剔除无关列
  4. ('drop_columns', DropFeatures(['subscriptionid'])),
  5. ('drop_constant_values', DropConstantFeatures(tol=1, missing_values='ignore')),
  6. ('drop_duplicates', DropDuplicateFeatures()),
  7. # ② 缺失值填充与数值/类别型特征处理
  8. ('cleaning', ColumnTransformer([
  9. # 2.1: 数值型字段缺失值填充与幅度缩放
  10. ('num',make_pipeline(
  11. SimpleImputer(strategy='mean'),
  12. MinMaxScaler()),
  13. make_column_selector(dtype_include='int64')
  14. ),
  15. # 2.2:类别型字段缺失值填充与独热向量编码
  16. ('cat',make_pipeline(
  17. SimpleImputer(strategy='most_frequent'),
  18. OneHotEncoder(sparse=False, handle_unknown='ignore')),
  19. make_column_selector(dtype_include='category')
  20. )])
  21. ),
  22. # ③ 类别非均衡处理:重采样
  23. ('smote', SMOTE())
  24. ])

pipeline 特征校验

在最终构建集成分类器模型之前,我们查看一下经过 pipeline 处理得到的特征名称和其他信息。

pipeline 对象提供了一个名为 get_feature_names_out() 的函数,我们可以通过它获取特征名称。但在使用它之前,我们必须在数据集上拟合。 由于第 ③ 步 SMOTE 处理仅关注我们的标签 y 数据,我们暂时忽略它并专注于第 ① 和 ② 步。

  1. # 拟合数据,获取pipeline构建的特征名称和信息
  2. ppl_fts = ppl[0:4]
  3. ppl_fts.fit(X_train, y_train)
  4. features = ppl_fts.get_feature_names_out()
  5. pd.Series(features)

结果如下所示:

  1. 0 num__year_of_residence
  2. 1 num__zip_code
  3. 2 num__reward_program
  4. 3 cat__hh_income_$ 20,000 - $29,999
  5. 4 cat__hh_income_$ 30,000 - $39,999
  6. ...
  7. 12122 cat__source_channel_TMC
  8. 12123 cat__source_channel_TeleIn
  9. 12124 cat__source_channel_TeleOut
  10. 12125 cat__source_channel_VRU
  11. 12126 cat__source_channel_iSrvices
  12. Length: 12127, dtype: object

由于独热向量编码,许多带着 cat_ 开头(代表 category)的特征名已被创建。

如果大家想得到上面流程图一样的 pipeline 可视化,只需在代码中做一点小小的修改,在调用 pipeline 对象之前在您的代码中添加 set_config(display="diagram")

步骤4:构建集成分类器

下一步我们训练多个模型,并使用功能强大的集成模型(投票分类器)来解决当前问题。

关于这里使用到的逻辑回归、随机森林和 xgboost 模型,大家可以在 ShowMeAI 的 图解机器学习算法教程 中看到详细的原理讲解。

  1. # 逻辑回归模型
  2. lr = LogisticRegression(warm_start=True, max_iter=400)
  3. # 随机森林模型
  4. rf = RandomForestClassifier()
  5. # xgboost
  6. xgb = XGBClassifier(tree_method="hist", verbosity=0, silent=True)
  7. # 用投票器进行集成
  8. lr_xgb_rf = VotingClassifier(estimators=[('lr', lr), ('xgb', xgb), ('rf', rf)],
  9. voting='soft')

定义集成模型后,我们也把它集成到我们的 pipeline 中。

  1. # 总体处理pipeline
  2. ppl = imbPipeline([
  3. # ① 剔除无关列
  4. ('drop_columns', DropFeatures(['subscriptionid'])),
  5. ('drop_constant_values', DropConstantFeatures(tol=1, missing_values='ignore')),
  6. ('drop_duplicates', DropDuplicateFeatures()),
  7. # ② 缺失值填充与数值/类别型特征处理
  8. ('cleaning', ColumnTransformer([
  9. # 2.1: 数值型字段缺失值填充与幅度缩放
  10. ('num',make_pipeline(
  11. SimpleImputer(strategy='mean'),
  12. MinMaxScaler()),
  13. make_column_selector(dtype_include='int64')
  14. ),
  15. # 2.2:类别型字段缺失值填充与独热向量编码
  16. ('cat',make_pipeline(
  17. SimpleImputer(strategy='most_frequent'),
  18. OneHotEncoder(sparse=False, handle_unknown='ignore')),
  19. make_column_selector(dtype_include='category')
  20. )])
  21. ),
  22. # ③ 类别非均衡处理:重采样
  23. ('smote', SMOTE()),
  24. # ④ 投票器集成
  25. ('ensemble', lr_xgb_rf)
  26. ])

大家可能会注意到,我们在第1行中使用到的 Pipeline 替换成了 imblearn 的 imbPipeline 。这是很关键的一个处理,如果我们使用 SKLearn 的 pipeline,在拟合时会出现文初提到的错误:

  1. TypeError: All intermediate steps should be transformers and implement fit and transform or be the string 'passthrough' 'SMOTE()' (type <class 'imblearn.over_sampling._smote.base.SMOTE'>) doesn't

到这一步,我们就把基本的 pipeline 流程构建好了。

步骤5:超参数调整和特征重要性

超参数调优

我们构建的整条建模流水线中,很多组件都有超参数可以调整,这些超参数会影响最终的模型效果。对 pipeline 如何进行超参数调优呢,我们选用随机搜索 RandomizedSearchCV 对超参数进行调优,代码如下。

关于搜索调参的详细原理知识,大家可以查看 ShowMeAI 在文章 网络优化: 超参数调优、正则化、批归一化和程序框架 中的介绍。

大家特别注意代码中的命名规则。

  1. # 超参数调优
  2. params = {
  3. 'ensemble__lr__solver': ['newton-cg', 'lbfgs', 'liblinear'],
  4. 'ensemble__lr__penalty': ['none', 'l1', 'l2', 'elasticnet'],
  5. 'ensemble__lr__C': loguniform(1e-5, 100),
  6. 'ensemble__xgb__learning_rate': [0.1],
  7. 'ensemble__xgb__max_depth': [7, 10, 15, 20],
  8. 'ensemble__xgb__min_child_weight': [10, 15, 20, 25],
  9. 'ensemble__xgb__colsample_bytree': [0.8, 0.9, 1],
  10. 'ensemble__xgb__n_estimators': [300, 400, 500, 600],
  11. 'ensemble__xgb__reg_alpha': [0.5, 0.2, 1],
  12. 'ensemble__xgb__reg_lambda': [2, 3, 5],
  13. 'ensemble__xgb__gamma': [1, 2, 3],
  14. 'ensemble__rf__max_depth': [7, 10, 15, 20],
  15. 'ensemble__rf__min_samples_leaf': [1, 2, 4],
  16. 'ensemble__rf__min_samples_split': [2, 5, 10],
  17. 'ensemble__rf__n_estimators': [300, 400, 500, 600],
  18. }
  19. # 随机搜索调参
  20. rsf = RepeatedStratifiedKFold(random_state=42)
  21. clf = RandomizedSearchCV(ppl, params,scoring='roc_auc', verbose=2, cv=rsf)
  22. clf.fit(X_train, y_train)
  23. # 输出信息
  24. print("Best Score: ", clf.best_score_)
  25. print("Best Params: ", clf.best_params_)
  26. print("AUC:", roc_auc_score(y_val, clf.predict(X_val)))

解释一下上面代码中的超参数命名:

  • 第一个参数( ensemble__ ):我们的 VotingClassifier 的名称
  • 第二个参数( lr__ ):我们集成中使用的模型的名称
  • 第三个参数( solver ):模型相关超参数的名称

因为这里是类别不平衡场景,我们使用重复分层 k-fold ( RepeatedStratifiedKFold)。

超参数调优这一步也不是必要的,在简单的场景下,大家可以直接使用默认参数,或者在定义模型的时候敲定超参数。

特征重要度图

为了不让我们的模型成为黑箱模型,我们希望对模型做一些解释,其中最重要的是归因分析,我们希望了解哪些特征是重要的,这里我们对特征重要度进行绘制。

  1. # https://inria.github.io/scikit-learn-mooc/python_scripts/dev_features_importance.html
  2. # 绘制特征重要度
  3. def plot_feature_importances(perm_importance_result, feat_name):
  4. """ bar plot the feature importance """
  5. fig, ax = plt.subplots()
  6. indices = perm_importance_result['importances_mean'].argsort()
  7. plt.barh(range(len(indices)),
  8. perm_importance_result['importances_mean'][indices],
  9. xerr=perm_importance_result['importances_std'][indices])
  10. ax.set_yticks(range(len(indices)))
  11. ax.set_title("Permutation importance")
  12. tmp = np.array(feat_name)
  13. _ = ax.set_yticklabels(tmp[indices])
  14. # 获取特征名称
  15. ppl_fts = ppl[0:4]
  16. ppl_fts.fit(X_train, y_train)
  17. features = ppl_fts.get_feature_names_out()
  18. # 用乱序法进行特征重要度计算和排列,以及绘图
  19. perm_importance_result_train = permutation_importance(clf, X_train, y_train, random_state=42)
  20. plot_feature_importances(perm_importance_result_train, features)

上述代码运行后的结果图如下,我们可以看到特征 hh_income 在预测中占主导地位。 由于这个特征其实是可以排序的(比如 30-40k 比 150-175k 要小),我们可以使用不同的编码方式(比如使用 LabelEncoding 标签编码)。

以上就是完整的机器学习流水线构建过程,大家可以看到,pipeline 可以把不同的环节集成在一起,一次性运行与调优,代码和流程都更为简洁紧凑,效率也更高。

参考资料

机器学习建模高级用法!构建企业级AI建模流水线 ⛵的更多相关文章

  1. 《Entity Framework 6 Recipes》中文翻译系列 (30) ------ 第六章 继承与建模高级应用之多对多关联

    翻译的初衷以及为什么选择<Entity Framework 6 Recipes>来学习,请看本系列开篇 第六章  继承与建模高级应用 现在,你应该对实体框架中基本的建模有了一定的了解,本章 ...

  2. 《Hadoop》对于高级编程Hadoop实现构建企业级安全解决方案

    本章小结 ●    理解企业级应用的安全顾虑 ●    理解Hadoop尚未为企业级应用提供的安全机制 ●    考察用于构建企业级安全解决方式的方法 第10章讨论了Hadoop安全性以及Hadoop ...

  3. Mego开发文档 - 建模高级主题

    建模高级主题 在建模过程中我们还有许多其他情况,这里列出本框架中的有用特性来用于解决此类问题. 函数映射 我们可以将指定的CLR函数映射到数据库中的系统函数或自定义函数,该特性用于补充框架中未提供的数 ...

  4. 《Hadoop高级编程》之为Hadoop实现构建企业级安全解决方案

    本章内容提要 ●    理解企业级应用的安全顾虑 ●    理解Hadoop尚未为企业级应用提供的安全机制 ●    考察用于构建企业级安全解决方案的方法 第10章讨论了Hadoop安全性以及Hado ...

  5. 简学Python第七章__class面向对象高级用法与反射

    Python第七章__class面向对象高级用法与反射 欢迎加入Linux_Python学习群  群号:478616847 目录: Python中关于oop的常用术语 类的特殊方法 元类 反射 一.P ...

  6. Android(java)学习笔记264:Android下的属性动画高级用法(Property Animation)

    1. 大家好,在上一篇文章当中,我们学习了Android属性动画的基本用法,当然也是最常用的一些用法,这些用法足以覆盖我们平时大多情况下的动画需求了.但是,正如上篇文章当中所说到的,属性动画对补间动画 ...

  7. makefile高级用法--使用函数

    makefile高级用法--使用函数 分类: C/C++ 使用函数 ———— 在Makefile中可以使用函数来处理变量,从而让我们的命令或是规则更为的灵活和具有智能.make所支持的函数也不算很多, ...

  8. 数据挖掘(data mining),机器学习(machine learning),和人工智能(AI)的区别是什么? 数据科学(data science)和商业分析(business analytics)之间有什么关系?

    本来我以为不需要解释这个问题的,到底数据挖掘(data mining),机器学习(machine learning),和人工智能(AI)有什么区别,但是前几天因为有个学弟问我,我想了想发现我竟然也回答 ...

  9. LinqToXml高级用法介绍

    LinqToXml高级用法介绍 一.函数构造 什么是函数构造?其是指通过单个语句构建XML树的能力. 那么它有什么作用呢? 作用1.用单个表达式快速创建复杂的XML树 见实例代码CreateXml( ...

随机推荐

  1. 2020级cpp机考模拟题A卷-#题解1

    为了各位朋友的身心健康(不是),我们按照题目难度顺序来写题解. 第一次写题解,希望多点包容和鼓励(恬不知耻 1:谁先输出-4 题意: 输入3个整数,按从大到小的顺序输出,每两个数字间加一个空格. 题解 ...

  2. 测试平台系列(95) 前置条件支持简单的python脚本

    大家好~我是米洛! 我正在从0到1打造一个开源的接口测试平台, 也在编写一套与之对应的教程,希望大家多多支持. 欢迎关注我的公众号米洛的测开日记,获取最新文章教程! 回顾 上一节我们构思了一下怎么去支 ...

  3. unittest自动化测试框架核心要素以及应用

    1. unittest核心要素 unittest介绍 测试框架,不仅仅用于单元测试 python自动的测试包 用法和django.test.TestCase类似 1.1.unitest介绍和核心要素 ...

  4. 想知道Vue3与Vue2的区别?五千字教程助你快速上手Vue3!

    从Vue3发布以来,我就一直对其非常感兴趣,就一直想着将其投入公司的生产中,但是开始考虑到很多不确定性就暂时对一些很小的功能进行一些尝试:慢慢的发现组合式Api的形式非常适合开发(个人感觉),尤其是V ...

  5. ssh-基于ssh的文件传输

    scp 基于ssh做Linux主机间的文件传输     scp  文件路径  用户名@被传输的主机名/IP:文件要存放的路径     scp  /etc/fstab  root@10.0.0.2:/t ...

  6. python采集一下美团外卖数据~~

    所需知识点(https://jq.qq.com/?_wv=1027&k=Ap5XvyNN) 1.动态数据抓包演示2.json数据解析3.requests模块的使用4.保存csv 安装命令:re ...

  7. 用python进行加密和解密——我看刑

    加密和解密 密码术意味着更改消息的文本,以便不知道你秘密的人永远不会理解你的消息. 下面就来创建一个GUI应用程序,使用Python进行加密和解密. 在这里,我们需要编写使用无限循环的代码,代码将不断 ...

  8. SQL SERVER 算法面试题,自己再插入数据时,本想一次性复制10条数据,结果变成了1024条。产生一个算法bug,最后记录一下

  9. private关键字的作用及使用和this关键字的作用

    封装的操作--private关键字 private的含义 1. private是一个权限修饰符,代表最小权限. 2. 可以修饰成员变量和成员方法. 3. 被private修饰后的成员变量和成员方法,只 ...

  10. 【ASP.NET Core】自定义的配置源

    本文的主题是简单说说如何实现 IConfigurationSource.IConfigurationProvider 接口来自定义一个配置信息的来源,后面老周给的示例是实现用 CSV 文件进行应用配置 ...