简介

Apache Spark是一个开源、分布式、通用的分析引擎。多年来,它一直是大数据生态系统中对大型数据集进行批量和实时处理的主要工具。尽管对该平台的本地支持仅限于JVM语言集,但其他通常用于数据处理和分析的语言(如Python和R)已经加入了Spark的互操作层,以利用其功能。在2019年的Build大会上,微软发布了Spark.NET。Spark.NET提供了为Spark互操作层编写的绑定,允许您在.NET应用程序中使用诸如Spark SQL和Spark Streaming之类的组件。因为Spark.NET与.NET Standard 2.0兼容,可以运行Windows、Mac和Linux等操作系统。Spark.NET是Mobius项目的衍生版,该项目为Spark提供了.NET绑定。

这个示例从NYC Open Data门户获取餐馆违规数据集,并使用Spark.NET处理它。然后,处理后的数据被用来训练一个机器学习模型,该模型试图预测一个机构在检查后将获得的等级。该模型将使用一个开源、跨平台的机器学习框架ML.NET进行训练。最后,使用经过训练的模型来指定一个期望的等级,从而丰富当前不存在等级的数据。

这个示例的源代码可以在GitHub lqdev/RestaurantInspectionsSparkMLNET中找到。

必备条件

这个项目是用Ubuntu 18.04构建的,但是应该可以在Windows和Mac设备上运行。

Install Java

因为Spark是在JVM上运行的,所以您的PC上需要Java。所需的最小版本是Java 8。在终端输入以下命令:

sudo apt install openjdk--jdk openjdk--jre

然后,确保最新安装的版本是默认的。

sudo update-alternatives --config java

下载并配置Spark

使用Hadoop 2.7将Spark 2.4.1下载到您的计算机上。在本例中,我将它放在Downloads文件夹中。

wget https://archive.apache.org/dist/spark/spark-2.4.1/spark-2.4.1-bin-hadoop2.7.tgz -O ~/Downloads/spark-2.4.1-bin-hadoop2.7.tgz

将最近下载的文件的内容解压缩到/usr/bin/local目录。

sudo tar -xvf ~/Downloads/spark-2.4.-bin-hadoop2..tgz --directory /usr/local/bin

下载并配置.NET Spark Worker

下载.Net Spark worker到您的计算机上。在本例中,我将它放在Downloads文件夹中。

wget https://github.com/dotnet/spark/releases/download/v0.4.0/Microsoft.Spark.Worker.netcoreapp2.1.linux-x64-0.4.0.tar.gz -O ~/Downloads/Microsoft.Spark.Worker.netcoreapp2.1.linux-x64-0.4.0.tar.gz

将最新下载的文件的内容解压缩到/usr/bin/local目录。

sudo tar -xvf ~/Downloads/Microsoft.Spark.Worker.netcoreapp2..linux-x64-0.4..tar.gz --directory /usr/local/bin

最后,提高Microsoft.Spark.Worker的权限。这是执行用户定义函数(UDF)所必需的。

sudo chmod +x /usr/local/bin/Microsoft.Spark.Worker-0.4./Microsoft.Spark.Worker

配置环境变量

下载并配置这些必备条件之后,将它们在系统中的位置配置为环境变量。打开/.bashrc文件并在文件末尾添加以下内容。

export SPARK_PATH=/usr/local/bin/spark-2.4.-bin-hadoop2.
export PATH=$SPARK_PATH/bin:$PATH
export HADOOP_HOME=$SPARK_PATH
export SPARK_HOME=$SPARK_PATH
export DOTNET_WORKER_DIR=/usr/local/bin/Microsoft.Spark.Worker-0.4.

解决方案说明

了解数据

此解决方案中使用的数据集是DOHMH New York City Restaurant Inspection Results,来自NYC Open Data门户。它每天更新,包含餐馆和大学食堂指定的和未决的检查结果和违规情况。该数据集不包括已倒闭的企业。尽管数据集包含多个列,但在此解决方案中仅使用其中的一个子集。有关数据集的详细描述,请访问数据集网站。

了解解决方案

这个解决方案由四个不同的 .NET Core应用程序组成:

  • RestaurantInspectionsETL:获取原始数据的.NET Core控制台应用程序并使用Spark.NET将数据清理并转换为一种更容易使用的格式,作为训练和预测的输入,使用ML.NET构建的机器学习模型。
  • RestaurantInspectionsML:定义了ML.NET机器学习模型的输入和输出模型的.NET Core类库。另外,这是保存训练过的模型的地方。
  • RestaurantInspectionsTraining: .NET Core控制台应用,使用RestaurantInspectionsETL应用生成的分级数据,使用ML.NET的Auto ML训练一个多分类机器学习模型。
  • RestaurantInspectionsEnrichment: .NET Core控制台应用程序,使用RestaurantInspectionsETL应用程序生成的未分级数据作为训练ML.NET机器学习模型的输入,该模型可根据检测过程中发现的违规行为,预测某机构最可能得到的分级。

初始化解决方案

创建解决方案目录

为您的项目创建一个名为RestaurantInspectionsSparkMLNET的新目录,并使用以下命令导航到该目录。

mkdir RestaurantInspectionsSparkMLNET && cd RestaurantInspectionsSparkMLNET

然后,使用dotnet cli创建一个解决方案。

dotnet new sln

为了确保使用.Net Core SDK 2.1版本作为目标框架,特别是如果您安装了多个版本的.Net SDK,请在RestaurantInspectionsSparkMLNET解决方案目录中创建一个名为globals.json的文件。

touch global.json

global.json文件中添加以下内容。确保使用安装在计算机上的特定版本的SDK。在本例中,我的计算机上安装了版本2.1.801。可以使用 dotnet --list-sdks 命令列出安装的SDK版本。

{
"sdk": {
"version": "2.1.801"
}
}

创建和配置ETL项目

ETL项目负责获取原始源数据,并使用Spark应用一系列转换来准备数据,以训练机器学习模型,以及用缺失的分数来丰富数据。

RestaurantInspectionsSparkMLNET解决方案目录中,使用dotnet cli创建一个名为RestaurantInspectionsETL的新控制台应用程序。

dotnet new console -o RestaurantInspectionsETL

使用dotnet cli将新创建的项目添加到解决方案中。

dotnet sln add ./RestaurantInspectionsETL/

因为这个项目使用Microsoft.Spark NuGet包,使用dotnet cli安装它。

dotnet add ./RestaurantInspectionsETL/ package Microsoft.Spark --version 0.4.

创建和配置ML模型项目

ML模型类库将包含定义输入和输出的域模型,以及经过训练的模型本身。

RestaurantInspectionsSparkMLNET解决方案目录中,使用dotnet cli创建一个名为RestaurantInspectionsML的新类库。

dotnet new classlib -o RestaurantInspectionsML

使用dotnet cli将新创建的项目添加到解决方案中。

dotnet sln add ./RestaurantInspectionsML/

因为这个项目使用Microsoft.ML NuGet包,使用dotnet cli安装它。

dotnet add ./RestaurantInspectionsML/ package Microsoft.ML --version 1.3.

创建和配置ML训练项目

训练项目的目的是使用RestaurantInspectionsETL项目预先处理过的分级数据作为输入,利用ML.NET的Auto ML API来训练一个多级分类模型。训练后的模型将保存在RestaurantInspectionsML目录中。

RestaurantInspectionsSparkMLNET解决方案目录中,使用dotnet cli创建一个名为RestaurantInspectionsTraining的新控制台应用程序。

dotnet new console -o RestaurantInspectionsTraining

使用dotnet cli将新创建的项目添加到解决方案中。

dotnet sln add ./RestaurantInspectionsTraining/

此项目依赖于在RestaurantInspectionsML项目中创建的域模型,因此需要向其添加引用。

dotnet add ./RestaurantInspectionsTraining/ reference ./RestaurantInspectionsML/

因为这个项目使用的是Microsoft.Auto.ML NuGet包,使用dotnet cli安装它。

dotnet add ./RestaurantInspectionsTraining/ package Microsoft.ML.AutoML --version 0.15.

创建和配置丰富化数据项目

丰富化数据应用程序使用RestaurantInspectionsTraining应用程序创建的机器学习模型训练数据,并使用它预测RestaurantInspectionsETL应用创建的pre-processed未分类数据最有可能获得根据检查中发现的违法情况得到的等级。

RestaurantInspectionsSparkMLNET解决方案目录中,使用dotnet cli创建一个名为RestaurantInspectionsEnrichment的新控制台应用程序。

dotnet new console -o RestaurantInspectionsEnrichment

使用dotnet cli将新创建的项目添加到解决方案中。

dotnet sln add ./RestaurantInspectionsEnrichment/

此项目依赖于在RestaurantInspectionsML项目中创建的域模型,因此需要向其添加引用。

dotnet add ./RestaurantInspectionsEnrichment/ reference ./RestaurantInspectionsML/

请使用以下NuGet包:

  • Microsoft.Spark
  • Microsoft.ML.LightGBM (这不是必需的,但是如果最后的模型是LightGBM模型,那么预测可能会失败).

使用以下命令安装软件包:

dotnet add ./RestaurantInspectionsEnrichment/ package Microsoft.Spark --version 0.4.
dotnet add ./RestaurantInspectionsEnrichment/ package Microsoft.ML.LightGBM --version 1.3.

构建ETL程序

第一步是准备数据。为此使用Spark.NET转换集合。

下载数据

导航到RestaurantInspectionsETL项目并创建一个数据目录。

mkdir Data

然后,将数据下载到新创建的Data目录中。

wget https://data.cityofnewyork.us/api/views/43nn-pn8j/rows.csv?accessType=DOWNLOAD -O Data/NYC-Restaurant-Inspections.csv

构建ETL管道

将下列using添加到Program.cs文件中。

using System;
using System.IO;
using Microsoft.Spark.Sql;
using static Microsoft.Spark.Sql.Functions;

并不是所有的列都相关。在Program.cs文件的Main方法中,定义要删除的列。

string[] dropCols = new string[]
{
"CAMIS",
"CUISINE DESCRIPTION",
"VIOLATION DESCRIPTION",
"BORO",
"BUILDING",
"STREET",
"ZIPCODE",
"PHONE",
"ACTION",
"GRADE DATE",
"RECORD DATE",
"Latitude",
"Longitude",
"Community Board",
"Council District",
"Census Tract",
"BIN",
"BBL",
"NTA"
};

Spark应用程序的入口点是SparkSession。在Program.cs文件的Main方法中创建SparkSession。

var sc =
SparkSession
.Builder()
.AppName("Restaurant_Inspections_ETL")
.GetOrCreate();

然后,将存储在NYC-Restaurant-Inspections.csv文件中的数据加载到一个DataFrame中。

DataFrame df =
sc
.Read()
.Option("header", "true")
.Option("inferSchema", "true")
.Csv("Data/NYC-Restaurant-Inspections.csv");

可以将DataFrames看作数据库中的表或Excel中的表。Spark有各种表示数据的方法,但是数据流是Spark.NET支持的格式。此外,DataFrame API更高级,更容易使用。

加载数据之后,通过创建一个新的DataFrame来删除不需要的数据,这个DataFrame排除了dropCols和缺失的值。

DataFrame cleanDf =
df
.Drop(dropCols)
.WithColumnRenamed("INSPECTION DATE","INSPECTIONDATE")
.WithColumnRenamed("INSPECTION TYPE","INSPECTIONTYPE")
.WithColumnRenamed("CRITICAL FLAG","CRITICALFLAG")
.WithColumnRenamed("VIOLATION CODE","VIOLATIONCODE")
.Na()
.Drop();

通常,机器学习模型期望值是数值,因此在ETL步骤中,尝试将尽可能多的值转换为数值。CRITICALFLAG列包含可以编码为0/1的“Y/N”值。

DataFrame labeledFlagDf =
cleanDf
.WithColumn("CRITICALFLAG",
When(Functions.Col("CRITICALFLAG") == "Y",)
.Otherwise());

该数据集每行包含一个违规项,对应不同的检查。因此,所有的违规行为都需要通过业务和检查进行汇总。

DataFrame groupedDf =
labeledFlagDf
.GroupBy("DBA", "INSPECTIONDATE", "INSPECTIONTYPE", "CRITICALFLAG", "SCORE", "GRADE")
.Agg(Functions.CollectSet(Functions.Col("VIOLATIONCODE")).Alias("CODES"))
.Drop("DBA", "INSPECTIONDATE")
.WithColumn("CODES", Functions.ArrayJoin(Functions.Col("CODES"), ","))
.Select("INSPECTIONTYPE", "CODES", "CRITICALFLAG", "SCORE", "GRADE");

既然数据是用于训练和预测的格式,那么将清理后的数据流分成两个新的数据流,分级的和未分级的。分级数据集是用来训练机器学习模型的数据。未分级的数据将被用来完整丰富化。

DataFrame gradedDf =
groupedDf
.Filter(
Col("GRADE") == "A" |
Col("GRADE") == "B" |
Col("GRADE") == "C" ); DataFrame ungradedDf =
groupedDf
.Filter(
Col("GRADE") != "A" &
Col("GRADE") != "B" &
Col("GRADE") != "C" );

将DataFrames保存为csv文件供以后使用。

var timestamp = ((DateTimeOffset) DateTime.UtcNow).ToUnixTimeSeconds().ToString();

var saveDirectory = Path.Join("Output",timestamp);

if(!Directory.Exists(saveDirectory))
{
Directory.CreateDirectory(saveDirectory);
} gradedDf.Write().Csv(Path.Join(saveDirectory,"Graded")); ungradedDf.Write().Csv(Path.Join(saveDirectory,"Ungraded"));

发布并运行ETL应用程序

最终的Program.cs文件应该如下所示:

using System;
using System.IO;
using Microsoft.Spark.Sql;
using static Microsoft.Spark.Sql.Functions; namespace RestaurantInspectionsETL
{
class Program
{
static void Main(string[] args)
{
// Define columns to remove
string[] dropCols = new string[]
{
"CAMIS",
"CUISINE DESCRIPTION",
"VIOLATION DESCRIPTION",
"BORO",
"BUILDING",
"STREET",
"ZIPCODE",
"PHONE",
"ACTION",
"GRADE DATE",
"RECORD DATE",
"Latitude",
"Longitude",
"Community Board",
"Council District",
"Census Tract",
"BIN",
"BBL",
"NTA"
}; // Create SparkSession
var sc =
SparkSession
.Builder()
.AppName("Restaurant_Inspections_ETL")
.GetOrCreate(); // Load data
DataFrame df =
sc
.Read()
.Option("header", "true")
.Option("inferSchema", "true")
.Csv("Data/NYC-Restaurant-Inspections.csv"); //Remove columns and missing values
DataFrame cleanDf =
df
.Drop(dropCols)
.WithColumnRenamed("INSPECTION DATE","INSPECTIONDATE")
.WithColumnRenamed("INSPECTION TYPE","INSPECTIONTYPE")
.WithColumnRenamed("CRITICAL FLAG","CRITICALFLAG")
.WithColumnRenamed("VIOLATION CODE","VIOLATIONCODE")
.Na()
.Drop(); // Encode CRITICAL FLAG column
DataFrame labeledFlagDf =
cleanDf
.WithColumn("CRITICALFLAG",
When(Functions.Col("CRITICALFLAG") == "Y",)
.Otherwise()); // Aggregate violations by business and inspection
DataFrame groupedDf =
labeledFlagDf
.GroupBy("DBA", "INSPECTIONDATE", "INSPECTIONTYPE", "CRITICALFLAG", "SCORE", "GRADE")
.Agg(Functions.CollectSet(Functions.Col("VIOLATIONCODE")).Alias("CODES"))
.Drop("DBA", "INSPECTIONDATE")
.WithColumn("CODES", Functions.ArrayJoin(Functions.Col("CODES"), ","))
.Select("INSPECTIONTYPE", "CODES", "CRITICALFLAG", "SCORE", "GRADE"); // Split into graded and ungraded DataFrames
DataFrame gradedDf =
groupedDf
.Filter(
Col("GRADE") == "A" |
Col("GRADE") == "B" |
Col("GRADE") == "C" ); DataFrame ungradedDf =
groupedDf
.Filter(
Col("GRADE") != "A" &
Col("GRADE") != "B" &
Col("GRADE") != "C" ); // Save DataFrames
var timestamp = ((DateTimeOffset) DateTime.UtcNow).ToUnixTimeSeconds().ToString(); var saveDirectory = Path.Join("Output",timestamp); if(!Directory.Exists(saveDirectory))
{
Directory.CreateDirectory(saveDirectory);
} gradedDf.Write().Csv(Path.Join(saveDirectory,"Graded")); ungradedDf.Write().Csv(Path.Join(saveDirectory,"Ungraded"));
}
}
}

使用以下命令发布应用程序。

dotnet publish -f netcoreapp2. -r ubuntu.18.04-x64

使用spark-submit运行应用程序。

spark-submit --class org.apache.spark.deploy.dotnet.DotnetRunner --master local bin/Debug/netcoreapp2./ubuntu.18.04-x64/publish/microsoft-spark-2.4.x-0.4..jar dotnet bin/Debug/netcoreapp2./ubuntu.18.04-x64/publish/RestaurantInspectionsETL.dll

构建ML Domain

定义输入模型结构

导航到RestaurantInspectionsTraining目录并创建一个名为ModelInput.cs的新文件。

touch ModelInput.cs

打开ModelInput.cs文件并添加以下代码。

using Microsoft.ML.Data;

namespace RestaurantInspectionsML
{
public class ModelInput
{
[LoadColumn()]
public string InspectionType { get; set; } [LoadColumn()]
public string Codes { get; set; } [LoadColumn()]
public float CriticalFlag { get; set; } [LoadColumn()]
public float InspectionScore { get; set; } [LoadColumn()]
[ColumnName("Label")]
public string Grade { get; set; }
}
}

在模型中使用Attributes,定义了五个属性:

  • InspectionType:检验的类型。
  • Codes:检查中发现违规类型的代码。
  • CriticalFlag:指示检查期间的任何违规行为是否严重(导致食源性疾病)。
  • InspectionScore:检查后分配的分数。
  • Grade:检查后指定的字母等级

LoadColumn属性定义了该列在文件中的位置。最后一列中的数据被分配给Grade属性,然后在IDataView中作为标签引用。ML.NET算法使用ColumnName属性指定默认的列名,并在模型类中保持这个命名,这样就不需要在训练管道中将特性和标签列定义为参数。

定义输出模型结构

RestaurantInspectionsTraining目录中创建一个名为ModelOutput.cs的新文件。

touch ModelOutput.cs

打开ModelOutput.cs文件并添加以下代码。

namespace RestaurantInspectionsML
{
public class ModelOutput
{
public float[] Scores { get; set; }
public string PredictedLabel { get; set; }
}
}

对于输出模型,ModelOutput类使用模型训练过程生成的输出的默认列名的属性:

  • Scores:一个包含所有预测类的概率的浮点向量。
  • PredictedLabel:预测的值。在这种情况下,PredictedLabel是在检查之后指定的预测等级,它给出了该检查的一组特性。

构建模型训练应用程序

该应用程序训练了一个多级分类算法。找到具有正确参数的“最佳”算法需要进行实验。幸运的是,如果您为ML.NET提供了您想要训练的算法类型,那么ML.NET的Auto ML就可以为您做到这一点。

加载分级数据

导航到restaurantinspectionproject目录,并将以下using语句添加到Program.cs类中。

using System;
using System.IO;
using System.Linq;
using Microsoft.ML;
using static Microsoft.ML.DataOperationsCatalog;
using Microsoft.ML.AutoML;
using RestaurantInspectionsML;

Program.cs文件的Main方法中,定义存储数据文件的路径。

string solutionDirectory = "/home/lqdev/Development/RestaurantInspectionsSparkMLNET";
string dataLocation = Path.Combine(solutionDirectory,"RestaurantInspectionsETL","Output");

ML.NET应用程序的入口点有MLContext,需要初始化一个MLContext实例。

MLContext mlContext = new MLContext();

接下来,获取数据文件的路径。RestaurantInspectionsETL应用程序生成的输出既包含csv文件,也包含关于创建它们的分区的信息。对于训练,只需要csv文件。

var latestOutput =
Directory
.GetDirectories(dataLocation)
.Select(directory => new DirectoryInfo(directory))
.OrderBy(directoryInfo => directoryInfo.Name)
.Select(directory => Path.Join(directory.FullName,"Graded"))
.First(); var dataFilePaths =
Directory
.GetFiles(latestOutput)
.Where(file => file.EndsWith("csv"))
.ToArray();

然后,将数据加载到IDataView中。IDataView类似于DataFrame,因为它可以将数据表示为行、列及其模式。

var dataLoader = mlContext.Data.CreateTextLoader<ModelInput>(separatorChar:',', hasHeader:false, allowQuoting:true, trimWhitespace:true);

IDataView data = dataLoader.Load(dataFilePaths);

将数据分成训练集和测试集进行评估是一个很好的实践。将数据分成80%的训练集和20%的测试集。

TrainTestData dataSplit = mlContext.Data.TrainTestSplit(data,testFraction:0.2);
IDataView trainData = dataSplit.TrainSet;
IDataView testData = dataSplit.TestSet;

创建实验

Auto ML获取数据,使用不同的模型和超参数进行实验,以寻找“最佳”模型。定义实验的设置。在这种情况下,模型将运行600秒或10分钟,并尝试找到日志损失最低的模型。

var experimentSettings = new MulticlassExperimentSettings();
experimentSettings.MaxExperimentTimeInSeconds = ;
experimentSettings.OptimizingMetric = MulticlassClassificationMetric.LogLoss;

然后,创建实验。

var experiment = mlContext.Auto().CreateMulticlassClassificationExperiment(experimentSettings);

创建实验之后,运行它。

var experimentResults = experiment.Execute(data, progressHandler: new ProgressHandler());

默认情况下,运行应用程序不会显示进度信息。但是,可以将ProgressHandler对象传递到调用已实现Report方法的实验的Execute方法中。

restaurantinspectionstrain项目目录中,创建一个名为ProgressHandler.cs的新文件。

touch ProgressHandler.cs

然后,添加以下代码:

using System;
using Microsoft.ML.Data;
using Microsoft.ML.AutoML; namespace RestaurantInspectionsTraining
{
public class ProgressHandler : IProgress<RunDetail<MulticlassClassificationMetrics>>
{
public void Report(RunDetail<MulticlassClassificationMetrics> run)
{
Console.WriteLine($"Trained {run.TrainerName} with Log Loss {run.ValidationMetrics.LogLoss:0.####} in {run.RuntimeInSeconds:0.##} seconds");
}
}
}

ProgressHandler类派生自IProgress<T>接口,该接口需要实现Report方法。每次运行后传递到Report方法中的对象是一个RunDetail<MulticlassClassificationMetrics>对象。每次运行完成时,都会调用Report方法并执行其中的代码。

评估结果

一旦实验完成运行,从最佳运行中获取模型。将下列代码添加到Program.cs的Main方法中。

var bestModel = experimentResults.BestRun.Model;

使用测试数据集评估模型的性能并测量其微精度度量。

IDataView scoredTestData = bestModel.Transform(testData);
var metrics = mlContext.MulticlassClassification.Evaluate(scoredTestData);
Console.WriteLine($"MicroAccuracy: {metrics.MicroAccuracy}");

保存训练好的模型

最后,将训练好的模型保存到RestaurantInspectionsML中。

string modelSavePath = Path.Join(solutionDirectory,"RestaurantInspectionsML","model.zip");
mlContext.Model.Save(bestModel, data.Schema, modelSavePath);

正常情况会在RestaurantInspectionsML项目中创建一个名为model.zip的文件。

通过向RestaurantInspectionsML.csproj添加以下内容,确保将训练后的模型文件复制并输出到RestaurantInspectionsML目录中。

<ItemGroup>
<None Include="model.zip">
<CopyToOutputDirectory>PreserveNewest</CopyToOutputDirectory>
</None>
</ItemGroup>

将其复制到RestaurantInspectionsML的输出目录可以更容易地从RestaurantInspectionsEnrichment项目中引用,因为该项目已经包含了对RestaurantInspectionsML类库的引用。

训练模型

最终的Program.cs文件应该如下所示:

using System;
using System.IO;
using System.Linq;
using Microsoft.ML;
using static Microsoft.ML.DataOperationsCatalog;
using Microsoft.ML.AutoML;
using RestaurantInspectionsML; namespace RestaurantInspectionsTraining
{
class Program
{
static void Main(string[] args)
{
// Define source data directory paths
string solutionDirectory = "/home/lqdev/Development/RestaurantInspectionsSparkMLNET";
string dataLocation = Path.Combine(solutionDirectory,"RestaurantInspectionsETL","Output"); // Initialize MLContext
MLContext mlContext = new MLContext(); // Get directory name of most recent ETL output
var latestOutput =
Directory
.GetDirectories(dataLocation)
.Select(directory => new DirectoryInfo(directory))
.OrderBy(directoryInfo => directoryInfo.Name)
.Select(directory => Path.Join(directory.FullName,"Graded"))
.First(); var dataFilePaths =
Directory
.GetFiles(latestOutput)
.Where(file => file.EndsWith("csv"))
.ToArray(); // Load the data
var dataLoader = mlContext.Data.CreateTextLoader<ModelInput>(separatorChar:',', hasHeader:false, allowQuoting:true, trimWhitespace:true);
IDataView data = dataLoader.Load(dataFilePaths); // Split the data
TrainTestData dataSplit = mlContext.Data.TrainTestSplit(data,testFraction:0.2);
IDataView trainData = dataSplit.TrainSet;
IDataView testData = dataSplit.TestSet; // Define experiment settings
var experimentSettings = new MulticlassExperimentSettings();
experimentSettings.MaxExperimentTimeInSeconds = ;
experimentSettings.OptimizingMetric = MulticlassClassificationMetric.LogLoss; // Create experiment
var experiment = mlContext.Auto().CreateMulticlassClassificationExperiment(experimentSettings); // Run experiment
var experimentResults = experiment.Execute(data, progressHandler: new ProgressHandler()); // Best Run Results
var bestModel = experimentResults.BestRun.Model; // Evaluate Model
IDataView scoredTestData = bestModel.Transform(testData);
var metrics = mlContext.MulticlassClassification.Evaluate(scoredTestData);
Console.WriteLine($"MicroAccuracy: {metrics.MicroAccuracy}"); // Save Model
string modelSavePath = Path.Join(solutionDirectory,"RestaurantInspectionsML","model.zip");
mlContext.Model.Save(bestModel, data.Schema, modelSavePath);
}
}
}

完成所有代码和配置后,从restaurantinspectionstrain目录中,使用dotnet cli运行应用程序。注意,这将运行10来分钟。

dotnet run

控制台输出应该类似于下面的内容:

Trained LightGbmMulti with Log Loss 0.1547 in 1.55 seconds
Trained FastTreeOva with Log Loss 0.0405 in 65.58 seconds
Trained FastForestOva with Log Loss 0.0012 in 53.37 seconds
Trained LightGbmMulti with Log Loss 0.0021 in 4.55 seconds
Trained FastTreeOva with Log Loss 0.8315 in 5.22 seconds
MicroAccuracy: 0.999389615839469

构建丰富化数据应用程序

该模型经过训练后,可用于丰富化未分级数据。

初始化PredictionEngine

导航到RestaurantInspectionsEnrichment项目目录,并将以下using语句添加到Program.cs类中。

using System.IO;
using System.Linq;
using Microsoft.ML;
using Microsoft.Spark.Sql;
using static Microsoft.Spark.Sql.Functions;
using RestaurantInspectionsML;

要进行预测,必须将模型加载到应用程序中,因为预测一次只生成一行,所以还需要创建一个PredictionEngine。

在Program类中,定义PredictionEngine。

private static readonly PredictionEngine<ModelInput,ModelOutput> _predictionEngine;

然后,创建一个构造函数来加载模型并初始化它。

static Program()
{
MLContext mlContext = new MLContext();
ITransformer model = mlContext.Model.Load("model.zip",out DataViewSchema schema);
_predictionEngine = mlContext.Model.CreatePredictionEngine<ModelInput,ModelOutput>(model);
}

加载未分级的数据

在Program类的Main方法中,定义数据文件的位置。

string solutionDirectory = "/home/lqdev/Development/RestaurantInspectionsSparkMLNET";
string dataLocation = Path.Combine(solutionDirectory,"RestaurantInspectionsETL","Output");

然后,获取由RestaurantInspectionsETL应用程序生成的最新未分级数据的路径。

var latestOutput =
Directory
.GetDirectories(dataLocation)
.Select(directory => new DirectoryInfo(directory))
.OrderBy(directoryInfo => directoryInfo.Name)
.Select(directory => directory.FullName)
.First();

为您的丰富化数据的应用程序初始化一个SparkSession。

var sc =
SparkSession
.Builder()
.AppName("Restaurant_Inspections_Enrichment")
.GetOrCreate();

RestaurantInspectionsETL生成的数据没有headers。但是,可以在加载数据时定义和设置架构。

var schema = @"
INSPECTIONTYPE string,
CODES string,
CRITICALFLAG int,
INSPECTIONSCORE int,
GRADE string"; DataFrame df =
sc
.Read()
.Schema(schema)
.Csv(Path.Join(latestOutput,"Ungraded"));

定义UDF

Spark中没有允许您使用PredictionEngine的内置函数。但是,Spark可以通过udf扩展。请记住,udf没有像内置函数那样进行优化。因此,尽可能多地使用内置函数。

在Program类中,创建一个名为PredictGrade的新方法,它接受一组特性,这些特性组成了训练模型所期望的ModelInput。

public static string PredictGrade(
string inspectionType,
string violationCodes,
int criticalFlag,
int inspectionScore)
{
ModelInput input = new ModelInput
{
InspectionType=inspectionType,
Codes=violationCodes,
CriticalFlag=(float)criticalFlag,
InspectionScore=(float)inspectionScore
}; ModelOutput prediction = _predictionEngine.Predict(input); return prediction.PredictedLabel;
}

然后,在Main方法中,将PredictGrade方法注册为SparkSession中的UDF。

sc.Udf().Register<string,string,int,int,string>("PredictGrade",PredictGrade);

丰富化数据

一旦注册了UDF,就可以在Select语句中使用它,Select语句将创建一个新的DataFrame,其中包括输入特性以及经过训练模型的预测等级输出。

var enrichedDf =
df
.Select(
Col("INSPECTIONTYPE"),
Col("CODES"),
Col("CRITICALFLAG"),
Col("INSPECTIONSCORE"),
CallUDF("PredictGrade",
Col("INSPECTIONTYPE"),
Col("CODES"),
Col("CRITICALFLAG"),
Col("INSPECTIONSCORE")
).Alias("PREDICTEDGRADE")
);

最后,保存丰富化的DataFrame。

string outputId = new DirectoryInfo(latestOutput).Name;
string enrichedOutputPath = Path.Join(solutionDirectory,"RestaurantInspectionsEnrichment","Output");
string savePath = Path.Join(enrichedOutputPath,outputId); if(!Directory.Exists(savePath))
{
Directory.CreateDirectory(enrichedOutputPath);
} enrichedDf.Write().Csv(savePath);

发布并运行丰富化数据的应用程序

最终的Program.cs文件应该如下所示。

using System.IO;
using System.Linq;
using Microsoft.ML;
using Microsoft.Spark.Sql;
using static Microsoft.Spark.Sql.Functions;
using RestaurantInspectionsML; namespace RestaurantInspectionsEnrichment
{
class Program
{
private static readonly PredictionEngine<ModelInput,ModelOutput> _predictionEngine; static Program()
{
MLContext mlContext = new MLContext();
ITransformer model = mlContext.Model.Load("model.zip",out DataViewSchema schema);
_predictionEngine = mlContext.Model.CreatePredictionEngine<ModelInput,ModelOutput>(model);
} static void Main(string[] args)
{
// Define source data directory paths
string solutionDirectory = "/home/lqdev/Development/RestaurantInspectionsSparkMLNET";
string dataLocation = Path.Combine(solutionDirectory,"RestaurantInspectionsETL","Output"); var latestOutput =
Directory
.GetDirectories(dataLocation)
.Select(directory => new DirectoryInfo(directory))
.OrderBy(directoryInfo => directoryInfo.Name)
.Select(directory => directory.FullName)
.First(); var sc =
SparkSession
.Builder()
.AppName("Restaurant_Inspections_Enrichment")
.GetOrCreate(); var schema = @"
INSPECTIONTYPE string,
CODES string,
CRITICALFLAG int,
INSPECTIONSCORE int,
GRADE string"; DataFrame df =
sc
.Read()
.Schema(schema)
.Csv(Path.Join(latestOutput,"Ungraded")); sc.Udf().Register<string,string,int,int,string>("PredictGrade",PredictGrade); var enrichedDf =
df
.Select(
Col("INSPECTIONTYPE"),
Col("CODES"),
Col("CRITICALFLAG"),
Col("INSPECTIONSCORE"),
CallUDF("PredictGrade",
Col("INSPECTIONTYPE"),
Col("CODES"),
Col("CRITICALFLAG"),
Col("INSPECTIONSCORE")
).Alias("PREDICTEDGRADE")
); string outputId = new DirectoryInfo(latestOutput).Name;
string enrichedOutputPath = Path.Join(solutionDirectory,"RestaurantInspectionsEnrichment","Output");
string savePath = Path.Join(enrichedOutputPath,outputId); if(!Directory.Exists(savePath))
{
Directory.CreateDirectory(enrichedOutputPath);
} enrichedDf.Write().Csv(savePath); } public static string PredictGrade(
string inspectionType,
string violationCodes,
int criticalFlag,
int inspectionScore)
{
ModelInput input = new ModelInput
{
InspectionType=inspectionType,
Codes=violationCodes,
CriticalFlag=(float)criticalFlag,
InspectionScore=(float)inspectionScore
}; ModelOutput prediction = _predictionEngine.Predict(input); return prediction.PredictedLabel;
}
}
}

RestaurantInspectionsEnrichment项目中使用以下命令发布应用程序。

dotnet publish -f netcoreapp2. -r ubuntu.18.04-x64

导航到发布目录。在本例中,它是bin/Debug/netcoreapp2.1/ubuntu.18.04-x64/publish

从发布目录中,使用spark-submit运行应用程序。

spark-submit --class org.apache.spark.deploy.dotnet.DotnetRunner --master local microsoft-spark-2.4.x-0.4..jar dotnet RestaurantInspectionsEnrichment.dll

文件输出应该类似于下面的内容:

Cycle Inspection / Initial Inspection,04N,,,A
Cycle Inspection / Re-inspection,08A,,,A
Cycle Inspection / Initial Inspection,"10B,10H",,,A
Cycle Inspection / Initial Inspection,10F,,,A
Cycle Inspection / Reopening Inspection,10F,,,C

结尾

这个解决方案展示了如何在.NET应用程序中使用Spark。因为它是.NET生态系统的一部分,所以可以利用其他组件和框架(如ML.NET)来扩展系统的功能。虽然这个示例是在本地单节点集群上开发和运行的,但Spark是按比例运行的。因此,可以通过设置集群并在其中运行ETL和工作负载来进一步改进该应用程序。

资源

基于Spark.NET和ML.NET Automated ML (自动学习)进行餐厅等级的检查预测的更多相关文章

  1. 基于Spark ALS构建商品推荐引擎

    基于Spark ALS构建商品推荐引擎   一般来讲,推荐引擎试图对用户与某类物品之间的联系建模,其想法是预测人们可能喜好的物品并通过探索物品之间的联系来辅助这个过程,让用户能更快速.更准确的获得所需 ...

  2. 基于Spark自动扩展scikit-learn (spark-sklearn)(转载)

    转载自:https://blog.csdn.net/sunbow0/article/details/50848719 1.基于Spark自动扩展scikit-learn(spark-sklearn)1 ...

  3. 基于Spark Mllib的文本分类

    基于Spark Mllib的文本分类 文本分类是一个典型的机器学习问题,其主要目标是通过对已有语料库文本数据训练得到分类模型,进而对新文本进行类别标签的预测.这在很多领域都有现实的应用场景,如新闻网站 ...

  4. 基于Spark的GBDT + LR模型实现

    目录 基于Spark的GBDT + LR模型实现 数据预处理部分 GBDT模型部分(省略调参部分) GBDT与LR混合部分 基于Spark的GBDT + LR模型实现 测试数据来源http://arc ...

  5. 基于Spark的电影推荐系统(推荐系统~2)

    第四部分-推荐系统-数据ETL 本模块完成数据清洗,并将清洗后的数据load到Hive数据表里面去 前置准备: spark +hive vim $SPARK_HOME/conf/hive-site.x ...

  6. 基于Spark的电影推荐系统(推荐系统~4)

    第四部分-推荐系统-模型训练 本模块基于第3节 数据加工得到的训练集和测试集数据 做模型训练,最后得到一系列的模型,进而做 预测. 训练多个模型,取其中最好,即取RMSE(均方根误差)值最小的模型 说 ...

  7. 基于Spark的电影推荐系统(推荐系统~7)

    基于Spark的电影推荐系统(推荐系统~7) 22/100 发布文章 liuge36 第四部分-推荐系统-实时推荐 本模块基于第4节得到的模型,开始为用户做实时推荐,推荐用户最有可能喜爱的5部电影. ...

  8. 基于Spark的电影推荐系统(推荐系统~1)

    第四部分-推荐系统-项目介绍 行业背景: 快速:Apache Spark以内存计算为核心 通用 :一站式解决各个问题,ADHOC SQL查询,流计算,数据挖掘,图计算 完整的生态圈 只要掌握Spark ...

  9. 【spark】spark应用(分布式估算圆周率+基于Spark MLlib的贷款风险预测)

    注:本章不涉及spark和scala原理的探讨,详情见其他随笔 一.分布式估算圆周率 计算原理:假设正方形的面积S等于x²,而正方形的内切圆的面积C等于Pi×(x/2)²,因此圆面积与正方形面积之比C ...

随机推荐

  1. Python语法速查: 6. 循环与迭代

    返回目录 (1)while循环与for循环 while仅能用于普通循环,而for除了可以做循环外,还可以遍历序列.集合.字典.迭代器等. 需要注意的是,在类似:for i in somelist: 的 ...

  2. 查看Maven版本

  3. new String(request.getParameter("userID").trim().getBytes("8859_1"))的含义是什么?

    new String(request.getParameter("userID").trim().getBytes("8859_1")) request.get ...

  4. 201871010117-石欣钰《面向对象程序设计(java)》第一周学习总结

    项目 内容 这个作业属于哪个课程 https://www.cnblogs.com/nwnu-daizh/ 这个作业的要求在哪里 https://www.cnblogs.com/nwnu-daizh/p ...

  5. AcWing 46. 二叉搜索树的后序遍历序列

    地址 https://www.acwing.com/solution/acwing/content/3959/ 题目描述输入一个整数数组,判断该数组是不是某二叉搜索树的后序遍历的结果. 如果是则返回t ...

  6. C# Stack 集合学习

    Stack 集合学习 学习自:博客园相关文章 Stack<T>集合 这个集合的特点为:后进先出,简单来说就是新元素都放到第一位,而且顺序移除元素也是从第一位开始的. 方法一:Push(T ...

  7. 初学Python之爬虫的简单入门

    初学Python之爬虫的简单入门 一.什么是爬虫? 1.简单介绍爬虫   爬虫的全称为网络爬虫,简称爬虫,别名有网络机器人,网络蜘蛛等等. 网络爬虫是一种自动获取网页内容的程序,为搜索引擎提供了重要的 ...

  8. golang数据结构之选择排序

    //SelectSort 选择排序 func SelectSort(arr *[]int) { ; i < len(arr); i++ { tmp := arr[i] index := i ; ...

  9. 新手入门:python的安装(一)

    windows下python的安装 -----因为我是个真小白,网上的大多入门教程并不适合我这种超级超级小白,有时候还会遇到各种各样的问题,因此记录一下我的安装过程,希望大家都能入门愉快,欢迎指教 - ...

  10. Element类

    ElementTree API主要包含在Element类中,ElementTree API就是XML树相关的函数 追加子节点有两种方式,一种是使用append(),另一种是使用SubElement() ...