在spark1.0中属性支持三种配置方式: 1.代码 在代码中构造SparkConf时指定master.appname或者key-value等 val conf = new SparkConf(); conf.setAppName("WordCount").setMaster(" spark://hadoop000:7077") val sc = new SparkContext(conf) val conf = new SparkConf(); conf.set(…
在执行Spark应用程序的时候,driver会提供一个webUI给出应用程序的执行信息.可是该webUI随着应用程序的完毕而关闭port,也就是说,Spark应用程序执行完后,将无法查看应用程序的历史记录.Spark history server就是为了应对这样的情况而产生的.通过配置,Spark应用程序在执行完应用程序之后,将应用程序的执行信息写入指定文件夹.而Spark history server能够将这些执行信息装载并以web的方式供用户浏览. 要使用history serv…