参考文章:https://apacheignite-fs.readme.io/docs/installation-deployment Spark application deployment model allows dynamic jar distribution during application start. This model, however, has some drawbacks: Spark dynamic class loader does not implement ge…
参考:https://www.itcodemonkey.com/article/9613.html gnite 和 Spark,如果笼统归类,都可以归于内存计算平台,然而两者功能上虽然有交集,并且 Ignite 也会对 Spark 进行支持,但是不管是从定位上,还是从功能上来说,它们差别巨大,适用领域有显著的区别.Ignite 和 Spark 都为 Apache 的顶级开源项目,遵循 Apache 2.0 开源协议,经过多年的发展,二者都已经脱离了单一的技术组件或者框架的范畴,向着多元化的生态圈…
一.Spark 架构与优化器 1.Spark架构 (重点) 2.Spark优化器 二.Spark+SQL的API (重点) 1.DataSet简介 2.DataFrame简介 3.RDD与DF/DS的创建 4.常用操作 5.类型转换 三.Spark外部数据源操作 (重点) 1.Parquet文件(默认文件) 2.Hive表 3.MySQL表(MySQL) 四.Spark+SQL的函数 1.内置函数(org.apache.spark.sql.funtions.scala) 2.自定义函数 五.Sp…
前一篇文章“Apache Spark学习:将Spark部署到Hadoop 2.2.0上”介绍了如何使用Maven编译生成可直接运行在Hadoop 2.2.0上的Spark jar包,而本文则在此基础上,介绍如何利用Eclipse构建Spark集成开发环境. (1) 准备工作 在正式介绍之前,先要以下软硬件准备: 软件准备: Eclipse Juno版本(4.2版本),可以直接点击这里下载:Eclipse 4.2 Scala 2.9.3版本,Window安装程序可以直接点击这里下载:Scala 2…
转自:点击打开链接 http://www.cnblogs.com/daxin/p/3560989.html EhCache WebCache 与 SpringMVC集成时 CacheManager冲突的问题 在使用EhCache Web组件时 需要将 SimplePageCachingFilter 需要用到的CacheManager. 在EhCache2.5版本以上 同一个JVM当中不允许出现俩个相同名字的CacheManager 否则会报错. 默认情况下SimplePageCachingFil…
问题: spark集成hive,启动spark-shell或者spark-sql的时候,报错: INFO MetaStoreDirectSql: MySQL check failed, assuming we are not on mysql: Lexical error at line 1, column 5. Encountered: "@" (64), after : "". 环境: spark-1.4 hive-1.2.1 mysql-5.1 jdbc驱动…
struts2单独使用时action由struts2自己负责创建:与spring集成时,action实例由spring负责创建(依赖注入).这导致在两种情况下struts.xml配置文件的略微差异. 假如:LoginAction在包cn.edu.jlu.cs.action中. 1. struts2单独使用时,action的class属性为LoginAction的全路径名,如下: ... <action name="login" class="cn.edu.jlu.cs.…
自从开始学习spark计算框架以来,我们老师教的是local模式下用eclipse运行spark程序,然后我在运行spark程序时,发现控制台的日志颜色总是显示为黑色,哇,作为程序猿总有一种强迫症,发现老师软件下的日志是红色的而我软件下的日志是黑色的.这种情况下就不能安心写spark代码.于是历时一个多月,我终于解决了这个问题. 首先,我在百度的过程中,网上说的是改log4j的jar包,还有在eclipse里面下各种各样的插件,这些我都试过了,发现最好的情况只有一部分的颜色能变,其余还是有一些为…
我们在初始化SparkConf时,或者提交Spark任务时,都会有master参数需要设置,如下: conf = SparkConf().setAppName(appName).setMaster(master) sc = SparkContext(conf=conf) /bin/spark-submit \ --cluster cluster_name \ --master yarn-cluster \ ... 但是这个master到底是何含义呢?文档说是设定master url,但是啥是ma…
最近在项目中在配置CodeCov 以及Travis 和 AppVeyor做持续集成时,遇到了一些问题,也解决了一些问题.顺便拿来分享一下. 首先时Travis,这个主要是来跑基于 Linux 环境下的一些测试的.你可以自定义push到 master上 或者 进行 pull request 时自动进行. 其次时 AppVeyor 这个我在项目中主要是来跑Windows环境的,虽然说这个两个环境都可以跑. 还有时 CodeCov 这个用来你的代码测试用例的可视化的,查看代码的覆盖率. 下面就是各个…