Spark实践的阶段性总结
写这篇小总结是因为前段时间是自己业余时间对Spark相关进行了些探索,接下来可能有别的同事一起加入,且会去借用一些别的服务器资源,希望可以借此理下思路。
实践Spark的原因
在之前Spark简介及安装的文章前面,介绍了Spark在大数据处理领域的一个定位,以及AMP实验室构建的生态圈,总之我定义Spark为一个值得研究的东西,包括他的实现语言Scala,底层的资源管理Mesos/YARN。对于Spark的实践,我理了下思路,大致有以下几个阶段:
1.看paper,官网等网上的资源介绍,了解熟悉Spark,熟悉scala之后看看源码
2.搭建Spark,以standalone的方式run example,在spark-shell下体验一下Scala的API,在pyspark下体验Python API
3.搭建Mesos,让Spark依赖Mesos跑起来
4.更大规模搭建Spark集群,测试一个场景,对性能进行评估,出一个具有说服力的报告
5.优化Spark集群配置,编写更多算法去体验
6.最后,基于Spark这个核心,打算建立一个平台,现在的构想还比较初步
现在处于从3进入4的阶段,而关于Spark的构想,也还有一些东西需要去实践,新的技术需要去调研和了解。大致是有了Spark集群之后,对Mesos和YARN有一个选择问题,从Spark读取另一个Hadoop的HDFS上文件,这件事的网络延迟影响究竟有多大,毕竟现在的情况是hadoop和spark肯定是部署两套机器上,存储节点和计算节点分离,特别是基于Mesos的话,肯定是这种状态。像豆瓣的Dpark可能是和MFS上的数据打交道的,可能会比较好地解决本地化的问题,可能能检测到目标数据存在某个节点上,而把这次任务调度到那台机器上,类似这样的感知我们肯定做不了。其次,现在搭建的Spark,目标是为了一些ML,DM的算法服务,如果是SQL能完成的简单查询任务,ad-hoc的东西让Shark来做应该就满足了,所以相关python的算法包支持,甚至能否支持结合R在Spark上,也是有待考察的一件事。关于这点,AMP实验室正在开发的MLbase是支持了不同抽象程度的算法api,今年夏天应该是要release一部分,冬天还会release一部分,MLBase能在Spark上提供给我们什么样程度的支持也有待考察。更远的,Scala其实还蛮适合编写DSL的,最后我们希望能在Spark这层之上,基于python等算法包,在最上面再封装一层DSL,类似Hadoop上的pig,而不是hive,来把数据处理的整个过程可视化出来,每个过程都可以清楚地剥离,甚至可以可视化。
Spark及周边
我可以使用的开发机无法连接外网,所以搭建Spark时使用的是编译过的Spark版本。Spark的编译依赖scala的sbt(simple build tool),相当于java的maven,但会更强大。sbt方面,本来Spark可以支持sbt构建的scala项目,但是sbt compile test package这些步骤在开发机上无法完成,根据项目里的build.sbt,构建是需要联网的。无奈的做法是使用spark的pyspark跑一些.py的程序,而spark支持的python API有些功能还没有完全完善,而且python是动态语言,在进行RDD相关操作时候,api使用起来总有些区别,不像java和scala的api会大同小异。
Mesos的搭建也是费了一番力,Mesos的优势在于利用linux container,完成了资源的分离和调度工作,不过也比较迷茫Mesos是否真的可靠,是不是YARN会更靠谱,比较Mesos是C++写成的,与Spark的交互会依赖JNI。淘宝的Spark是搭建在阿里的YARN集群上,所以我也还要进一步确定对于Mesos和YARN两套资源管理系统的异同。
以上两点是关于sbt和Mesos的,还有最近有意学习了下Scala这门语言的情况,有一些总结。《programming in scala》和《scala程序设计》都看了一遍,后者更适合java程序员读,从实践和特性介绍角度,都更好。整体上,scala的创新也许就是综合了其他语言的优点,本身是纯OO且面向函数的,这两者之间你可以使用任何一种你习惯的编程方式。与java的兼容不需要任何特殊写法和胶水代码,继承、调用、访问域、实现接口都没有问题,trait拥有类似接口的实现,介于单一和多继承之间,可以做到类似AOP那样切面的效果。函数式编程方面把immutable贯彻在每一处,从变量声明val到不可变的容器。函数式编程的思想主要就体现在两点上:函数是一级公民;方法引用透明。前者让函数可以像值一样互相传递,函数内可以内嵌函数;后者保证任何方法的调用都可以用他的结果来代替,而不影响程序语义,即函数不会有任何副作用。并行编程方面借鉴erlang的actor模型,每个传递对象本身就是不可变的,自然不用担心多线程时候对某个变量的修改操作会带来的任何影响。其实Spark里很多对RDD的transform操作,都大量依赖了scala本身带的filter(), map(), reduce(), foldLeft(), foreach()等操作,而scala的不可变也完全符合RDD。
阶段总结及展望
现在正在尝试一个可测试的场景,稍微编写一些代码,从HDFS上取数据,做一些处理。然后将这个程序放到更大的集群上去对比,性能怎么样?关于Mesos和YARN,也需要更多的调研和尝试,而sbt如果在现有的开发机上不可行的话,是否先编写python版本的程序运行?尝试部署一个Shark,看看Shark是否能够投入到一些场景中使用?python、R,怎样/是否可以融入Spark?MLbase?Spark本身源码层面的了解,以及scala语言本身更深入的认识。
在探索Spark的过程中,还需要更多的实践,更深的了解,更广的涉猎。
(全文完)
Spark实践的阶段性总结的更多相关文章
- 个推 Spark实践教你绕过开发那些“坑”
Spark作为一个开源数据处理框架,它在数据计算过程中把中间数据直接缓存到内存里,能大大提高处理速度,特别是复杂的迭代计算.Spark主要包括SparkSQL,SparkStreaming,Spark ...
- Spark 实践——基于 Spark Streaming 的实时日志分析系统
本文基于<Spark 最佳实践>第6章 Spark 流式计算. 我们知道网站用户访问流量是不间断的,基于网站的访问日志,即 Web log 分析是典型的流式实时计算应用场景.比如百度统计, ...
- Spark实践 -- 性能优化基础
性能调优相关的原理讲解.经验总结: 掌握一整套Spark企业级性能调优解决方案:而不只是简单的一些性能调优技巧. 针对写好的spark作业,实施一整套数据倾斜解决方案:实际经验中积累的数据倾斜现象的表 ...
- 大数据(3):基于sogou.500w.utf8数据Hbase和Spark实践
1. HBase安装部署操作 a) 解压HBase安装包tar –zxvf hbase-0.98.0-hadoop2-bin.tar.gzb) 修改环境变量 hbase-env.shexport JA ...
- Spark 实践——基于 Spark MLlib 和 YFCC 100M 数据集的景点推荐系统
1.前言 上接 YFCC 100M数据集分析笔记 和 使用百度地图api可视化聚类结果, 在对 YFCC 100M 聚类出的景点信息的基础上,使用 Spark MLlib 提供的 ALS 算法构建推荐 ...
- Spark 实践——用决策树算法预测森林植被
本文基于<Spark 高级数据分析>第4章 用决策树算法预测森林植被集. 完整代码见 https://github.com/libaoquan95/aasPractice/tree/mas ...
- Spark 实践——音乐推荐和 Audioscrobbler 数据集
本文基于<Spark 高级数据分析>第3章 用音乐推荐和Audioscrobbler数据 完整代码见 https://github.com/libaoquan95/aasPractice/ ...
- Spark 实践——用 Scala 和 Spark 进行数据分析
本文基于<Spark 高级数据分析>第2章 用Scala和Spark进行数据分析. 完整代码见 https://github.com/libaoquan95/aasPractice/tre ...
- Spark实践 -- 夜出顾客服务分析
原文链接:https://www.cnblogs.com/stillcoolme/p/10160397.html 1 业务需求 最近做的24小时书店大数据平台中的一个需求:获取一段时间内只在晚上进店, ...
随机推荐
- 基于visual Studio2013解决C语言竞赛题之1040因数分解
题目 解决代码及点评 /* 将一个数M分解为质因数(M≠0). */ #include <stdio.h> #include <stdlib.h> void main() ...
- 基于visual Studio2013解决C语言竞赛题之1031猜数
题目 解决代码及点评 /* 31. 猜号码∶由随机函数产生一个1至1000之间的整数,让人猜之. 计算机仅回答人猜的数大.小还是相等,当人猜对时, 由计算机打印出人 ...
- 在windows下如何配置RTT开发环境?
之前一直使用MDK查看和编译RTT的源码,这几天无聊想起RTT官方提供使用scons工具编译RTT,因此想试试这种方法,做下此笔记,以供入门者参考. 注 1 下载安装Python2.7 论坛中很多人说 ...
- jsp 分页(数据库读取数据)
<%@ page contentType="text/html; charset=gb2312"%> <%@ page language="java&q ...
- 免解压版的Mysql的启动脚本,并且执行导入(windows)
@echo off rem ################### set MYSQL_VERSION=mysql-5.5.32-win32 set LOCK=wot.lock rem ####### ...
- Python标准库:内置函数dict(**kwarg)
本函数是从一个字典參数构造一个新字典.參数kwarg是键值对的字典參数.以两个*开头的參数.就会收集成字典形式. 样例: #dict() #以键对方式构造字典 d1 = dict(one = 1, t ...
- hdu1003 最大连续子序和
Description Given a sequence a[1],a[2],a[3]......a[n], your job is to calculate the max sum of a sub ...
- eclipse升级后Android使用JAR报错
升级ADT22以后,老项目编译时后遇到 NoDefFoundClassError 这个错误,因为项目中使用了jar文件. 遇到此问题的解决步骤: 1.项目根目录下建立 libs ,并将jar文件移入 ...
- TensorFlow实现与优化深度神经网络
TensorFlow实现与优化深度神经网络 转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue ...
- poj1189 简单dp
http://poj.org/problem?id=1189 Description 有一个三角形木板,竖直立放.上面钉着n(n+1)/2颗钉子,还有(n+1)个格子(当n=5时如图1).每颗钉子和周 ...