首页
Python
Java
IOS
Andorid
NodeJS
JavaScript
HTML5
【
Spark大数据处理技术
】的更多相关文章
Spark大数据处理技术
全球首部全面介绍Spark及Spark生态圈相关技术的技术书籍 俯览未来大局,不失精细剖析,呈现一个现代大数据框架的架构原理和实现细节 透彻讲解Spark原理和架构,以及部署模式.调度框架.存储管理及应用监控等重要模块 Spark生态圈深度检阅:SQL处理Shark和Spark SQL.流式处理Spark Streaming.图计算Graphx及内存文件系统Tachyon 内容简介 书籍计算机书籍 <Spark大数据处理技术>以Spark 0.9版本为基础进行编写,是一本全面介绍Spark及S…
《Spark大数据处理:技术、应用与性能优化 》
基本信息 作者: 高彦杰 丛书名:大数据技术丛书 出版社:机械工业出版社 ISBN:9787111483861 上架时间:2014-11-5 出版日期:2014 年11月 开本:16开 页码:255 版次:1-1 所属分类: 计算机 > 数据库 > 数据库存储与管理 编辑推荐 根据最新技术版本,系统.全面.详细讲解Spark的各项功能使用.原理机制.技术细节.应用方法.性能优化,已经BDAS生态系统的相关技术. 内容简介 书籍计算机书籍 这是一本依据最新技术版本,系统.全面.详细讲解Spark…
《Spark大数据处理:技术、应用与性能优化》【PDF】 下载
内容简介 <Spark大数据处理:技术.应用与性能优化>根据最新技术版本,系统.全面.详细讲解Spark的各项功能使用.原理机制.技术细节.应用方法.性能优化,以及BDAS生态系统的相关技术. 作为一个基于内存计算的大数据并行计算框架,Spark不仅很好地解决了数据的实时处理问题,而且保证了高容错性和高可伸缩性.具体来讲,它有如下优势: 打造全栈多计算范式的高效数据流水线 轻量级快速处理 易于使用,支持多语言 与HDFS等存储层兼容 社区活跃度高 -- Spark已经在全球范围内广泛使用,无论…
《Spark大数据处理:技术、应用与性能优化》【PDF】
内容简介 <Spark大数据处理:技术.应用与性能优化>根据最新技术版本,系统.全面.详细讲解Spark的各项功能使用.原理机制.技术细节.应用方法.性能优化,以及BDAS生态系统的相关技术. 作为一个基于内存计算的大数据并行计算框架,Spark不仅很好地解决了数据的实时处理问题,而且保证了高容错性和高可伸缩性.具体来讲,它有如下优势: 打造全栈多计算范式的高效数据流水线 轻量级快速处理 易于使用,支持多语言 与HDFS等存储层兼容 社区活跃度高 -- Spark已经在全球范围内广泛使用,无论…
Spark大数据处理 之 从WordCount看Spark大数据处理的核心机制(1)
大数据处理肯定是分布式的了,那就面临着几个核心问题:可扩展性,负载均衡,容错处理.Spark是如何处理这些问题的呢?接着上一篇的"动手写WordCount",今天要做的就是透过这个大数据界的HelloWorld来看看Spark隐藏了哪些魔法. 请各位看官,带着分布式的问题往下看. 分布式架构 大数据时代,单机装下PB级的数据,然后在可接受的时间内处理完,不可能,所以一定是分布式的. ▶ 分布式存储 HDFS(Hadoop Distributed File System)是最常见的,和S…
Spark大数据处理 之 动手写WordCount
Spark是主流的大数据处理框架,具体有啥能耐,相信不需要多说.我们开门见山,直接动手写大数据界的HelloWorld:WordCount. 先上完整代码,看看咋样能入门. import org.apache.spark.SparkConf import org.apache.spark.SparkContext object WordCount { def main(args: Array[String]) { val conf = new SparkConf() conf.setAppNam…
Spark大数据处理 之 从WordCount看Spark大数据处理的核心机制(2)
在上一篇文章中,我们讲了Spark大数据处理的可扩展性和负载均衡,今天要讲的是更为重点的容错处理,这涉及到Spark的应用场景和RDD的设计来源. Spark的应用场景 Spark主要针对两种场景: 机器学习,数据挖掘,图应用中常用的迭代算法(每一次迭代对数据执行相似的函数) 交互式数据挖掘工具(用户反复查询一个数据子集) Spark在spark-submit外,还提供了spark-shell,它就是专门用来做交互数据挖掘的工具 MapReduce等框架并不明确支持迭代中间结果/数据子集的共享,…
Spark大数据处理 之 RDD粗粒度转换的威力
在从WordCount看Spark大数据处理的核心机制(2)中我们看到Spark为了支持迭代和交互式数据挖掘,而明确提出了内存中可重用的数据集RDD.RDD的只读特性,再加上粗粒度转换操作形成的Lineage,形成了它独立的高效容错机制. RDD的粗粒度的转换是否有足够的表达能力,来支持多种多样的应用需求呢?先看看RDD究竟有哪些API,然后看它们如何模拟Google经典的MapReduce和图数据处理框架Pregel. RDD的API 转换 def map[U](f: T => U): RDD…
Spark大数据处理框架入门(单机版)
导读 引言 环境准备 安装步骤 1.下载地址 2.开始下载 3.解压spark 4.配置环境变量 5.配置 spark-env.sh 6.启动spark服务 7.测试spark stay hungry stay foolish. 引言 2012年,UC Berkelye 的ANPLab研发并开源了新的大数据处理框架Spark.其核心思想包括两方面:一方面对大数据处理框架的输入/输出.中间数据进行建模,将这些数据抽象为统一的数据结构,命名为弹性分布式数据集(Resilent Distributed…
ceph hadoop spark 大数据处理
http://docs.ceph.com/docs/giant/cephfs/hadoop/ https://indico.cern.ch/event/524549/contributions/2185930/attachments/1290231/1921189/2016.06.13_-_Spark_on_Ceph.pdf http://www.ibm.com/developerworks/cn/opensource/os-cn-spark/…