为了分享给你们,也为自己。

感谢下面的老师们!

1、王家林DT大数据梦工厂的大数据IMF传奇行动课程

总的目录是:

第一阶段:Linux和Java零基础企业级实战

第二阶段:Hadoop和Hive零基础企业级实战

第三阶段:Scala零基础企业级实战

第四阶段:从零基础到彻底精通第一个Spark实战程序

第五阶段:Spark Core实战、解析、性能优化

第六阶段:Spark SQL企业级实战

第七阶段:Kafka企业级实战

第八阶段:Spark Sreaming企业级实战

第九阶段:Spark图计算GraphX企业级实战

具体课程内容安排如下所示:
第一阶段:Linux和Java零基础企业级实战
  第1模块:Linux零基础光速速成(2小时)
  第2模块:Java面向对象实战(2小时)
  第3模块:范型与集合(2小时)
  第4模块:Java IO(1小时)
  第5模块:多线程与并发(1小时)
  第6模块:网络(1小时)
  第7模块: Java虚拟机内幕解密及性能优化(2小时)
第二阶段:Hadoop和Hive零基础企业级实战
  第1模块:Hadoop集群搭建零基础实战、Hadoop集群解析、Hadoop集群测试等(2小时)
  第2模块: Eclipse开发和打包运行Hadoop实战;(2小时)
  第3模块:第一个Hadoop MapReduce代码详解、Hadoop源码解读(2小时)
  第4模块:Yarn实战解密(1小时)
  第5模块:Hive集群安装和测试实战(2小时)
  第6模块:实战Hive分析搜索引擎的数据(2小时)
  第7模块:实战Hive分析电商的数据(2小时)
第三阶段:Scala零基础企业级实战
  第1模块:Scala动手实战入门(1小时)
  第2模块:Scala实战入门进阶(1小时)
  第3模块:Scala面向对象入门实战(1小时)
  第4模块:Scala面向对象进阶实战(2小时)
  第5模块:Scala函数式编程入门实战(2小时)
  第6模块:Scala函数式编程进阶实战(2小时)
  第7模块:Scala高级特性实战(3小时)
  第8模块:Scala的Actor 并发编程(2小时)
第四阶段:从零基础到彻底精通第一个Spark实战程序
  第1模块:精通Spark集群搭建与测试(2小时)
  第2模块:实战解析Spark运行原理和RDD解密(2小时)
  第3模块:彻底实战详解使用IDE开发Spark程序(1小时)
  第4模块:彻底实战详解 IntelliJ IDEA下的Spark程序开发(0.5小时)
  第5模块:底实战详解使用Java开发Spark程序(0.5小时)
  第6模块:彻底解密WordCount运行原理(2小时)
  第7模块:HA下的Spark集群工作原理解密(2小时)

第五阶段:Spark Core实战、解析、性能优化
  第1模块:Spark内核架构解密(2小时)
  第2模块:Spark RDD解密(2小时)
  第3模块:RDD创建内幕彻底解密(1小时)
  第4模块:RDD实战(RDD基本操作实战及Transformation流程图)(2小时)
  第5模块:RDD案例(join、cogroup、reduceByKey、groupByKey等)(1小时)
  第6模块:RDD持久化、广播、累加器.(2小时)
  第7模块:Spark高级排序彻底解秘(1小时)
  第8模块:Top N彻底解秘(1小时)
  第9模块:从Spark架构和物理执行中透视Job(4小时)
  第10模块:Spark Hash Shuffle内幕彻底解密及性能调优(2小时)
  第11模块: Spark Sort-Based Shuffle内幕工作机制、案例实战、源码剖析、优缺点及改进方式等彻底解密(3小时)
  第12模块:Spark on Yarn彻底解密(1小时)
  第13模块:Master HA彻底解密(1小时)
  第14模块:Spark 1.6 RPC内幕解密:运行机制、源码详解、Netty与Akka等(2小时)
  第15模块:Spark Tungsten内幕彻底解密(3个小时)
  第16模块:Spark Unified Memory Management内幕解密及由此引发的性能调优实践(2个小时)
第六阶段:Spark SQL企业级实战
  第1模块:Spark SQL和DataFrame的本质
  第2模块:DataFrame的使用
  第3模块:使用反射方式将RDD转换为DataFrame
  第4模块:使用编程方式将RDD转换为DataFrame
  第5模块:数据源之通用的load和save操作
  第6模块:Parquet数据源之使用编程方式加载数据
  第7模块:Parquet数据源之自动分区推断
  第8模块:Parquet数据源之合并元数据
  第9模块:JSON数据源复杂综合案例实战
  第10模块:Hive数据源复杂综合案例实战
  第11模块:JDBC数据源复杂综合案例实战
  第12模块:内置函数以及案例实战
  第13模块:开窗函数以及案例实战
  第14模块:UDF自定义函数实战
  第15模块:UDAF自定义聚合函数实战
  第16模块:工作原理剖析以及性能优化
  第18模块:核心源码深度剖析(DataFrame lazy特性、Optimizer优化策略等)
  第19模块: Hive On Spark深度解密
  第20模块: Hive On Spark 商业案例实战

额外增加:使用Spark SQL商业案例处理基因数据匹配;
第七阶段:Kafka企业级实战
  第1模块:Kafka分布式消息队列、Kafka原理解析(1小时)
  第2模块:Kafka安装配置(1小时)
  第3模块:Kafka集群在ZooKeeper里的彻底解密(1小时)
  第4模块:Producer、Controller、Broker、Consumer彻底解密(2小时)
  第5模块:Kafka与Spark集成开发实战(2小时)
第八阶段:Spark Sreaming企业级实战
  第1模块:Spark Sreaming架构原理深度剖析(2小时)
  第2模块:DStream以及基本工作原理(1小时)
  第3模块:实时wordcount程序开发(1小时)
  第4模块:StreamingContext详解(1小时)
  第5模块:输入DStream和Receiver详解(1小时)
  第6模块:输入DStream之基础数据源以及基于HDFS的实时WordCount案例实战(1小时)
  第7模块:基于Receiver的方式输入DStream之Kafka数据源实战(1小时)
  第8模块:基于Direct的方式输入DStream之Kafka数据源实战(1小时)
  第9模块:DStream的transformation操作详解狮子含(1小时)
  第10模块:updateStateByKey以及基于缓存的实时WordCount案例实战(1小时)
  第11模块:Transform以及广告计费日志实时黑名单过滤案例实战(1小时)
  第12模块:Window滑动窗口以及热点搜索词滑动统计案例实战(1小时)
  第13模块:DStream的output操作以及foreachRDD性能优化详解(1小时)
  第14模块:与Spark SQL结合使用之top3热门商品实时统计案例实战(1小时)
  第15模块:缓存与持久化机制详解(1小时)
  第16模块:Checkpoint机制详解(1小时)
  第17模块:部署、升级和监控实时应用程序(1小时)
  第18模块:容错机制以及事务语义详解(1小时)
  第19模块:StreamingContext初始化与Receiver启动原理剖析与源码分析(2小时)
  第20模块:数据接收原理剖析与源码分析(2小时)
  第21模块:数据处理原理剖析与源码分析(2小时)
  第22模块:性能调优详解(2小时)
第九阶段:Spark图计算GraphX企业级实战
  第1模块:Spark GraphX实战体验和架构解密
  第2模块: Table Operators详解和实战
  第3模块: Graph Operators详解和实战
  第4模块: GraphX各种常见算法解析和实战
  商业实战案例:基于婚恋社交网站的商业案例通过Spark图计算多维度分析婚恋社交网站的数据,提供管理决策和商业运维支持,内容用户网络的社区发现、用户影响力、能量传播、人群划分、年龄段预测、商品交易时序跳转等

2、王家林DT大数据梦工厂的大数据Spark“蘑菇云”行动课程

陆续推送...

一些推荐的spark/hadoop课程的更多相关文章

  1. 北风风hadoop课程体系

    课程一.基于Linux操作系统平台下的Java语言开发(20课时)课程简介本套课程主要介绍了Linux系统下的Java环境搭建及最基础的Java语法知识.学习Linux操作系统下Java语言开发的好处 ...

  2. Windows下搭建Spark+Hadoop开发环境

    Windows下搭建Spark+Hadoop开发环境需要一些工具支持. 只需要确保您的电脑已装好Java环境,那么就可以开始了. 一. 准备工作 1. 下载Hadoop2.7.1版本(写Spark和H ...

  3. Spark集群搭建【Spark+Hadoop+Scala+Zookeeper】

    1.安装Linux 需要:3台CentOS7虚拟机 IP:192.168.245.130,192.168.245.131,192.168.245.132(类似,尽量保持连续,方便记忆) 注意: 3台虚 ...

  4. 【Todo】找出共同好友 & Spark & Hadoop面试题

    找了这篇文章看了一下面试题<Spark 和hadoop的一些面试题(准备)> http://blog.csdn.net/qiezikuaichuan/article/details/515 ...

  5. Spark&Hadoop:scala编写spark任务jar包,运行无法识别main函数,怎么办?

    昨晚和同事一起看一个scala写的程序,程序都写完了,且在idea上debug运行是ok的.但我们不能调试的方式部署在客户机器上,于是打包吧.打包时,我们是采用把外部引入的五个包(spark-asse ...

  6. Spark+Hadoop问题小结

    1.spark执行./start-all.sh报"WARN Utils: Service 'sparkWorker' could not bind on port 0. Attempting ...

  7. Hadoop课程介绍

    一.课程简介 1. Hadoop是什么? Apache Hadoop是一款支持数据密集型分布式应用并以Apache 2.0许可协议发布的开源软件框架.它支持在商品硬件构建的大型集群上运行的应用程序.H ...

  8. 大牛博客!Spark / Hadoop / Kafka / HBase / Storm

    在这里,非常感谢下面的著名大牛们,一路的帮助和学习,给予了我很大的动力! 有了Hadoop,再次有了Spark,一次又一次,一晚又一晚的努力相伴! HBase简介(很好的梳理资料) 1. 博客主页:h ...

  9. 微博广告推荐中有关Hadoop的那些事

    一.背景 微博,一个DAU上亿.每日发博量几千万的社交性产品,拥有庞大的数据集.如何高效得从如此规模的数据集中挖掘出有价值的信息,以增强用户粘性,提高信息传播速度,就成了重中之重.因此,我们引入了ha ...

随机推荐

  1. 《OD学Oozie》20160807Oozie

    一.引入 MapReduce Job Hive 脚本任务 同一个业务:先后.定时调度 工作流: 定义工作流程 activity jbpm oozie: 大数据工作流定义与调度框架 专门定义与调度Map ...

  2. HeadFirst Jsp 07 (使用 jsp)

    Jsp 变成 Servlet, 容器会查看你的JSP, 把它转换成java源代码, 再编译成完整的Java servlet类. Jsp 不需要你的编译, 容器会自动替换成servlet. 在 jsp中 ...

  3. Java生成可执行文件 & MANIFEST.MF问题 METAINFO

    用 Intellij 进行打包.在File -> Project Structure里面. 然后应该会自动生成Jar包(也可以Build->Build Artifacts) xxx.jar ...

  4. serialize-and-deserialize-bst

    https://leetcode.com/problems/serialize-and-deserialize-bst/ 1. 用到Java Queue接口, // LinkedList实现了Queu ...

  5. Windows系统下Memcached缓存系列二:CouchbaseClient(c#客户端)的详细试用,单例模式

    在上一篇文章里面 ( Windows系统下Memcached缓存系列一:Couchbase(服务器端)和CouchbaseClient(c#客户端)的安装教程 ),我们介绍了服务器端的安装和客户端的安 ...

  6. Windows pyqt4 bat自动转换UI文件-->.pyw文件

    /***************************************************************************** * Windows pyqt4 bat自动 ...

  7. yaf框架流程三

    路由的原理请看http://yaf.laruence.com/manual/yaf.routes.html这个链接 要点:路由的顺序是堆栈模式的,及最后添加的路由规则最优先.由上两篇可知,定义的第一条 ...

  8. android 相对布局

    RelativeLayout布局 android:layout_marginTop="25dip" //顶部距离 android:gravity="left" ...

  9. 警惕VPS服务商常用的超售手段

    任何商业企业都希望将利益最大化,这是可以理解的.但如果做的过火最终损害的还是自己的利益.VPS服务提供商也一样,为了将利益最大化,他们往往会实用技术手段对所出售的VPS进行“超售”. 那么何谓“超售” ...

  10. centos下安装xfce+vnc

    首先安装桌面环境,我选择的是xfce,轻量级桌面,小巧实用不占太多内存,(占用内存方面,xfce少于kde,kde少于gnome). 安装xfce桌面一开始我以为第三方的软件源如rpmforge等应该 ...