铭文一级:

第五章:实战环境搭建

Spark源码编译命令:
./dev/make-distribution.sh \
--name 2.6.0-cdh5.7.0 \
--tgz \
-Pyarn -Phadoop-2.6 \
-Phive -Phive-thriftserver \
-Dhadoop.version=2.6.0-cdh5.7.0

铭文二级:

第五章:实战环境搭建(所有都配置到环境变量)

1、Scala的安装:Download->previous releases   //课程使用2.11.8

2、Maven的安装:Download->archives->binaries   //课程使用3.3.9

修改settings.xml的默认仓库地址

3、下载hadoop的安装包(CDH5的地址里有)

生成ssh公钥指令:ssh-keygen -t rsa

拷贝公钥:cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

解压hadoop安装包:

etc/hadoop目录下6个配置文件需要修改(*#*  //对应name与value配对):

配置文件第一部分(4个):

hadoop.env.sh  //修改java_home地址

core-site.xml   /*     fs.defaultFS#hdfs://hadoop000:8020     hadoop.tmp.dir#/home/hadoop/app/tmp      */

hdfs-site.xml   //副本系数自行设置: dfs.replication#1

slaves       //修改主机localhost为hadoop000

修改完这四个文件可以格式化hadoop:

进入hadoop目录的bin目录,执行:./hadoop namenode -format

配置到环境变量

到sbin目录下:./start-dfs.sh     //hadoop000:50070

配置文件第二部分(2个):

mapred-site.xml  //cp一份模板出来 运行在yarn上:mapreduce.framework.name#yarn

yarn-site.xml  //整合mapreduce:yarn.nodemanager.aux-services#mapredue-shuffle

到sbin目录下:./start-yarn.sh     //hadoop000:8088

hadoop fs -ls /

hadoop fs -mkdir /data

hadoop fs -put $FILE /data/

hadoop fs -test $FILE      //查看详细内容

运行一个内置的example测试hadoop环境是否安装成功=>

hadoop目录下有share/hadoop/mapreduce(在这目录下运行?是的)

hadoop jar $example那个jar包 pi 2 3

刷新yarn界面可观察到有内容提交上去

4、Hbase的安装(CDH5网址可以下载1.2.0版本)

需要修改三个配置文件:

hbase.env.sh  //A.java_home、B.解开ZK,并设置为false,不用hbase默认的zk来管理

hbase-site.xml //与hadoop-site.xml做比较

A.hbase.rootdir#hdfs://hadoop000:8020/hbase

B.hbase.cluster.distributed#true

C.hbase.zookeeper.quorum#hadoop000:2181

regionservers   //修改为hadoop000,与hadoop的slaves类似

启动:先启动zookeeper与hadoop的dfs,再启动hbase,bin目录下: ./start-hbase.sh

hadoop000:60010为默认UI端口

使用(单词不会或者忘了可以按tab键提示):./hbase shell

查看版本:version

查看状态:status

建表:create 'member','info','address'

查看所有表:list

查看表的详细内容:describe 'member'

5、Spark环境搭建,具体操作看笔记一的铭文二、铭文四或者:https://www.imooc.com/article/18419

bin目录下./spark-shell --master local[2]    //默认UI端口为:hadoop000:4040

IDEA搭建maven的Spark Streaming环境,在原有的基础上:

1.添加三个version:

spark.version:2.2.0

hadoop:2.6.0-cdh5.7.0

hbase:1.2.0-cdh5.7.0

2.因为使用cdh5,所以要引入cdh5仓库<repositories><repository>:

id#可以自己取

url#http://repository.cloudera.com/artifactory/cloudera-repos

3.添加四个dependency://单个依赖实际是包含了很多的依赖,否则自己一个一个地引入非常地麻烦

groupId#org.apache.*

artifactId#hadoop-client、hbase-client、hbase-server、spark-streaming_2.11

version#//${相对于的引入即可}

ps:spark-streaming_2.11可在官网文档

Programming Guides->Spark Streaming->拉下:Basic Concepts看到,直接引入即可

最后可以rebuild 一下maven项目(菜单栏或者右键即可)

【慕课网实战】Spark Streaming实时流处理项目实战笔记七之铭文升级版的更多相关文章

  1. 【慕课网实战】Spark Streaming实时流处理项目实战笔记十之铭文升级版

    铭文一级: 第八章:Spark Streaming进阶与案例实战 updateStateByKey算子需求:统计到目前为止累积出现的单词的个数(需要保持住以前的状态) java.lang.Illega ...

  2. 【慕课网实战】Spark Streaming实时流处理项目实战笔记十四之铭文升级版

    铭文一级: 第11章 Spark Streaming整合Flume&Kafka打造通用流处理基础 streaming.conf agent1.sources=avro-sourceagent1 ...

  3. 【慕课网实战】Spark Streaming实时流处理项目实战笔记二之铭文升级版

    铭文一级: 第二章:初识实时流处理 需求:统计主站每个(指定)课程访问的客户端.地域信息分布 地域:ip转换 Spark SQL项目实战 客户端:useragent获取 Hadoop基础课程 ==&g ...

  4. 【慕课网实战】Spark Streaming实时流处理项目实战笔记十六之铭文升级版

    铭文一级: linux crontab 网站:http://tool.lu/crontab 每一分钟执行一次的crontab表达式: */1 * * * * crontab -e */1 * * * ...

  5. 【慕课网实战】Spark Streaming实时流处理项目实战笔记十五之铭文升级版

    铭文一级:[木有笔记] 铭文二级: 第12章 Spark Streaming项目实战 行为日志分析: 1.访问量的统计 2.网站黏性 3.推荐 Python实时产生数据 访问URL->IP信息- ...

  6. 【慕课网实战】Spark Streaming实时流处理项目实战笔记十二之铭文升级版

    铭文一级: ======Pull方式整合 Flume Agent的编写: flume_pull_streaming.conf simple-agent.sources = netcat-sources ...

  7. 【慕课网实战】Spark Streaming实时流处理项目实战笔记十一之铭文升级版

    铭文一级: 第8章 Spark Streaming进阶与案例实战 黑名单过滤 访问日志 ==> DStream20180808,zs20180808,ls20180808,ww ==> ( ...

  8. 【慕课网实战】Spark Streaming实时流处理项目实战笔记九之铭文升级版

    铭文一级: 核心概念:StreamingContext def this(sparkContext: SparkContext, batchDuration: Duration) = { this(s ...

  9. 【慕课网实战】Spark Streaming实时流处理项目实战笔记八之铭文升级版

    铭文一级: Spark Streaming is an extension of the core Spark API that enables scalable, high-throughput, ...

随机推荐

  1. ES5/6/7

    ECMAScript(js语言规范) ###ES5 1.   严格模式 运行模式: 正常(混杂)模式与严格模式 应用上严格模式: ‘strict mode’ 2.JSON对象 * JSON.strin ...

  2. mysql decimal(10,2)对应java类型

    下面我给出MYSQL类型与JAVA类型对应表,希望能够帮到您: 类型名称 显示长度 数据库类型 JAVA类型 JDBC类型索引(int) VARCHAR L+N VARCHAR java.lang.S ...

  3. CMakeLists.txt的写法

    [1]ADD_LIBRARY: Add a library to the project using the specified source files.要求CMake根据指定的源文件生成库文件 . ...

  4. Oracle管理表空间和数据文件详解

    介绍 表空间是数据库的逻辑组成部分 从物理上将:数据库数据存放在数据文件中 从逻辑上将:数据库则是存放在表空间中 表空间由一个或是多个数据文件组成 数据库的逻辑结构 介绍: Oracle中逻辑结构包括 ...

  5. 更换Grade源为阿里云解决下载慢问题

    作为程序员,即写的了代码也得翻得上围墙. 现在包管理工具(Maven/grade)的便捷性让人大快朵颐,再也不需要到处找jar包. 如果你没梯子又苦苦无法加快下载速度,不如按照以下设置一下. 对单个项 ...

  6. 安装scrapy 出现error: Microsoft Visual C++ 14.0 is required. Get it with "Microsoft Visual C++ Build Tools": http://landinghub.visualstudio.com/visual-cpp-build-tools 错误

    安装scrapy 出现以下 错误: error: Microsoft Visual C++ 14.0 is required. Get it with "Microsoft Visual C ...

  7. mysql 存储过程 与 循环

    mysql 操作同样有循环语句操作,三种标准循环模式:while, loop,repeat, 外加一种非标准循环:goto [在c或c#中貌似出现过类型循环但是一般不建议用!] 一般格式为:delim ...

  8. 11.Mysql视图

    11.视图11.1 什么是视图 视图view是一张虚拟表,它不存储数据,数据仍在表里,视图由一条查询表的select语句创建,视图只存储select语句. 可以将复杂的查询语句封装成视图,用户可以从视 ...

  9. elasticsearch权威指南

    elasticsearch权威指南 https://elasticsearch.cn/book/elasticsearch_definitive_guide_2.x/

  10. RabbitMQ消息队列(一):详细介绍

    1. 历史 RabbitMQ是一个由erlang开发的AMQP(Advanced Message Queue )的开源实现.AMQP 的出现其实也是应了广大人民群众的需求,虽然在同步消息通讯的世界里有 ...