【慕课网实战】Spark Streaming实时流处理项目实战笔记七之铭文升级版
铭文一级:
第五章:实战环境搭建
Spark源码编译命令:
./dev/make-distribution.sh \
--name 2.6.0-cdh5.7.0 \
--tgz \
-Pyarn -Phadoop-2.6 \
-Phive -Phive-thriftserver \
-Dhadoop.version=2.6.0-cdh5.7.0
铭文二级:
第五章:实战环境搭建(所有都配置到环境变量)
1、Scala的安装:Download->previous releases //课程使用2.11.8
2、Maven的安装:Download->archives->binaries //课程使用3.3.9
修改settings.xml的默认仓库地址
3、下载hadoop的安装包(CDH5的地址里有)
生成ssh公钥指令:ssh-keygen -t rsa
拷贝公钥:cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
解压hadoop安装包:
etc/hadoop目录下6个配置文件需要修改(*#* //对应name与value配对):
配置文件第一部分(4个):
hadoop.env.sh //修改java_home地址
core-site.xml /* fs.defaultFS#hdfs://hadoop000:8020 hadoop.tmp.dir#/home/hadoop/app/tmp */
hdfs-site.xml //副本系数自行设置: dfs.replication#1
slaves //修改主机localhost为hadoop000
修改完这四个文件可以格式化hadoop:
进入hadoop目录的bin目录,执行:./hadoop namenode -format
配置到环境变量
到sbin目录下:./start-dfs.sh //hadoop000:50070
配置文件第二部分(2个):
mapred-site.xml //cp一份模板出来 运行在yarn上:mapreduce.framework.name#yarn
yarn-site.xml //整合mapreduce:yarn.nodemanager.aux-services#mapredue-shuffle
到sbin目录下:./start-yarn.sh //hadoop000:8088
hadoop fs -ls /
hadoop fs -mkdir /data
hadoop fs -put $FILE /data/
hadoop fs -test $FILE //查看详细内容
运行一个内置的example测试hadoop环境是否安装成功=>
hadoop目录下有share/hadoop/mapreduce(在这目录下运行?是的)
hadoop jar $example那个jar包 pi 2 3
刷新yarn界面可观察到有内容提交上去
4、Hbase的安装(CDH5网址可以下载1.2.0版本)
需要修改三个配置文件:
hbase.env.sh //A.java_home、B.解开ZK,并设置为false,不用hbase默认的zk来管理
hbase-site.xml //与hadoop-site.xml做比较
A.hbase.rootdir#hdfs://hadoop000:8020/hbase
B.hbase.cluster.distributed#true
C.hbase.zookeeper.quorum#hadoop000:2181
regionservers //修改为hadoop000,与hadoop的slaves类似
启动:先启动zookeeper与hadoop的dfs,再启动hbase,bin目录下: ./start-hbase.sh
hadoop000:60010为默认UI端口
使用(单词不会或者忘了可以按tab键提示):./hbase shell
查看版本:version
查看状态:status
建表:create 'member','info','address'
查看所有表:list
查看表的详细内容:describe 'member'
5、Spark环境搭建,具体操作看笔记一的铭文二、铭文四或者:https://www.imooc.com/article/18419
bin目录下./spark-shell --master local[2] //默认UI端口为:hadoop000:4040
IDEA搭建maven的Spark Streaming环境,在原有的基础上:
1.添加三个version:
spark.version:2.2.0
hadoop:2.6.0-cdh5.7.0
hbase:1.2.0-cdh5.7.0
2.因为使用cdh5,所以要引入cdh5仓库<repositories><repository>:
id#可以自己取
url#http://repository.cloudera.com/artifactory/cloudera-repos
3.添加四个dependency://单个依赖实际是包含了很多的依赖,否则自己一个一个地引入非常地麻烦
groupId#org.apache.*
artifactId#hadoop-client、hbase-client、hbase-server、spark-streaming_2.11
version#//${相对于的引入即可}
ps:spark-streaming_2.11可在官网文档
Programming Guides->Spark Streaming->拉下:Basic Concepts看到,直接引入即可
最后可以rebuild 一下maven项目(菜单栏或者右键即可)
【慕课网实战】Spark Streaming实时流处理项目实战笔记七之铭文升级版的更多相关文章
- 【慕课网实战】Spark Streaming实时流处理项目实战笔记十之铭文升级版
铭文一级: 第八章:Spark Streaming进阶与案例实战 updateStateByKey算子需求:统计到目前为止累积出现的单词的个数(需要保持住以前的状态) java.lang.Illega ...
- 【慕课网实战】Spark Streaming实时流处理项目实战笔记十四之铭文升级版
铭文一级: 第11章 Spark Streaming整合Flume&Kafka打造通用流处理基础 streaming.conf agent1.sources=avro-sourceagent1 ...
- 【慕课网实战】Spark Streaming实时流处理项目实战笔记二之铭文升级版
铭文一级: 第二章:初识实时流处理 需求:统计主站每个(指定)课程访问的客户端.地域信息分布 地域:ip转换 Spark SQL项目实战 客户端:useragent获取 Hadoop基础课程 ==&g ...
- 【慕课网实战】Spark Streaming实时流处理项目实战笔记十六之铭文升级版
铭文一级: linux crontab 网站:http://tool.lu/crontab 每一分钟执行一次的crontab表达式: */1 * * * * crontab -e */1 * * * ...
- 【慕课网实战】Spark Streaming实时流处理项目实战笔记十五之铭文升级版
铭文一级:[木有笔记] 铭文二级: 第12章 Spark Streaming项目实战 行为日志分析: 1.访问量的统计 2.网站黏性 3.推荐 Python实时产生数据 访问URL->IP信息- ...
- 【慕课网实战】Spark Streaming实时流处理项目实战笔记十二之铭文升级版
铭文一级: ======Pull方式整合 Flume Agent的编写: flume_pull_streaming.conf simple-agent.sources = netcat-sources ...
- 【慕课网实战】Spark Streaming实时流处理项目实战笔记十一之铭文升级版
铭文一级: 第8章 Spark Streaming进阶与案例实战 黑名单过滤 访问日志 ==> DStream20180808,zs20180808,ls20180808,ww ==> ( ...
- 【慕课网实战】Spark Streaming实时流处理项目实战笔记九之铭文升级版
铭文一级: 核心概念:StreamingContext def this(sparkContext: SparkContext, batchDuration: Duration) = { this(s ...
- 【慕课网实战】Spark Streaming实时流处理项目实战笔记八之铭文升级版
铭文一级: Spark Streaming is an extension of the core Spark API that enables scalable, high-throughput, ...
随机推荐
- CMakeLists.txt的写法
[1]ADD_LIBRARY: Add a library to the project using the specified source files.要求CMake根据指定的源文件生成库文件 . ...
- Struts框架的数据封装二之模型驱动方式
Struts2中提供了两类数据封装的方式? * 第二种方式:模型驱动 > 使用模型驱动的方式,也可以把表单中的数据直接封装到一个JavaBean的对象中,并且表单的写法和之前的写法没有区别! & ...
- PHP 根据两点的坐标计算之间的距离
define('PI',3.1415926535898); define('EARTH_RADIUS',6378.137); //计算范围,可以做搜索用户 function GetRange($lat ...
- SQL查询有两门以上不及格的学生及查询出全部及格的学生
1.表结构: /*学生*/ create table student( sno int not null primary key, sname ) ); /*课程*/ create table cen ...
- oracle 单表导出导入
exp username/password@服务名 file=d:\daochu.dmp tables=(tableneme,...)
- hdu 1735(贪心) 统计字数
戳我穿越:http://acm.hdu.edu.cn/showproblem.php?pid=1735 对于贪心,二分,枚举等基础一定要掌握的很牢,要一步一个脚印走踏实 这是道贪心的题目,要有贪心的意 ...
- linux中的设备类型
loop设备 loop设备 一.参考命令[root@localhost a]# losetup usage: losetup loop_device ...
- BZOJ1999或洛谷1099&BZOJ2282或洛谷2491 树网的核&[SDOI2011]消防
一道树的直径 树网的核 BZOJ原题链接 树网的核 洛谷原题链接 消防 BZOJ原题链接 消防 洛谷原题链接 一份代码四倍经验,爽 显然要先随便找一条直径,然后直接枚举核的两个端点,对每一次枚举的核遍 ...
- libpcap 库使用(二)
参考资料: http://www.tcpdump.org/manpages/pcap.3pcap.html 分类介绍了该lib的函数 Opening a capture handle for read ...
- partition
一.背景 1.在Hive Select查询中一般会扫描整个表内容,会消耗很多时间做没必要的工作.有时候只需要扫描表中关心的一部分数据,因此建表时引入了partition概念. 2.分区表指的是在创建表 ...