1. 主机规划

主机名称

IP地址

操作系统

部署软件

运行进程

备注

mini01

172.16.1.11【内网】

10.0.0.11  【外网】

CentOS 7.5

Jdk-8、zookeeper-3.4.5、Hadoop2.7.6、hbase-2.0.2、kafka_2.11-2.0.0、spark-2.4.0-hadoop2.7【主】

QuorumPeerMain、

mini02

172.16.1.12【内网】

10.0.0.12  【外网】

CentOS 7.5

Jdk-8、zookeeper-3.4.5、Hadoop2.7.6、hbase-2.0.2、kafka_2.11-2.0.0

QuorumPeerMain、

mini03

172.16.1.13【内网】

10.0.0.13  【外网】

CentOS 7.5

Jdk-8、zookeeper-3.4.5、Hadoop2.7.6、hbase-2.0.2、kafka_2.11-2.0.0、spark-2.4.0-hadoop2.7

QuorumPeerMain、

mini04

172.16.1.14【内网】

10.0.0.14  【外网】

CentOS 7.5

Jdk-8、zookeeper-3.4.5、Hadoop2.7.6、hbase-2.0.2、spark-2.4.0-hadoop2.7

QuorumPeerMain、

mini05

172.16.1.15【内网】

10.0.0.15  【外网】

CentOS 7.5

Jdk-8、zookeeper-3.4.5、Hadoop2.7.6、hbase-2.0.2、spark-2.4.0-hadoop2.7

QuorumPeerMain、

说明

该Spark集群安装,但是有一个很大的问题,那就是Master节点存在单点故障,要解决此问题,就要借助zookeeper,并且启动至少两个Master节点来实现高可靠。具体部署下节讲解。

2. 免密码登录

  实现mini01到mini02、mini03、mini04、mini05通过秘钥免密码登录。

参见文章:Hadoop2.7.6_01_部署

3. Jdk【java8】

参见文章:Hadoop2.7.6_01_部署

4. Spark部署步骤

4.1. Spark安装

  1. [yun@mini01 software]$ pwd
  2. /app/software
  3. [yun@mini01 software]$ ll
  4. total
  5. -rw-r--r-- yun yun Nov : spark-2.4.-bin-hadoop2..tgz
  6. [yun@mini01 software]$ tar xf spark-2.4.-bin-hadoop2..tgz
  7. [yun@mini01 software]$ mv spark-2.4.-bin-hadoop2. /app/
  8. [yun@mini01 software]$ cd /app/
  9. [yun@mini01 ~]$ ln -s spark-2.4.-bin-hadoop2./ spark
  10. [yun@mini01 ~]$ ll -d spark-*
  11. drwxr-xr-x yun yun Oct : spark-2.4.-bin-hadoop2.
  12. lrwxrwxrwx yun yun Nov : spark -> spark-2.4.-bin-hadoop2./

4.2. 环境变量修改

  根据规划,该环境变量的修改包括mini01、mini03、mini04、mini05

  1. # 需要root权限去添加环境变量
  2. [root@mini01 ~]# tail /etc/profile
  3. ………………
  4. # spark环境变量
  5. export SPARK_HOME="/app/spark"
  6. export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH
  7.  
  8. [root@mini01 ~]# logout
  9. [yun@mini01 conf]$ source /etc/profile # 重新加载该环境变量

4.3. 配置修改

  1. [yun@mini01 conf]$ pwd
  2. /app/spark/conf
  3. [yun@mini01 conf]$ cp -a spark-env.sh.template spark-env.sh
  4. [yun@mini01 conf]$ tail spark-env.sh # 修改环境变量配置
  5. # Options for native BLAS, like Intel MKL, OpenBLAS, and so on.
  6. # You might get better performance to enable these options if using native BLAS (see SPARK-).
  7. # - MKL_NUM_THREADS= Disable multi-threading of Intel MKL
  8. # - OPENBLAS_NUM_THREADS= Disable multi-threading of OpenBLAS
  9.  
  10. # 添加配置如下
  11. # 配置JAVA_HOME
  12. export JAVA_HOME=/app/jdk
  13. # 设置Master的主机名
  14. export SPARK_MASTER_IP=mini01
  15. # 每一个Worker最多可以使用的内存,我的虚拟机就2g
  16. # 真实服务器如果有128G,你可以设置为100G
  17. # 所以这里设置为1024m或1g
  18. export SPARK_WORKER_MEMORY=1024m
  19. # 每一个Worker最多可以使用的cpu core的个数,我虚拟机就一个...
  20. # 真实服务器如果有32个,你可以设置为32个
  21. export SPARK_WORKER_CORES=
  22. # 提交Application的端口,默认就是这个,万一要改呢,改这里
  23. export SPARK_MASTER_PORT=
  24.  
  25. [yun@mini01 conf]$ pwd
  26. /app/spark/conf
  27. [yun@mini01 conf]$ cp -a slaves.template slaves
  28. [yun@mini01 conf]$ tail slaves # 修改slaves 配置
  29. # distributed under the License is distributed on an "AS IS" BASIS,
  30. # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  31. # See the License for the specific language governing permissions and
  32. # limitations under the License.
  33. #
  34.  
  35. # A Spark Worker will be started on each of the machines listed below.
  36. mini03
  37. mini04
  38. mini05

4.4. 分发到其他机器

  分发到mini03、mini04和mini05

  1. [yun@mini01 ~]$ scp -pr spark-2.4.-bin-hadoop2./ yun@mini03:/app # 拷贝到mini03
  2. [yun@mini01 ~]$ scp -pr spark-2.4.-bin-hadoop2./ yun@mini04:/app # 拷贝到mini04
  3. [yun@mini01 ~]$ scp -pr spark-2.4.-bin-hadoop2./ yun@mini05:/app # 拷贝到mini05

在mini03、mini04和mini05上操作

  1. [yun@mini04 ~]$ pwd
  2. /app
  3. [yun@mini04 ~]$ ll -d spark-2.4.-bin-hadoop2.
  4. drwxr-xr-x yun yun Oct : spark-2.4.-bin-hadoop2.
  5. [yun@mini04 ~]$ ln -s spark-2.4.-bin-hadoop2./ spark
  6. [yun@mini04 ~]$ ll -d spark-*
  7. drwxr-xr-x yun yun Oct : spark-2.4.-bin-hadoop2.
  8. lrwxrwxrwx yun yun Nov : spark -> spark-2.4.-bin-hadoop2./

4.5. 启动spark

在mini01上操作

  1. [yun@mini01 sbin]$ pwd
  2. /app/spark/sbin
  3. [yun@mini01 sbin]$ ./start-all.sh # 关闭使用 stop-all.sh 脚本
  4. starting org.apache.spark.deploy.master.Master, logging to /app/spark/logs/spark-yun-org.apache.spark.deploy.master.Master--mini01.out
  5. mini03: starting org.apache.spark.deploy.worker.Worker, logging to /app/spark/logs/spark-yun-org.apache.spark.deploy.worker.Worker--mini03.out
  6. mini05: starting org.apache.spark.deploy.worker.Worker, logging to /app/spark/logs/spark-yun-org.apache.spark.deploy.worker.Worker--mini05.out
  7. mini04: starting org.apache.spark.deploy.worker.Worker, logging to /app/spark/logs/spark-yun-org.apache.spark.deploy.worker.Worker--mini04.out
  8. [yun@mini01 ~]$
  9. [yun@mini01 ~]$ jps # 查看进程状态
  10. Master
  11. Jps

mini03进程查看

  1. [yun@mini03 ~]$ jps
  2. Worker
  3. Jps

mini04进程查看

  1. [yun@mini04 ~]$ jps
  2. Jps
  3. Worker

mini05进程查看

  1. [yun@mini05 ~]$ jps
  2. Worker
  3. Jps

4.6. 浏览器访问

  1. http://mini01:8080/

spark-2.4.0-hadoop2.7-安装部署的更多相关文章

  1. hadoop入门(3)——hadoop2.0理论基础:安装部署方法

    一.hadoop2.0安装部署流程         1.自动安装部署:Ambari.Minos(小米).Cloudera Manager(收费)         2.使用RPM包安装部署:Apache ...

  2. spark编译安装 spark 2.1.0 hadoop2.6.0-cdh5.7.0

    1.准备: centos 6.5 jdk 1.7 Java SE安装包下载地址:http://www.oracle.com/technetwork/java/javase/downloads/java ...

  3. spark 1.1.0 单机与yarn部署

    环境:ubuntu 14.04, jdk 1.6, scala 2.11.4, spark 1.1.0, hadoop 2.5.1 一 spark 单机模式 部分操作参考:http://www.cnb ...

  4. spark 2.1.0 集群安装

    jdk安装 http://www.cnblogs.com/xiaojf/p/6568426.html scala2.11 安装 http://www.cnblogs.com/xiaojf/p/6568 ...

  5. jumpserverv0.5.0 基于 CentOS7安装部署

    基于 CentOS 7 一步一步安装 Jumpserver 0.5.0 环境 系统: CentOS 7 IP: 192.168.244.144 关闭 selinux和防火墙 # CentOS 7 $ ...

  6. ElasticSearch 5.0.0 集群安装部署文档

    1.  搭建环境 3台物理机 操作系统 centos7 es1   192.168.31.141   4g内存   2核 es2   192.168.31.142   4g内存   2核 es3    ...

  7. Apache Mesos1.0.1 编译安装部署教程(ubuntu)

    参考资料 官方文档:http://mesos.apache.org/documentation 中文翻译:http://mesos.mydoc.io/ GitHub:https://github.co ...

  8. Spark(一)-- Standalone HA的部署

    首先交代一下集群的规模和配置 集群有六台机器,均是VM虚拟机,每台256M的内存(原谅楼主物理机硬件不太给力) 主机名分别是cloud1~cloud6 每台机器上都装有jdk6,和hadoop-2.2 ...

  9. Redis (一)Redis简介、安装部署

    Redis是一个开源的,先进的 key-value 存储可用于构建高性能,可扩展的 Web 应用程序的解决方案. 既然是key-value,对于Java开发来说更熟悉的是Map集合.那就有问题了,有M ...

  10. (转)实验文档1:跟我一步步安装部署kubernetes集群

    实验环境 基础架构 主机名 角色 ip HDSS7-11.host.com k8s代理节点1 10.4.7.11 HDSS7-12.host.com k8s代理节点2 10.4.7.12 HDSS7- ...

随机推荐

  1. spark对elasticsearch增删查改

    增 新建一个 dataframe ,插入到索引 _index/_type ,直接调用 saveToEs ,让 _id 为自己设定的 id: import org.elasticsearch.spark ...

  2. SpringCloud(3)---Eureka服务注册与发现

    Eureka服务注册与发现 一.Eureka概述 1.Eureka特点 (1) Eureka是一个基于REST的服务,用于定位服务,以实现云端中间层服务发现和故障转移. (2) Eureka 主管服务 ...

  3. java 取汉字首字母

    有时候,可能会有一些类似这样的需求: 对于这样的效果,我们可以有类似这样的解决方案: package bys.utils; import java.io.UnsupportedEncodingExce ...

  4. CentOs~程序部署那些事

    永久更新中…… 主要说一下在centos里,在安装程序和监控程序时,用到的一些常用的命令,希望可以帮到大家! 远程安装程序包:yum install 程序包名 下载程序包:wget 程序包地址 解压t ...

  5. SpringCloud Feign的分析

    Feign是一个声明式的Web Service客户端,它使得编写Web Serivce客户端变得更加简单.我们只需要使用Feign来创建一个接口并用注解来配置它既可完成. @FeignClient(v ...

  6. 如何发起、防御和测试XSS攻击,我们用DVWA来学习(下)

    上一篇我们了解了XSS攻击的原理,并且利用DVWA尝试了简单的XSS攻击,这一篇我们来实现更复杂的攻击,然后探讨防御机制和测试理念. 前面我们通过脚本注入让网页弹出了用户cookie信息,可以光弹窗是 ...

  7. 总结Unity 初学者容易犯的编译与运行时错误

    总结Unity 初学者容易犯的编译与运行时错误 1: Untiy 出现编译错误: NewLine In Constant  解决方法:    方法一:如果报错脚本比较少量的话,可能用记事本打开报错的脚 ...

  8. Asp.net Core 使用Jenkins + Dockor 实现持续集成、自动化部署(二):部署

    前面又是废话 我之前写过: Asp.Net Core 程序部署到Linux(centos)生产环境(一):普通部署 Asp.Net Core 程序部署到Linux(centos)生产环境(二):doc ...

  9. 新的一年,来看看大数据与AI的未来展望

    本文由云+社区发表 作者:堵俊平 在数据爆炸与智能革命的新时代,新的平台与应用层出不穷,开源项目推动了前沿技术和业界生态快速发展.本次分享将以技术和生态两大视角来看大数据和人工智能技术的发展,通过分析 ...

  10. Docker 网络之进阶篇

    笔者在<Docker 基础 : 网络配置>一文中简单介绍了容器网络的基本用法,当时网络的基本使用方式还处于 --link 阶段.时过境迁,随着 docker 的快速发展,其网络架构也在不断 ...