apache的各个软件各个版本下载:  http://archive.apache.org/dist/

1.下载spark.

  sudo tar -zxf ~/下载/spark-2.0.2-bin-without-hadoop.tgz -C /usr/local/

  cd /usr/local

  sudo mv ./spark-2.0.2-bin-without-hadoop/ ./spark

  sudo chown -R ubuntu ./spark

2.在Mster节点主机的终端中执行如下命令:

  vim ~/.bashrc

  在.bashrc添加如下配置:

    export SPARK_HOME=/usr/local/spark
    export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
  执行如下命令使得配置立即生效:

    source ~/.bashrc

3.在Master节点主机上进行如下操作:

  配置slaves文件
    将 slaves.template 拷贝到 slaves

    1. cd /usr/local/spark/
    2. cp ./conf/slaves.template ./conf/slaves

    slaves文件设置Worker节点。编辑slaves内容,把默认内容localhost替换成如下内容:

    slave01    

  配置spark-env.sh文件

    将 spark-env.sh.template 拷贝到 spark-env.sh

      cp ./conf/spark-env.sh.template ./conf/spark-env.sh

  编辑spark-env.sh,添加如下内容:

    export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
    

    export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
    

    export SPARK_MASTER_IP=192.168.1.104

      SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;

  配置好后,将Master主机上的/usr/local/spark文件夹复制到各个节点上。在Master主机上执行如下命令:

    1. cd /usr/local/
    2. tar -zcf ~/spark.master.tar.gz ./spark
    3. cd ~
    4. scp ./spark.master.tar.gz slave01:/home/hadoop
    5. scp ./spark.master.tar.gz slave02:/home/hadoop

  在slave01,slave02节点上分别执行下面同样的操作:

    1. sudo rm -rf /usr/local/spark/
    2. sudo tar -zxf ~/spark.master.tar.gz -C /usr/local
    3. sudo chown -R hadoop /usr/local/spark

4.启动hadoop集群,在master节点上运行。

  1. cd /usr/local/hadoop/
  2. sbin/start-all.sh

5.启动spark集群,在master节点上运行。

  cd /usr/local/spark/

  sbin/start-master.sh

  在Master节点上运行jps命令,可以看到多了个Master进程:

    15093 Jps

    14343 SecondaryNameNode

    14121 NameNode

    14891 Master 

    14509 ResourceManager

  启动所有Slave节点,在Master节点主机上运行如下命令:

     sbin/start-slaves.sh

  分别在slave01、slave02节点上运行jps命令,可以看到多了个Worker进程
    37553 DataNode
    37684 NodeManager
    37876 Worker
    37924 Jps

  http://172.19.57.221:8080/   spark web网页。

6.关闭spark集群

  关闭Master节点

    sbin/stop-master.sh

  关闭Worker节点

    sbin/stop-slaves.sh

关闭Hadoop集群

  1. cd /usr/local/hadoop/
  1. sbin/stop-all.sh

分布式配置 Spark 2.0版本 2.1版本 1.6版本的更多相关文章

  1. 转载:Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    原文 http://www.powerxing.com/install-hadoop/ 当开始着手实践 Hadoop 时,安装 Hadoop 往往会成为新手的一道门槛.尽管安装其实很简单,书上有写到, ...

  2. Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    摘自: http://www.cnblogs.com/kinglau/p/3796164.html http://www.powerxing.com/install-hadoop/ 当开始着手实践 H ...

  3. Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04(转)

    http://www.powerxing.com/install-hadoop/ http://blog.csdn.net/beginner_lee/article/details/6429146 h ...

  4. 【转】Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    原文链接:http://dblab.xmu.edu.cn/blog/install-hadoop/ 当开始着手实践 Hadoop 时,安装 Hadoop 往往会成为新手的一道门槛.尽管安装其实很简单, ...

  5. 分布式配置hadoop2.5.0 2.6.x

    1. sudo vim /etc/hostname 在master的机器上,改成     master 在slave上写  slave01,02,03...... 配置好后重启. 2. sudo vi ...

  6. Ubuntu14.04 安装配置Hadoop2.6.0

    目前关于Hadoop的安装配置教程书上.官方教程.博客都有很多,但由于对Linux环境的不熟悉以及各种教程或多或少有这样那样的坑,很容易导致折腾许久都安装不成功(本人就是受害人之一).经过几天不断尝试 ...

  7. Apache Spark 3.0 预览版正式发布,多项重大功能发布

    2019年11月08日 数砖的 Xingbo Jiang 大佬给社区发了一封邮件,宣布 Apache Spark 3.0 预览版正式发布,这个版本主要是为了对即将发布的 Apache Spark 3. ...

  8. CentOS 7.0下面安装并配置Spark

    安装环境: 虚拟机:VMware® Workstation 8.0.1(网络桥接) OS:CentOS 7 JDK版本:jdk-7u79-linux-x64.tar Scala版本:scala-2.1 ...

  9. 在eclipse中配置spark 0.9.1源码的开发环境

    一.准备工作: 1.下载release版spark 0.9.1,本次用的版本是spark-0.9.1-bin-cdh4. 2.下载scala IDE 3.0.2,这个版本ide的支持scala 2.1 ...

随机推荐

  1. zabbix添加对haproxy的监控

    zabbix添加对haproxy的监控 HAProxy提供高可用性.负载均衡以及基于TCP和HTTP应用的代理,支持虚拟主机,它是免费.快速并且可靠的一种解决方案.HAProxy本身提供一个web页面 ...

  2. Laravel 5.2数据库--多个关联关系,带条件约束的渴求式加载的问题

    ### 今天在连表获取数据的时候,老是获取不到想要的,确实有点无力适从的感觉. 归根到底,还是对laravel不够熟悉,至少是数据库操作那块. ### 问题是这样的: 我想要通过连表中间表,拿中间表的 ...

  3. MySQL建库建表

    一直使用SQL SERVER 数据库:最近项目使用MY SQL感觉还是有一点不适应.不过熟悉之后就会好很多. MY SQL 安装之后会有一个管理工具MySQL Workbench 感觉不太好用,数据库 ...

  4. 【原创】大数据基础之Marathon(2)marathon-lb

    marathon-lb 官方:https://github.com/mesosphere/marathon-lb 一 简介 Marathon load balancer (Marathon-LB) i ...

  5. [MySQL]join的细节

    left join,左表返回所有记录,右表只返回跟左表有关联的记录,当右表有N条记录跟左表的某一条记录A关联,那么查询结果会出现N条A记录(相应关联右表的N条记录) right join,右表返回所有 ...

  6. 12)django-ORM(单表返回数据3种方式)

    单表查询还回数据有3种形式,返回形式不一样,模板调用方式不同 1)返回Queryset里面内容为对象:Business.objects.all() 这里内容显示是对象 2)返回Queryset里面内容 ...

  7. 如何将代码通过vs2017加载到GitHub

    (1)登陆GitHub并注册账户,在用户中新建repository  (2)建立后,会给出新建repository地址,将其复制  (3)用VS新建一个项目,勾选“新建Git存储库”或者打开一个已经创 ...

  8. 修复ogg source端意外宕机造成的数据不同步

    修复ogg source端意外宕机造成的数据不同步 分类: Oracle2016-04-28 11:50:40原文地址:修复ogg source端意外宕机造成的数据不同步 作者:十字螺丝钉 ogg s ...

  9. Oracle 数据库架构

    Oracle 数据库架构 查看数据库在linux系统的安装目录路径情况: [root@localhost ~]# cd /u01/app/oracle/oradata/orcl/ [root@loca ...

  10. Confluence 6 数据库表-展现(Appearance)

    这部分存储了有关你 Confluence 的外观和布局使用的信息. decorator 使用自定义 Velocity 布局显示的自定义模板. https://www.cwiki.us/display/ ...