1.选取三台服务器(CentOS系统64位)

  114.55.246.88 主节点

  114.55.246.77 从节点

  114.55.246.93 从节点

之后的操作如果是用普通用户操作的话也必须知道root用户的密码,因为有些操作是得用root用户操作。如果是用root用户操作的话就不存在以上问题。

  我是用root用户操作的。

2.修改hosts文件

  修改三台服务器的hosts文件。

  vi /etc/hosts

  在原文件的基础最后面加上:

  1. 114.55.246.88 Master
  2. 114.55.246.77 Slave1
  3. 114.55.246.93 Slave2

  修改完成后保存执行如下命令。

  source /etc/hosts

3.ssh无密码验证配置

  3.1安装和启动ssh协议

  我们需要两个服务:ssh和rsync。

  可以通过下面命令查看是否已经安装:

  rpm -qa|grep openssh

  rpm -qa|grep rsync

  如果没有安装ssh和rsync,可以通过下面命令进行安装:

  yum install ssh (安装ssh协议)

  yum install rsync (rsync是一个远程数据同步工具,可通过LAN/WAN快速同步多台主机间的文件)

  service sshd restart (启动服务)

  3.2 配置Master无密码登录所有Salve

  配置Master节点,以下是在Master节点的配置操作。

  1)在Master节点上生成密码对,在Master节点上执行以下命令:

  ssh-keygen -t rsa -P ''

  生成的密钥对:id_rsa和id_rsa.pub,默认存储在"/root/.ssh"目录下。

  2)接着在Master节点上做如下配置,把id_rsa.pub追加到授权的key里面去。

  cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

  3)修改ssh配置文件"/etc/ssh/sshd_config"的下列内容,将以下内容的注释去掉:

  RSAAuthentication yes # 启用 RSA 认证

  PubkeyAuthentication yes # 启用公钥私钥配对认证方式

  AuthorizedKeysFile .ssh/authorized_keys # 公钥文件路径(和上面生成的文件同)

  4)重启ssh服务,才能使刚才设置有效。

  service sshd restart

  5)验证无密码登录本机是否成功。

  ssh localhost

  6)接下来的就是把公钥复制到所有的Slave机器上。使用下面的命令进行复制公钥:

  scp /root/.ssh/id_rsa.pub root@Slave1:/root/

  scp /root/.ssh/id_rsa.pub root@Slave2:/root/

  

  接着配置Slave节点,以下是在Slave1节点的配置操作。

  1)在"/root/"下创建".ssh"文件夹,如果已经存在就不需要创建了。

  mkdir /root/.ssh

  2)将Master的公钥追加到Slave1的授权文件"authorized_keys"中去。

  cat /root/id_rsa.pub >> /root/.ssh/authorized_keys

  3)修改"/etc/ssh/sshd_config",具体步骤参考前面Master设置的第3步和第4步。

  4)用Master使用ssh无密码登录Slave1

  ssh 114.55.246.77

  5)把"/root/"目录下的"id_rsa.pub"文件删除掉。

  rm –r /root/id_rsa.pub

  重复上面的5个步骤把Slave2服务器进行相同的配置。

  3.3 配置所有Slave无密码登录Master

  以下是在Slave1节点的配置操作。

  1)创建"Slave1"自己的公钥和私钥,并把自己的公钥追加到"authorized_keys"文件中,执行下面命令:

  ssh-keygen -t rsa -P ''

  cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

  2)将Slave1节点的公钥"id_rsa.pub"复制到Master节点的"/root/"目录下。

  scp /root/.ssh/id_rsa.pub root@Master:/root/

  

  以下是在Master节点的配置操作。

  1)将Slave1的公钥追加到Master的授权文件"authorized_keys"中去。

  cat ~/id_rsa.pub >> ~/.ssh/authorized_keys

  2)删除Slave1复制过来的"id_rsa.pub"文件。

  rm –r /root/id_rsa.pub

  配置完成后测试从Slave1到Master无密码登录。

  ssh 114.55.246.88

  按照上面的步骤把Slave2和Master之间建立起无密码登录。这样,Master能无密码验证登录每个Slave,每个Slave也能无密码验证登录到Master。

4.安装基础环境(JAVA和SCALA环境)

  4.1 Java1.8环境搭建

  1)下载jdk-8u121-linux-x64.tar.gz解压

  tar -zxvf jdk-8u121-linux-x64.tar.gz

  2)添加Java环境变量,在/etc/profile中添加:

  1. export JAVA_HOME=/usr/local/jdk1.8.0_121
  2. PATH=$JAVA_HOME/bin:$PATH
  3. CLASSPATH=.:$JAVA_HOME/lib/rt.jar
  4. export JAVA_HOME PATH CLASSPATH

  3)保存后刷新配置

  source /etc/profile

  4.2 Scala2.11.8环境搭建

  1)下载scala安装包scala-2.11.8.rpm安装

  rpm -ivh scala-2.11.8.rpm

  2)添加Scala环境变量,在/etc/profile中添加:

  1. export SCALA_HOME=/usr/share/scala
  2. export PATH=$SCALA_HOME/bin:$PATH

  3)保存后刷新配置

  source /etc/profile

5.Hadoop2.7.3完全分布式搭建

  以下是在Master节点操作:

  1)下载二进制包hadoop-2.7.3.tar.gz

  2)解压并移动到相应目录,我习惯将软件放到/opt目录下,命令如下:

  tar -zxvf hadoop-2.7.3.tar.gz

  mv hadoop-2.7.3 /opt

  3)修改相应的配置文件。

  修改/etc/profile,增加如下内容:

  1. export HADOOP_HOME=/opt/hadoop-2.7.3/
  2. export PATH=$PATH:$HADOOP_HOME/bin
  3. export PATH=$PATH:$HADOOP_HOME/sbin
  4. export HADOOP_MAPRED_HOME=$HADOOP_HOME
  5. export HADOOP_COMMON_HOME=$HADOOP_HOME
  6. export HADOOP_HDFS_HOME=$HADOOP_HOME
  7. export YARN_HOME=$HADOOP_HOME
  8. export HADOOP_ROOT_LOGGER=INFO,console
  9. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
  10. export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

  修改完成后执行:

  source /etc/profile

  修改$HADOOP_HOME/etc/hadoop/hadoop-env.sh,修改JAVA_HOME 如下:

  1. export JAVA_HOME=/usr/local/jdk1.8.0_121

  

  修改$HADOOP_HOME/etc/hadoop/slaves,将原来的localhost删除,改成如下内容:

  1. Slave1
  2. Slave2

  

  修改$HADOOP_HOME/etc/hadoop/core-site.xml

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://Master:9000</value>
  5. </property>
  6. <property>
  7. <name>io.file.buffer.size</name>
  8. <value>131072</value>
  9. </property>
  10. <property>
  11. <name>hadoop.tmp.dir</name>
  12. <value>/opt/hadoop-2.7.3/tmp</value>
  13. </property>
  14. </configuration>

  

  修改$HADOOP_HOME/etc/hadoop/hdfs-site.xml

  1. <configuration>
  2. <property>
  3. <name>dfs.namenode.secondary.http-address</name>
  4. <value>Master:50090</value>
  5. </property>
  6. <property>
  7. <name>dfs.replication</name>
  8. <value>2</value>
  9. </property>
  10. <property>
  11. <name>dfs.namenode.name.dir</name>
  12. <value>file:/opt/hadoop-2.7.3/hdfs/name</value>
  13. </property>
  14. <property>
  15. <name>dfs.datanode.data.dir</name>
  16. <value>file:/opt/hadoop-2.7.3/hdfs/data</value>
  17. </property>
  18. </configuration>

  复制template,生成xml,命令如下:

  cp mapred-site.xml.template mapred-site.xml

  修改$HADOOP_HOME/etc/hadoop/mapred-site.xml

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>mapreduce.jobhistory.address</name>
  8. <value>Master:10020</value>
  9. </property>
  10. <property>
  11. <name>mapreduce.jobhistory.address</name>
  12. <value>Master:19888</value>
  13. </property>
  14. </configuration>

  修改$HADOOP_HOME/etc/hadoop/yarn-site.xml

  1. <configuration>
  2. <property>
  3. <name>yarn.nodemanager.aux-services</name>
  4. <value>mapreduce_shuffle</value>
  5. </property>
  6. <property>
  7. <name>yarn.resourcemanager.address</name>
  8. <value>Master:8032</value>
  9. </property>
  10. <property>
  11. <name>yarn.resourcemanager.scheduler.address</name>
  12. <value>Master:8030</value>
  13. </property>
  14. <property>
  15. <name>yarn.resourcemanager.resource-tracker.address</name>
  16. <value>Master:8031</value>
  17. </property>
  18. <property>
  19. <name>yarn.resourcemanager.admin.address</name>
  20. <value>Master:8033</value>
  21. </property>
  22. <property>
  23. <name>yarn.resourcemanager.webapp.address</name>
  24. <value>Master:8088</value>
  25. </property>
  26. </configuration>

  4)复制Master节点的hadoop文件夹到Slave1和Slave2上。

  scp -r /opt/hadoop-2.7.3 root@Slave1:/opt

  scp -r /opt/hadoop-2.7.3 root@Slave2:/opt

  5)在Slave1和Slave2上分别修改/etc/profile,过程同Master一样。

  6)在Master节点启动集群,启动之前格式化一下namenode:

  hadoop namenode -format

  启动:

  /opt/hadoop-2.7.3/sbin/start-all.sh

  至此hadoop的完全分布式环境搭建完毕。

  

  7)查看集群是否启动成功:

  jps

  Master显示:

  SecondaryNameNode

  ResourceManager

  NameNode

  

  Slave显示:

  NodeManager

  DataNode

6.Spark2.1.0完全分布式环境搭建

  以下操作都在Master节点进行。

  1)下载二进制包spark-2.1.0-bin-hadoop2.7.tgz

  2)解压并移动到相应目录,命令如下:

  tar -zxvf spark-2.1.0-bin-hadoop2.7.tgz

  mv hadoop-2.7.3 /opt

  3)修改相应的配置文件。

  修改/etc/profie,增加如下内容:

  1. export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.7/
  2. export PATH=$PATH:$SPARK_HOME/bin

  

  复制spark-env.sh.template成spark-env.sh

  cp spark-env.sh.template spark-env.sh

  修改$SPARK_HOME/conf/spark-env.sh,添加如下内容:

  1. export JAVA_HOME=/usr/local/jdk1.8.0_121
  2. export SCALA_HOME=/usr/share/scala
  3. export HADOOP_HOME=/opt/hadoop-2.7.3
  4. export HADOOP_CONF_DIR=/opt/hadoop-2.7.3/etc/hadoop
  5. export SPARK_MASTER_IP=114.55.246.88
  6. export SPARK_MASTER_HOST=114.55.246.88
  7. export SPARK_LOCAL_IP=114.55.246.88
  8. export SPARK_WORKER_MEMORY=1g
  9. export SPARK_WORKER_CORES=2
  10. export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.7
  11. export SPARK_DIST_CLASSPATH=$(/opt/hadoop-2.7.3/bin/hadoop classpath)

  复制slaves.template成slaves

  cp slaves.template slaves

  修改$SPARK_HOME/conf/slaves,添加如下内容:

  1. Master
  2. Slave1
  3. Slave2

  4)将配置好的spark文件复制到Slave1和Slave2节点。

  scp /opt/spark-2.1.0-bin-hadoop2.7 root@Slave1:/opt

scp /opt/spark-2.1.0-bin-hadoop2.7 root@Slave2:/opt

  5)修改Slave1和Slave2配置。

  在Slave1和Slave2上分别修改/etc/profile,增加Spark的配置,过程同Master一样。

  在Slave1和Slave2修改$SPARK_HOME/conf/spark-env.sh,将export SPARK_LOCAL_IP=114.55.246.88改成Slave1和Slave2对应节点的IP。

  6)在Master节点启动集群。

  /opt/spark-2.1.0-bin-hadoop2.7/sbin/start-all.sh

  7)查看集群是否启动成功:

  jps

  Master在Hadoop的基础上新增了:

  Master

  以上内容来自https://www.cnblogs.com/zengxiaoliang/p/6478859.html 亲测成功 ,在搭建的过程中部分操作不一致 不影响使用

  Slave在Hadoop的基础上新增了:

  Worker

  http://masterid:50070   访问hadoop

http://masterid:8080   访问spark

执行提交任务

  spark-submit --master spark://192.168.10.160:7077 --class com.jxd.hello /usr/spark/wordcount.jar /usr/spark/test/hello(hdfs上存储的文件)

  hdfs dfs -cat /home/jinxudong/result/helloword/     进入hadoop中查看执行计算结果

hadoop+spark集群搭建的更多相关文章

  1. hadoop+spark集群搭建入门

    忽略元数据末尾 回到原数据开始处 Hadoop+spark集群搭建 说明: 本文档主要讲述hadoop+spark的集群搭建,linux环境是centos,本文档集群搭建使用两个节点作为集群环境:一个 ...

  2. <spark> hadoop/spark 集群搭建

    参考的这3个文档,虽然搭建花了挺长时间也遇到挺多问题,但是这3个文档对我的帮助确实挺大,如果有兴趣的或者有需要的可以参考以下文档. http://blog.csdn.net/wy250229163/a ...

  3. Spark集群搭建简配+它到底有多快?【单挑纯C/CPP/HADOOP】

    最近耳闻Spark风生水起,这两天利用休息时间研究了一下,果然还是给人不少惊喜.可惜,笔者不善JAVA,只有PYTHON和SCALA接口.花了不少时间从零开始认识PYTHON和SCALA,不少时间答了 ...

  4. (四)Spark集群搭建-Java&Python版Spark

    Spark集群搭建 视频教程 1.优酷 2.YouTube 安装scala环境 下载地址http://www.scala-lang.org/download/ 上传scala-2.10.5.tgz到m ...

  5. Spark集群搭建简要

    Spark集群搭建 1 Spark编译 1.1 下载源代码 git clone git://github.com/apache/spark.git -b branch-1.6 1.2 修改pom文件 ...

  6. Spark集群搭建中的问题

    参照<Spark实战高手之路>学习的,书籍电子版在51CTO网站 资料链接 Hadoop下载[链接](http://archive.apache.org/dist/hadoop/core/ ...

  7. Spark集群搭建_Standalone

    2017年3月1日, 星期三 Spark集群搭建_Standalone Driver:    node1    Worker:  node2    Worker:  node3 1.下载安装 下载地址 ...

  8. Spark集群搭建_YARN

    2017年3月1日, 星期三 Spark集群搭建_YARN 前提:参考Spark集群搭建_Standalone   1.修改spark中conf中的spark-env.sh   2.Spark on ...

  9. spark集群搭建

    文中的所有操作都是在之前的文章scala的安装及使用文章基础上建立的,重复操作已经简写: 配置中使用了master01.slave01.slave02.slave03: 一.虚拟机中操作(启动网卡)s ...

随机推荐

  1. 方法返回前面有if - else if - else ,最终返回值是?

    -(NSString *)testA{ int a = ?; ) { return @"a大于5"; } ) { return @"a不大于5"; } retu ...

  2. luoguP3806 【模板】点分治1

    #include<bits/stdc++.h> #define setIO(s) freopen(s".in","r",stdin) #define ...

  3. POJ 1511 Invitation Cards ( 双向单源最短路 || 最小来回花费 )

    题意 : 给出 P 个顶点以及 Q 条有向边,求第一个点到其他各点距离之和+其他各点到第一个点的距离之和的最小值 分析 : 不难看出 min( 第一个点到其他各点距离之和+其他各点到第一个点的距离之和 ...

  4. C++ 得到系统时间

    Time::Time() {//得到系统时间 初始化 time_t t; t=time(NULL); tm *lt; lt=localtime(&t); hour=lt->tm_hour ...

  5. [CSP-S模拟测试]:数字(数学+高精度)

    题目描述 很简单,给出正整数$n$,求出$n!$在十进制表示下的从最末非零位开始的总共$k$位. 输入格式 第一行一个正整数$T$,表示有$T$组数据接下来$T$行,每行两个正整数$n$和$k$. 输 ...

  6. 台哥原创:java五子棋源码(人机对弈)

    最近整理以前的代码,发现一些项目还不错,发出来展示下,嘿嘿. 第一个,就是我的五子棋,这是当初学习java编程做的第一个项目. 算起来已经有12年了,后面对源码做了几次重构完善,清爽了很多. 有三种大 ...

  7. Sending forms through JavaScript[form提交 form data]

    https://developer.mozilla.org/en-US/docs/Learn/HTML/Forms/Sending_forms_through_JavaScript As in the ...

  8. scrapy-redis源码浅析

    原文链接 前言 分析这个项目的源码原因是需要有去重过滤,增量爬取两个功能,而scrapy-redis项目已经帮我们实现了,想看看他是怎么实现的.这里只贴出部分主要代码,查看时请打开源码对照,笔记有点长 ...

  9. Wildfly安装以及集成idea(mac)

    文章目录 Linux发布运行 下载 集成idea Linux发布运行 首先说一下在linux环境,只需要将war包上传到wildfly-8.2.0.Final/standalone/deploymen ...

  10. 16/8/21_PHP-有关类函数,this,static,面向对象思想介绍

    class_exists():判断某个类是否存在(定义过) interface_existe():判断接口是否存在 get_class():获取某个对象的"所属类名" get_pa ...