jdk安装

http://www.cnblogs.com/xiaojf/p/6568426.html

scala2.11 安装

http://www.cnblogs.com/xiaojf/p/6568432.html

hadoop2.7 安装

http://www.cnblogs.com/xiaojf/p/6629351.html

开始spark2.1.0安装

解压

[root@m1 jar]# tar zxvf spark-2.1.-bin-hadoop2..tgz -C ../

重命名

[root@m1 jar]# cd ..
[root@m1 soft]# ll
total
drwxr-xr-x. root root Mar : hadoop
drwxr-xr-x. root root Mar : jar
drwxr-xr-x. root root Dec : jdk
drwxr-xr-x. root root Mar : kafka
drwxrwxr-x. root root Mar scala-2.11.
drwxr-xr-x. xiaojf xiaojf Dec : spark-2.1.-bin-hadoop2.
drwxr-xr-x. root root Mar : tmp
drwxr-xr-x. root root Aug zookeeper-3.4.
[root@m1 soft]# mv spark-2.1.-bin-hadoop2. spark
[root@m1 soft]# ll
total
drwxr-xr-x. root root Mar : hadoop
drwxr-xr-x. root root Mar : jar
drwxr-xr-x. root root Dec : jdk
drwxr-xr-x. root root Mar : kafka
drwxrwxr-x. root root Mar scala-2.11.
drwxr-xr-x. xiaojf xiaojf Dec : spark
drwxr-xr-x. root root Mar : tmp
drwxr-xr-x. root root Aug zookeeper-3.4.

配置环境变量

[root@m1 soft]# vi /etc/profile
[root@m1 soft]# source /etc/profile
export SPARK_HOME=/usr/local/soft/spark
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

修改配置文件

[root@m1 soft]# cd /usr/local/soft/spark/conf/
[root@m1 conf]# pwd
/usr/local/soft/spark/conf
[root@m1 conf]# ll
total
-rw-r--r--. xiaojf xiaojf Dec : docker.properties.template
-rw-r--r--. xiaojf xiaojf Dec : fairscheduler.xml.template
-rw-r--r--. xiaojf xiaojf Dec : log4j.properties.template
-rw-r--r--. xiaojf xiaojf Dec : metrics.properties.template
-rw-r--r--. xiaojf xiaojf Dec : slaves.template
-rw-r--r--. xiaojf xiaojf Dec : spark-defaults.conf.template
-rwxr-xr-x. xiaojf xiaojf Dec : spark-env.sh.template
[root@m1 conf]# cp log4j.properties.template log4j.properties
[root@m1 conf]# cp slaves.template slaves
[root@m1 conf]# cp spark-defaults.conf.template spark-defaults.conf
[root@m1 conf]# cp spark-env.sh.template spark-env.sh

修改 spark-defaults.conf

[root@m1 conf]# vi spark-defaults.conf
spark.eventLog.enabled           true
spark.eventLog.dir hdfs://m1:9000/historyserverforSpark
spark.executor.extraJavaOptions -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"
spark.yarn.historyServer.address m1:
spark.history.fs.logDirectory hdfs://m1:9000/historyserverforSpark
spark.driver.memory 5g

修改 spark-env.sh

[root@m1 conf]# vi spark-env.sh
export HADOOP_HOME=/usr/local/soft/hadoop
export HADOOP_CONF_DIR=/usr/local/soft/hadoop/etc/hadoop
export JAVA_HOME=/usr/local/soft/jdk
export SCALA_HOME=/usr/local/soft/scala
export SPARK_MASTER_IP=m1
export SPARK_WORKER_MEMORY=1G
export SPARK_EXECUTOR_MEMORY=1G
export SPARK_DRIVER_MEMORY=1G
export SPARK_WORKER_CORES=

修改 slaves

[root@m1 conf]# vi slaves
s1
s2

分发代码到集群节点

[root@m1 soft]# scp -r spark root@s1:/usr/local/soft/
[root@m1 soft]# scp -r spark root@s2:/usr/local/soft/

启动

[root@m1 soft]# cd /usr/local/soft/spark/sbin/
[root@m1 sbin]# ll
total
-rwxr-xr-x. xiaojf xiaojf Dec : slaves.sh
-rwxr-xr-x. xiaojf xiaojf Dec : spark-config.sh
-rwxr-xr-x. xiaojf xiaojf Dec : spark-daemon.sh
-rwxr-xr-x. xiaojf xiaojf Dec : spark-daemons.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-all.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-history-server.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-master.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-mesos-dispatcher.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-mesos-shuffle-service.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-shuffle-service.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-slave.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-slaves.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-thriftserver.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-all.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-history-server.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-master.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-mesos-dispatcher.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-mesos-shuffle-service.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-shuffle-service.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-slave.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-slaves.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-thriftserver.sh
[root@m1 sbin]# ./start-all.sh
starting org.apache.spark.deploy.master.Master, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.master.Master--m1.out
s1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker--s1.out
s2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker--s2.out

查看进程

[root@m1 sbin]# jps
Master
Kafka
Jps
QuorumPeerMain

这个时候还没有启动hadoop,所以先启动hadoop,再启动spark

[root@m1 sbin]# /usr/local/soft/hadoop/sbin/start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [m1]
m1: starting namenode, logging to /usr/local/soft/hadoop/logs/hadoop-root-namenode-m1.out
s2: starting datanode, logging to /usr/local/soft/hadoop/logs/hadoop-root-datanode-s2.out
s1: starting datanode, logging to /usr/local/soft/hadoop/logs/hadoop-root-datanode-s1.out
Starting secondary namenodes [m1]
m1: starting secondarynamenode, logging to /usr/local/soft/hadoop/logs/hadoop-root-secondarynamenode-m1.out
starting yarn daemons
starting resourcemanager, logging to /usr/local/soft/hadoop/logs/yarn-root-resourcemanager-m1.out
s2: starting nodemanager, logging to /usr/local/soft/hadoop/logs/yarn-root-nodemanager-s2.out
s1: starting nodemanager, logging to /usr/local/soft/hadoop/logs/yarn-root-nodemanager-s1.out
[root@m1 sbin]# jps
ResourceManager
Kafka
SecondaryNameNode
NameNode
Jps
QuorumPeerMain
[root@m1 sbin]# /usr/local/soft/spark/sbin/start-all.sh
starting org.apache.spark.deploy.master.Master, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.master.Master--m1.out
s2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker--s2.out
s1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker--s1.out
[root@m1 sbin]# jps
ResourceManager
Kafka
SecondaryNameNode
Master
NameNode
Jps
QuorumPeerMain

打开spark-shell 测试

[root@m1 sbin]# spark-shell 

完成

spark 2.1.0 集群安装的更多相关文章

  1. hadoop 2.2.0集群安装详细步骤(简单配置,无HA)

    安装环境操作系统:CentOS 6.5 i586(32位)java环境:JDK 1.7.0.51hadoop版本:社区版本2.2.0,hadoop-2.2.0.tar.gz 安装准备设置集群的host ...

  2. CentOS下Hadoop-2.2.0集群安装配置

    对于一个刚开始学习Spark的人来说,当然首先需要把环境搭建好,再跑几个例子,目前比较流行的部署是Spark On Yarn,作为新手,我觉得有必要走一遍Hadoop的集群安装配置,而不仅仅停留在本地 ...

  3. Spark On YARN 分布式集群安装

    一.导读 最近开始学习大数据分析,说到大数据分析,就必须提到Hadoop与Spark.要研究大数据分析,就必须安装这两个软件,特此记录一下安装过程.Hadoop使用V2版本,Hadoop有单机.伪分布 ...

  4. hadoop 2.2.0集群安装

    相关阅读: hbase 0.98.1集群安装 本文将基于hadoop 2.2.0解说其在linux集群上的安装方法,并对一些重要的设置项进行解释,本文原文链接:http://blog.csdn.net ...

  5. ElasticSearch 5.0.0 集群安装部署文档

    1.  搭建环境 3台物理机 操作系统 centos7 es1   192.168.31.141   4g内存   2核 es2   192.168.31.142   4g内存   2核 es3    ...

  6. CentOS下Storm 1.0.0集群安装具体解释

    本文环境例如以下: 操作系统:CentOS 6 32位 ZooKeeper版本号:3.4.8 Storm版本号:1.0.0 JDK版本号:1.8.0_77 32位 python版本号:2.6.6 集群 ...

  7. Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

    前言 安装Apache Hive前提是要先安装hadoop集群,并且hive只需要在hadoop的namenode节点集群里安装即可,安装前需保证Hadoop已启(动文中用到了hadoop的hdfs命 ...

  8. spark 2.0.0集群安装与hive on spark配置

    1. 环境准备: JDK1.8 hive 2.3.4 hadoop 2.7.3 hbase 1.3.3 scala 2.11.12 mysql5.7 2. 下载spark2.0.0 cd /home/ ...

  9. 最新版spark1.1.0集群安装配置

    和分布式文件系统和NoSQL数据库相比而言,spark集群的安装配置还算是比较简单的: 很多教程提到要安装java和scala,但我发现spark最新版本是包含scala的,JRE采用linux内嵌的 ...

随机推荐

  1. List分组 用于客服对话分组场景

    工作用可能会用到会话分组: Message是消息实体对象,里面有toId和fromId 指明接收方ID和发送方Id,通过组合形式"12-22-" 为map的key public M ...

  2. Linux 安装SVN服务器 (转)

    一. SVN 简介 Subversion(SVN) 是一个开源的版本控制系統, 也就是说 Subversion 管理着随时间改变的数据. 这些数据放置在一个中央资料档案库 (repository) 中 ...

  3. ios GCD简单介绍 后台运行~

    本从实践出发简单说明: 首先,gcd是Grand Central Dispatch的缩写,意为多线程优化技术,是苹果为多核处理优化的技术.使用简单.清晰. 多线程就分同步.异步方法如下: //异步线程 ...

  4. MySQL索引统计信息更新相关的参数

    MySQL统计信息相关的参数: 1. innodb_stats_on_metadata(是否自动更新统计信息),MySQL 5.7中默认为关闭状态 仅在统计信息配置为非持久化的时候生效. 也就是说在i ...

  5. js的break语句,continue语句,return语句

    js的break语句,continue语句,return语句. 用的时候很容易混淆,有过一次泪奔的经历. break语句 break语句会使运行的程序立刻退出包含在最内层的循环或者退出一个switch ...

  6. 【 js 模块加载 】深入学习模块化加载(node.js 模块源码)

    一.模块规范 说到模块化加载,就不得先说一说模块规范.模块规范是用来约束每个模块,让其必须按照一定的格式编写.AMD,CMD,CommonJS 是目前最常用的三种模块化书写规范.  1.AMD(Asy ...

  7. linux操作系统中对大小端的判断

    static union { char c[4]; unsigned long l; } endian_test = { { 'l', '?', '?', 'b' } }; #define ENDIA ...

  8. Elasticsearch 全量遍历数据

    1,利用分页,from,to参数,但是当数据量特别大的时候(大约100w),分页是不现实的,排序排不开. 2,利用scan功能. 上 Python代码 from elasticsearch impor ...

  9. python编程总结

    1.signal.signal(signal.SIGCHLD,signal.SIG_IGN) 这句话的作用是 防止产生僵尸进程.详细解释看 http://www.cnblogs.com/Anker/p ...

  10. Laravel 5.2 教程 - 数据填充

    一.简介 Laravel提供的填充类(seed),可以让大家很容易的实现填充测试数据到数据库.所有的填充类都位于database/seeds目录.填充类的类名完全由你自定义,但最好还是遵循一定的规则, ...