环境:

已经安装好:

hadoop 2.6.4  yarn

参考: [b0001] 伪分布式 hadoop 2.6.4

准备:

spark-2.0.1-bin-hadoop2.6.tgz 下载地址: http://spark.apache.org/downloads.html

说明

  • 官方说 2.0 后的spark 自带scala,所以接下来不用额外安装
  • 安装spark 不一定要装hadoop,可以直接跑在linux系统上
  • 以下所有操作都是用hadoop安装用户进行,权限不够就sudo

1. 获得安装包

迅雷下载,上传到linux,解压

hadoop@ssmaster:~$ tar zxvf  spark-2.0.-bin-hadoop2..tgz
hadoop@ssmaster:~$ sudo mv spark-2.0.-bin-hadoop2. /opt/

2.配置spark

2.1  SPARK_HOME 环境变量

hadoop@ssmaster:/opt$ sudo vi /etc/profile

添加

export SPARK_HOME=/opt/spark-2.0.-bin-hadoop2.
export HADOOP_HOME=/opt/hadoop-2.6.
export JAVA_HOME=/home/szb/hadoop/jdk1..0_80
export JRE_HOME=$JAVA_HOME/jre
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SPARK_HOME/bin
export CLASSPATH=./:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

保存、使生效并测试

hadoop@ssmaster:/opt$ source /etc/profile
hadoop@ssmaster:/opt$ echo $SPARK_HOME
/opt/spark-2.0.-bin-hadoop2.

2.2  参数配置

修改 spark-env.sh

 hadoop@ssmaster:/opt/spark-2.0.-bin-hadoop2./conf$ pwd
/opt/spark-2.0.-bin-hadoop2./conf
hadoop@ssmaster:/opt/spark-2.0.-bin-hadoop2./conf$ cp spark-env.sh.template spark-env.sh
hadoop@ssmaster:/opt/spark-2.0.-bin-hadoop2./conf$ vi spark-env.sh

在 spark-env.sh中添加以下参数,含义很好理解

###jdk dir

export  JAVA_HOME=/home/szb/hadoop/jdk1..0_80

###the ip of master node of spark

export SPARK_MASTER_IP=192.168.249.144

###the max memory size of worker

export SPARK_WORKER_MEMORY=1024m

###hadoop configuration file dir

export HADOOP_CONF_DIR=/opt/hadoop-2.6./etc/hadoop/

2.3 指定spark slave节点

hadoop@ssmaster:/opt/spark-2.0.-bin-hadoop2./conf$ cp slaves.template slaves
hadoop@ssmaster:/opt/spark-2.0.1-bin-hadoop2.6/conf$ vi slaves

修改内容为 ssmaster。

至此,配置都完成了

3 启动spark

3.1 先启动 hadoop ,依次执行 start-dfs.sh,start-yarn.sh,  jps查看后没问题

3.2 启动spark 所有节点

hadoop@ssmaster:/opt/spark-2.0.-bin-hadoop2.$ sbin/start-all.sh

hadoop@ssmaster:/opt/spark-2.0.1-bin-hadoop2.6$ jps
5859 ResourceManager
5979 NodeManager
5690 SecondaryNameNode
5361 NameNode
7014 Jps
5479 DataNode
6866 Master
6955 Worker

3.3 启动scala

hadoop@ssmaster:/opt/spark-2.0.-bin-hadoop2.$ bin/spark-shell
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel).
// :: WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
// :: WARN spark.SparkContext: Use an existing SparkContext, some configuration may not take effect.
Spark context Web UI available at http://192.168.249.144:4040
Spark context available as 'sc' (master = local[*], app id = local-).
Spark session available as 'spark'.
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.0.
/_/ Using Scala version 2.11. (Java HotSpot(TM) -Bit Server VM, Java 1.7.0_80)
Type in expressions to have them evaluated.
Type :help for more information. scala> print("hello world")
hello world

备注:

停止spark         sbin/stop-all.sh

停止scala          ctrl-c

启动python入口  bin/pyspark

能打开以下页面,说明spark 安装成功

http://ssmaster:8080/

http://ssmaster:4040/

Z 总结:

hadoop2.6上的spark伪分布式搭建成功

后续:

  • 重点学习使用它做一些实际的事情
  • 有空研究分布式spark搭建
  • 有空研究spark各个参数的功能
  • spark的用户与hadoop用户同一个,如何不同,怎么安装[遗留研究]

C 参考:

Hadoop2.6.0上的spark1.5.2集群搭建

http://www.open-open.com/lib/view/open1453950039980.html

[b0006] Spark 2.0.1 伪分布式搭建练手的更多相关文章

  1. spark1.6.0伪分布式搭建

    环境: hadoop2.6.0 jdk1.8 ubuntu 14.04 64位 1 安装scala环境 版本是scala-2.10.6,官网下载地址http://www.scala-lang.org/ ...

  2. bayaim_hadoop1_2.2.0伪分布式搭建

    ------------------bayaim_hadoop1_2.2.0伪分布式搭建_2018年11月06日09:21:46--------------------------------- 1. ...

  3. Hadoop简介与伪分布式搭建—DAY01

    一.  Hadoop的一些相关概念及思想 1.hadoop的核心组成: (1)hdfs分布式文件系统 (2)mapreduce 分布式批处理运算框架 (3)yarn 分布式资源调度系统 2.hadoo ...

  4. 2.hadoop基本配置,本地模式,伪分布式搭建

    2. Hadoop三种集群方式 1. 三种集群方式 本地模式 hdfs dfs -ls / 不需要启动任何进程 伪分布式 所有进程跑在一个机器上 完全分布式 每个机器运行不同的进程 2. 服务器基本配 ...

  5. 超详细解说Hadoop伪分布式搭建--实战验证【转】

    超详细解说Hadoop伪分布式搭建 原文http://www.tuicool.com/articles/NBvMv2原原文 http://wojiaobaoshanyinong.iteye.com/b ...

  6. hadoop2.8 集群 1 (伪分布式搭建)

    简介: 关于完整分布式请参考: hadoop2.8 ha 集群搭建   [七台机器的集群] Hadoop:(hadoop2.8) Hadoop是一个由Apache基金会所开发的分布式系统基础架构.用户 ...

  7. Ubuntu 14.04 LTS 安装 spark 1.6.0 (伪分布式)-26号开始

    需要下载的软件: 1.hadoop-2.6.4.tar.gz 下载网址:http://hadoop.apache.org/releases.html 2.scala-2.11.7.tgz 下载网址:h ...

  8. hadoop2.2.0 单机伪分布式(含64位hadoop编译) 及 eclipse hadoop开发环境搭建

    hadoop中文镜像地址:http://mirrors.hust.edu.cn/apache/hadoop/core/hadoop-2.2.0/ 第一步,下载 wget 'http://archive ...

  9. hadoop2.4.0伪分布式搭建以及分布式关机重启后datanode没起来的解决办法

    1.准备Linux环境 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip ...

随机推荐

  1. C#中获取指定路径下指定后缀名的所有文件的路径的list

    场景 指定一个路径和后缀名,查找这个路径下所有以此后缀名结尾的文件. 注: 博客主页: https://blog.csdn.net/badao_liumang_qizhi关注公众号 霸道的程序猿 获取 ...

  2. 松软科技web课堂:SQLServer之MID() 函数

    MID() 函数 MID 函数用于从文本字段中提取字符. SQL MID() 语法 SELECT MID(column_name,start[,length]) FROM table_name 参数 ...

  3. Spring Boot 2 读取配置文件

    开发环境:IntelliJ IDEA 2019.2.2Spring Boot版本:2.1.8 新建一个名称为demo的Spring Boot项目. 一.默认配置文件 Spring Boot会读取名称a ...

  4. 转战物联网·基础篇07-深入理解MQTT协议之控制报文(数据包)格式

      在MQTT协议中,一个控制报文(数据包)的结构按照前后顺序分如下三部分: 结构名 中文名 解释说明 Fixed header 固定报头 报文的最开始部分,所有报文都包含这个部分 Variable ...

  5. php对微信支付回调处理的方法(合集)

    支付完成后,微信会把相关支付结果和用户信息发送给商户,商户需要接收处理,并返回应答. 对后台通知交互时,如果微信收到商户的应答不是成功或超时,微信认为通知失败,微信会通过一定的策略定期重新发起通知,尽 ...

  6. ThinkPHP数据库驱动之mysql事物回滚

    1.开启事务方法 startTrans()2.事务提交方法 commit()3.事务回滚方法 rollback() 用法例子: $order = M(‘order’); $allAdded = tru ...

  7. Impala基于内存的SQL引擎的详细介绍

    一.简介 1.概述 Impala是Cloudera公司推出,提供对HDFS.Hbase数据的高性能.低延迟的交互式SQL查询功能. •基于Hive使用内存计算,兼顾数据仓库.具有实时.批处理.多并发等 ...

  8. PyCharm关闭按两次Shift进入搜索框的功能

    1.按Ctrl + Shift + A 弹出搜索框 2.在弹出的搜索框内输入registry(如果汉化了输入“注册”),回车 3.在弹出的窗口中,往下找到“ide.suppress.double.cl ...

  9. 201871010136-赵艳强《面向对象程序设计(java)》第一周学习总结

    项目 内容 这个作业属于哪个课程 https://www.cnblogs.com/nwnu-daizh/  这个作业的要求在哪里 https://www.cnblogs.com/nwnu-daizh/ ...

  10. 2. 词法"陷阱"

    1. 练习2-1 某些编译器允许嵌套注释.请写一个程序测试,要求:无论是对允许嵌套注释的编译器,还是对不允许嵌套注释的编译器,该程序都能正常通过编译,但是这两者情况下执行的结果却不相同. #inclu ...