第一步:zookeeper安装

通过WinSCP软件将zookeeper-3.4.8.tar.gz软件传送到/usr/zookeeper/目录下

[root@spark1 zookeeper]# chmod u+x zookeeper-3.4.8.tar.gz #增加执行权限
[root@spark1 zookeeper]# tar -zxvf zookeeper-3.4.8.tar.gz #
[root@spark1 zookeeper]# mv zookeeper-3.4.8 zk
[root@spark1 ~]# vi /etc/profile
export ZOOKEEPER_HOME=/usr/zookeeper/zk
export PATH=$ZOOKEEPER_HOME/bin
[root@spark1 ~]# source /etc/profile

第二步:配置zoo.cfg

[root@spark1 ~]# cd /usr/zookeeper/zk/conf
[root@spark1 conf]# mv zoo_sample.cfg zoo.cfg
[root@spark1 conf]# vi zoo.cfg #进入文件修改以下内容
dataDir=/usr/zookeeper/zk/data #修改
新增
server.0=spark1:2888:3888
server.1=spark2:2888:3888
server.2=spark3:2888:3888

第三步:设置zookeeper节点标识


[root@spark1 zk]# mkdir data #进入到zookeeper目录
[root@spark1 zk]# cd data
[root@spark1 data]# vi myid #创建该文件并输入数字0
0

第四步:搭建zookeeper集群

在两个节点上按照上述步骤配置ZooKeeper,使用scp将zk和.bashrc拷贝到spark2和spark3上。区别是spark2和spark3的标识号分别设置为1和2,需重新设置

[root@spark1 usr]# scp -r zookeeper root@spark2:/usr/      #拷贝zookeeper目录到spark2
[root@spark1 usr]# scp -r zookeeper root@spark3:/usr/ #
[root@spark1 ~]# scp -r /etc/profile root@spark2:/etc/ #
[root@spark1 ~]# scp -r /etc/profile root@spark3:/etc/ #拷贝目录到spark3
[root@spark2 ~]# source /etc/profile #使配置生效
[root@spark3 ~]# source /etc/profile
[root@spark2 zk]# cd data #进入zookeeper下的data目录
[root@spark2 data]# vi myid #修改myid文件为1
[root@spark3 zk]# cd data
[root@spark3 data]# vi myid #修改myid文件为2

第五步:启动zookeeper集群

分别在三台机器上执行:zkServer.sh start


[root@spark1 zk]# zkServer.sh start #各个节点分别执行
[root@spark2 zk]# zkServer.sh start
[root@spark3 zk]# zkServer.sh start
[root@spark1 zk]# #检查zookeeper状态
[root@spark2 zk]# zkServer.sh status
[root@spark3 zk]# zkServer.sh status







第六步:连接zookeeper集群

三个节点都验证下

[root@spark1 zk]# bin/zkCli.sh -server 192.168.220.144:2181 #验证spark1节点





spark学习4(zookeeper3.4集群搭建)的更多相关文章

  1. spark学习5(hbase集群搭建)

    第一步:Hbase安装 hadoop,zookeeper前面都安装好了 将hbase-1.1.3-bin.tar.gz上传到/usr/HBase目录下 [root@spark1 HBase]# chm ...

  2. spark学习1(hadoop集群搭建)

    把原先搭建的集群环境给删除了,自己重新搭建了一次,将笔记整理在这里,方便自己以后查看 第一步:安装主节点spark1 第一个节点:centos虚拟机安装,全名spark1,用户名hadoop,密码12 ...

  3. ZooKeeper学习笔记一:集群搭建

    作者:Grey 原文地址:ZooKeeper学习笔记一:集群搭建 说明 单机版的zk安装和运行参考:https://zookeeper.apache.org/doc/r3.6.3/zookeeperS ...

  4. redis 学习笔记(6)-cluster集群搭建

    上次写redis的学习笔记还是2014年,一转眼已经快2年过去了,在段时间里,redis最大的变化之一就是cluster功能的正式发布,以前要搞redis集群,得借助一致性hash来自己搞shardi ...

  5. 大数据平台搭建 - cdh5.11.1 - spark源码编译及集群搭建

    一.spark简介 Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎,Spark 是一种与 hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同 ...

  6. redis学习五,redis集群搭建及添加主从节点

    redis集群 java架构师项目实战,高并发集群分布式,大数据高可用,视频教程 在redis3.0之前,出现了sentinel工具来监控各个Master的状态(可以看上一篇博客).如果Master异 ...

  7. Etcd学习(二)集群搭建Clustering

    1.单个etcd节点(测试开发用) 之前我一直开发测试一直是用的一个Etcd节点,然后启动命令一直都是直接打一个etcd(我已经将etcd安装目录的bin目录加入到PATH环 境变量中),然后启动信息 ...

  8. Redis Cluster集群搭建与应用

    1.redis-cluster设计 Redis集群搭建的方式有多种,例如使用zookeeper,但从redis 3.0之后版本支持redis-cluster集群,redis-cluster采用无中心结 ...

  9. 大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 图文详解

    引言 在之前的大数据学习系列中,搭建了Hadoop+Spark+HBase+Hive 环境以及一些测试.其实要说的话,我开始学习大数据的时候,搭建的就是集群,并不是单机模式和伪分布式.至于为什么先写单 ...

随机推荐

  1. CodeIgniter框架——访问方式 URI 分配变量 数据库操作

    1.访问方式: CodeIgniter 的访问URL使用的是pathinfo,入口文件/控制器/方法(/参数列表) eg:localhost/index.php/welcome/index/id 第一 ...

  2. 爬虫入门【8】Python连接MongoDB的用法简介

    MongoDB的连接和数据存取 MongoDB是一种跨平台,面向文档的NoSQL数据库,提供高性能,高可用性并且易于扩展. 包含数据库,集合,文档等几个重要概念. 我们在这里不介绍MongoDB的特点 ...

  3. python清除字符串中间空格的方法

    1.使用字符串函数replace >>> a = 'hello world' >>> a.replace(' ', '') 'helloworld' 看上这种方法真 ...

  4. Brouwer fixed-point theorem

    w https://en.wikipedia.org/wiki/Brouwer_fixed-point_theorem https://zh.wikipedia.org/wiki/布劳威尔不动点定理 ...

  5. String、StringBuffer、StringBuiler区别

    1.String与StringBuiler的相同点都是线程不安全的.StringBuffer是线程安全的. 2.String长度不可变,StringBuiler长度可变.当String 使用(+)连接 ...

  6. MySQL中Cardinality值的介绍

    1)         什么是Cardinality 不是所有的查询条件出现的列都需要添加索引.对于什么时候添加B+树索引.一般的经验是,在访问表中很少一部分时使用B+树索引才有意义.对于性别字段.地区 ...

  7. Andrew Ng机器学习编程作业: Linear Regression

    编程作业有两个文件 1.machine-learning-live-scripts(此为脚本文件方便作业) 2.machine-learning-ex1(此为作业文件) 将这两个文件解压拖入matla ...

  8. Apache JServ Protocol (AJP)

    The Apache JServ Protocol (AJP) is a binary protocol that can proxy inbound requests from a web serv ...

  9. Linux中的服务管理

    RPM包默认安装的服务 查看已安装的服务: chkconfig --list 默认安装位置: /etc/init.d 启动脚本 /etc/sysconfig 初始化环境配置文件 /etc  配置文件位 ...

  10. 顽石系列:CSS实现垂直居中的五种方法

    顽石系列:CSS实现垂直居中的五种方法 在开发过程中,我们可能沿用或者试探性地去使用某种方法实现元素居中,但是对各种居中方法的以及使用场景很不清晰.参考的内容链接大概如下: 行内元素:https:// ...