架构图(HA模型没有SNN节点)

用vm规划了8台机器,用到了7台,SNN节点没用

 
NN
DN
SN
ZKFC
ZK
JNN
RM
NM
node1
*
 
 
*
 
 
 
 
node2
*
 
 
*
 
 
 
 
node3
 
 
   
 
 
 
 
node4
 
 
 
*
 
 
*
 
node5
 
 
 
*
 
 
*
 
node6
 
*
 
 
*
*
 
*
node7
 
*
 
 
*
*
 
*
node8
 
*
 
 
*
*
 
*

集群搭建前准备工作:

*搭建集群之前需要关闭所有服务器的selinux和防火墙

  1.更改所有服务器的主机名和hosts文件对应关系

  1. [root@localhost ~]# hostnamectl set-hostname node1
  2.  
  3. [root@localhost ~]# cat /etc/hosts
  4. 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
  5. ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
  6. 192.168.159.129 node1
  7. 192.168.159.130 node2
  8. 192.168.159.132 node3
  9. 192.168.159.133 node4
  10. 192.168.159.136 node5
  11. 192.168.159.137 node6
  12. 192.168.159.138 node7
  13. 192.168.159.139 node8

  2.两个NameNode节点做对所有主机的免密登陆,包括自己的节点;两个resourcemanager节点互相做免密登陆,包括自己的节点

  1. [root@localhost ~]# ssh-keygen
  2. Generating public/private rsa key pair.
  3. Enter file in which to save the key (/root/.ssh/id_rsa):
  4. Created directory '/root/.ssh'.
  5. Enter passphrase (empty for no passphrase):
  6. Enter same passphrase again:
  7. Your identification has been saved in /root/.ssh/id_rsa.
  8. Your public key has been saved in /root/.ssh/id_rsa.pub.
  9. The key fingerprint is:
  10. SHA256:lIvGygyJHycNTZJ0KeuE/BM0BWGGq/UTgMUQNo7Qm2M root@node1
  11. The key's randomart image is:
  12. +---[RSA 2048]----+
  13. |+@=**o |
  14. |*.XB. . |
  15. |oo+*o o |
  16. |.+E=.. o . |
  17. |o=*o+.+ S |
  18. |...Xoo |
  19. | . =. |
  20. | |
  21. | |
  22. +----[SHA256]-----+
  23.  
  24. [root@localhost ~]# for i in `seq 1 8`;do ssh-copy-id root@node$i;done

  3.同步所有服务器时间

  1. [root@node1 ~]# ansible all -m shell -o -a 'ntpdate ntp1.aliyun.com'
  2. node4 | CHANGED | rc=0 | (stdout) 20 Feb 16:08:37 ntpdate[2477]: adjust time server 120.25.115.20 offset 0.001546 sec
  3. node6 | CHANGED | rc=0 | (stdout) 20 Feb 16:08:37 ntpdate[2470]: adjust time server 120.25.115.20 offset 0.000220 sec
  4. node2 | CHANGED | rc=0 | (stdout) 20 Feb 16:08:37 ntpdate[2406]: adjust time server 120.25.115.20 offset -0.002414 sec
  5. node3 | CHANGED | rc=0 | (stdout) 20 Feb 16:08:37 ntpdate[2465]: adjust time server 120.25.115.20 offset -0.001185 sec
  6. node5 | CHANGED | rc=0 | (stdout) 20 Feb 16:08:37 ntpdate[2466]: adjust time server 120.25.115.20 offset 0.005768 sec
  7. node7 | CHANGED | rc=0 | (stdout) 20 Feb 16:08:43 ntpdate[2503]: adjust time server 120.25.115.20 offset 0.000703 sec
  8. node8 | CHANGED | rc=0 | (stdout) 20 Feb 16:08:43 ntpdate[2426]: adjust time server 120.25.115.20 offset -0.001338 sec

  4.所有服务器安装JDK环境并配置好环境变量

  1. [root@node1 ~]# tar -xf jdk-8u144-linux-x64.gz -C /usr/
  2. [root@node1 ~]# ln -sv /usr/jdk1.8.0_144/ /usr/java
  3. "/usr/java" -> "/usr/jdk1.8.0_144/"
  4.  
  5. [root@node1 ~]# cat /etc/profile.d/java.sh
  6. export JAVA_HOME=/usr/java
  7. export PATH=$PATH:$JAVA_HOME/bin
  8.  
  9. [root@node1 ~]# source /etc/profile.d/java.sh
  10. [root@node1 ~]# java -version
  11. java version "1.8.0_144"
  12. Java(TM) SE Runtime Environment (build 1.8.0_144-b01)
  13. Java HotSpot(TM) 64-Bit Server VM (build 25.144-b01, mixed mode)   

zookeeper集群搭建

在规划好的6、7、8节点上安装zookeeper(JDK环境要准备好)

  1. #解压zookeeper程序到/usr目录下
  2. [root@node6 ~]# tar xf zookeeper-3.4.6.tar.gz -C /usr/
  3. #创建zookeeper存放数据目录
  4. [root@node6 ~]# mkdir /usr/data/zookeeper
  5. #将zookeeper的conf目录下sample配置文件更改成cfg文件
  6. [root@node6 ~]# cp /usr/zookeeper-3.4.6/conf/zoo_sample.cfg /usr/zookeeper-3.4.6/conf/zoo.cfg
  7. #编辑配置文件,更改数据存放目录,并添加zookeeper集群配置信息
  8. [root@node6 ~]# vim /usr/zookeeper-3.4.6/conf/zoo.cfg
  9. dataDir=/usr/data/zookeeper #修改
  10. server.1=node6:2888:3888 #添加
  11. server.2=node7:2888:3888 #添加
  12. server.3=node8:2888:3888 #添加
  13.  
  14. #把配置好的zookeeper程序文件分发至其余的两个节点
  15. [root@node6 ~]# scp -r /usr/zookeeper-3.4.6/ node7:/usr/zookeeper-3.4.6/
  16. [root@node6 ~]# scp -r /usr/zookeeper-3.4.6/ node8:/usr/zookeeper-3.4.6/
  17.  
  18. #在刚刚创建的目录下当前zookeeper节点信息,必须为数字,且三个节点不能相同
  19. [root@node6 ~]# echo 1 > /usr/data/zookeeper/myid
  20.  
  21. #在剩下的两个节点上也要创建数据存放目录和节点配置文件
  22. [root@node7 ~]# mkdir /usr/data/zookeeper
  23. [root@node7 ~]# echo 2 > /usr/data/zookeeper/myid
  24. [root@node8 ~]# mkdir /usr/data/zookeeper
  25. [root@node8 ~]# echo 3 > /usr/data/zookeeper/myid
  26. #配置完成后启动zookeeper集群
  27. [root@node6 ~]# /usr/zookeeper-3.4.6/bin/zkServer.sh start
  28. [root@node7 ~]# /usr/zookeeper-3.4.6/bin/zkServer.sh start
  29. [root@node8 ~]# /usr/zookeeper-3.4.6/bin/zkServer.sh start
  30.  
  31. #查看集群启动情况(先启动的会成为leader,同时启动数字大的会成为leader)
  32. [root@node6 ~]# /usr/zookeeper-3.4.6/bin/zkServer.sh status
  33. JMX enabled by default
  34. Using config: /usr/zookeeper-3.4.6/bin/../conf/zoo.cfg
  35. Mode: follower
  36.  
  37. [root@node7 ~]# /usr/zookeeper-3.4.6/bin/zkServer.sh status
  38. JMX enabled by default
  39. Using config: /usr/zookeeper-3.4.6/bin/../conf/zoo.cfg
  40. Mode: follower
  41.  
  42. [root@node8 ~]# /usr/zookeeper-3.4.6/bin/zkServer.sh status
  43. JMX enabled by default
  44. Using config: /usr/zookeeper-3.4.6/bin/../conf/zoo.cfg
  45. Mode: leader
  46.  
  47. [root@node8 ~]# netstat -tnlp | grep java #只有主节点有2888
  48. tcp6 0 0 :::2181 :::* LISTEN 33766/java
  49. tcp6 0 0 192.168.159.139:2888 :::* LISTEN 33766/java
  50. tcp6 0 0 192.168.159.139:3888 :::* LISTEN 33766/java
  51. tcp6 0 0 :::43793 :::* LISTEN 33766/java

Hadoop集群搭建  

  1.先添加hadoop的环境变量

  1. [root@node1 ~]# cat /etc/profile.d/hadoop.sh
  2. export HADOOP_HOME=/usr/hadoop-2.9.2
  3. export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

  2.解压hadoop程序包到/usr目录下

  1. [root@node1 ~]# tar xf hadoop-2.9.2.tar.gz -C /usr
  2. [root@node1 ~]# ln -sv /usr/hadoop-2.9.2/ /usr/hadoop
  3. "/usr/hadoop" -> "/usr/hadoop-2.9.2/"

  3.更改hadoop程序包内 hadoop-env.sh,mapred-env.sh,yarn-env.sh中的JAVA_HOME环境变量

  1. [root@node1 ~]# grep 'export JAVA_HOME' /usr/hadoop/etc/hadoop/{hadoop-env.sh,mapred-env.sh,yarn-env.sh}
  2. /usr/hadoop/etc/hadoop/hadoop-env.sh:export JAVA_HOME=/usr/java
  3. /usr/hadoop/etc/hadoop/mapred-env.sh:export JAVA_HOME=/usr/java
  4. /usr/hadoop/etc/hadoop/yarn-env.sh:export JAVA_HOME=/usr/java

  4.修改core-site.xml文件(NameNode配置文件)

  1. [root@node1 ~]# vim /usr/hadoop/etc/hadoop/core-site.xml
  2. <configuration>
  3. <property>
  4. <name>fs.defaultFS</name>
  5. <value>hdfs://hadoop</value>
  6. <!--HA部署下,NameNode访问hdfs-site.xml中的dfs.nameservices -->
  7. </property>
  8. <property>
  9. <name>hadoop.tmp.dir</name>
  10. <value>/usr/data/hadoop</value>
  11. <!--Hadoop的文件存放目录 -->
  12. </property>
  13. <property>
  14. <name>ha.zookeeper.quorum</name>
  15. <value>node6:2181,node7:2181,node8:2181</value>
  16. <!--zookeeper集群地址 -->
  17. </property>
  18. </configuration>

  5.在所有hadoop节点创建/usr/data/hadoop目录

  6.修改hdfs-site.xml文件

  1. [root@node1 ~]# vim /usr/hadoop/etc/hadoop/hdfs-site.xml
  2. <configuration>
  3. <property>
  4. <name>dfs.replication</name>
  5. <value>3</value>
  6. <!--数据文件副本数量-->
  7. </property>
  8. <property>
  9. <name>dfs.blocksize</name>
  10. <value>134217728</value>
  11. <!--数据块大小,文件超过这个大小就会切开,128M -->
  12. </property>
  13. <property>
  14. <name>dfs.permissions.enabled</name>
  15. <value>false</value>
  16. <!-- **** -->
  17. </property>
  18. <property>
  19. <name>dfs.nameservices</name>
  20. <value>hadoop</value>
  21. <!--这个值就是core-site.xmlhdfs集群入口 -->
  22. </property>
  23. <property>
  24. <name>dfs.ha.namenodes.hadoop</name>
  25. <value>nn1,nn2</value>
  26. <!--集群中一共有两个namenode -->
  27. </property>
  28. <property>
  29. <name>dfs.namenode.rpc-address.hadoop.nn1</name>
  30. <value>node1:9000</value>
  31. <!--nn1rpc通信地址 -->
  32. </property>
  33. <property>
  34. <name>dfs.namenode.http-address.hadoop.nn1</name>
  35. <value>node1:50070</value>
  36. <!--nn1http通信地址 -->
  37. </property>
  38. <property>
  39. <name>dfs.namenode.rpc-address.hadoop.nn2</name>
  40. <value>node2:9000</value>
  41. <!--nn2rpc通信地址 -->
  42. </property>
  43. <property>
  44. <name>dfs.namenode.http-address.hadoop.nn2</name>
  45. <value>node2:50070</value>
  46. <!--nn2http通信地址 -->
  47. </property>
  48. <property>
  49. <name>dfs.namenode.shared.edits.dir</name>
  50. <value>qjournal://node6:8485;node7:8485;node8:8485/hadoop</value>
  51. <!-- 指定NameNode的元数据在JournalNode日志上的存放位置(一般和zookeeper部署在一起)-->
  52. <!-- 存储路径可以随便起,如果有多个集群,不一样就行-->
  53. </property>
  54. <property>
  55. <name>dfs.ha.automatic-failover.enabled</name>
  56. <value>true</value>
  57. <!--是否开启故障自动隔离-->
  58. </property>
  59. <property>
  60. <name>dfs.journalnode.edits.dir</name>
  61. <value>/usr/data/journalnode</value>
  62. <!-- 指定JournalNode在本地磁盘存放数据的位置,这个需要指定,默认是放在tmp目录下 -->
  63. </property>
  64. <property>
  65. <name>dfs.client.failover.proxy.provider.hadoop</name>
  66. <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
  67. <!-- namenode故障转移实现的代理类,注意"name键"要改动-->
  68. </property>
  69. <property>
  70. <name>dfs.ha.fencing.methods</name>
  71. <value>sshfence</value>
  72. <!--故障自动转移的方法,这里选用ssh远程登陆方法-->
  73. </property>
  74. <property>
  75. <name>dfs.ha.fencing.ssh.private-key-files</name>
  76. <value>/root/.ssh/id_rsa</value>
  77. <!--选用了ssh远程登陆就需要ssh密钥,两台namenode需要互相做密钥认证-->
  78. </property>
  79. <property>
  80. <name>dfs.ha.fencing.ssh.connect-timeout</name>
  81. <value>30000</value>
  82. <!--配置ssh超时时间-->
  83. </property>
  84. </configuration>

  7.在journalnode节点创建/usr/data/journalnode目录

  8.修改mapred-site.xml( 修改mapred-site.xml.template名称为mapred-site.xml)

  1. [root@node1 ~]# vim /usr/hadoop/etc/hadoop/mapred-site.xml
  2. <configuration>
  3. <property>
  4. <name>mapreduce.framework.name</name>
  5. <value>yarn</value>
  6. </property>
  7. <property>
  8. <name>mapreduce.jobhistory.address</name>
  9. <value>node3:10020</value>
  10. </property>
  11. <property>
  12. <name>mapreduce.jobhistory.webapp.address</name>
  13. <value>node3:19888</value>
  14. </property>
  15. </configuration>

  9.修改yarn-site.xml

  1. [root@node1 ~]# vim /usr/hadoop/etc/hadoop/yarn-site.xml
  2. <configuration>
  3. <property>
  4. <name>yarn.nodemanager.aux-services</name>
  5. <value>mapreduce_shuffle</value>
  6. </property>
  7. <property>
  8. <name>yarn.resourcemanager.ha.enabled</name>
  9. <value>true</value>
  10. <!--是否开启rm的高可用-->
  11. </property>
  12. <property>
  13. <name>yarn.resourcemanager.cluster-id</name>
  14. <value>rmcluster</value>
  15. <!--生成rm集群的唯一标识,name键不需要改动 -->
  16. </property>
  17. <property>
  18. <name>yarn.resourcemanager.ha.rm-ids</name>
  19. <value>rm1,rm2</value>
  20. <!--rm集群的两台机器名称 -->
  21. </property>
  22. <property>
  23. <name>yarn.resourcemanager.hostname.rm1</name>
  24. <value>node4</value>
  25. <!--rm1的机器地址 -->
  26. </property>
  27. <property>
  28. <name>yarn.resourcemanager.webapp.address.rm1</name>
  29. <value>node4:8088</value>
  30. <!--rm1的网页访问地址 -->
  31. </property>
  32. <property>
  33. <name>yarn.resourcemanager.hostname.rm2</name>
  34. <value>node5</value>
  35. <!--rm2的机器地址 -->
  36. </property>
  37. <property>
  38. <name>yarn.resourcemanager.webapp.address.rm2</name>
  39. <value>node5:8088</value>
  40. <!--rm2的网页访问地址 -->
  41. </property>
  42. <property>
  43. <name>yarn.resourcemanager.zk-address</name>
  44. <value>node6:2181,node7:2181,node8:2181</value>
  45. <!--指定zookeeper集群的地址-->
  46. </property>
  47. <property>
  48. <name>yarn.resourcemanager.recovery.enabled</name>
  49. <value>true</value>
  50. <!--启用自动恢复,默认是false-->
  51. </property>
  52. <property>
  53. <name>yarn.resourcemanager.store.class</name>
  54. <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
  55. <!--指定resourcemanager的状态信息存储在zookeeper集群,默认是存放在FileSystem里-->
  56. </property>
  57. </configuration>

  10.编辑datanode配置文件(也是nodemanager的启动位置)

  1. [root@node1 ~]# vim /usr/hadoop/etc/hadoop/slaves
  2. node6
  3. node7
  4. node8

仅首次初始化时需要的步骤如下:

  1.首先启动三台journalnode集群

  1. [root@node6 ~]# hadoop-daemon.sh start journalnode
  2. starting journalnode, logging to /usr/hadoop-2.9.2/logs/hadoop-root-journalnode-node6.out
  3. [root@node6 ~]# jps
  4. 2965 Jps
  5. 2904 JournalNode
  6. 2779 QuorumPeerMain
  7.  
  8. [root@node7 ~]# hadoop-daemon.sh start journalnode
  9. starting journalnode, logging to /usr/hadoop-2.9.2/logs/hadoop-root-journalnode-node7.out
  10. [root@node7 ~]# jps
  11. 2119 QuorumPeerMain
  12. 2220 JournalNode
  13. 2318 Jps
  14.  
  15. [root@node8 ~]# hadoop-daemon.sh start journalnode
  16. starting journalnode, logging to /usr/hadoop-2.9.2/logs/hadoop-root-journalnode-node8.out
  17. [root@node8 ~]# jps
  18. 2229 Jps
  19. 2025 QuorumPeerMain
  20. 2153 JournalNode

  2.格式化NameNode主节点

  1. [root@node1 ~]# hadoop namenode -format

  3.启动NameNode主节点

  1. [root@node1 ~]# hadoop-daemon.sh start namenode
  2. starting namenode, logging to /usr/hadoop-2.9.2/logs/hadoop-root-namenode-node1.out
  3. [root@node1 ~]# jps
  4. 7302 Jps
  5. 7225 NameNode

  4.格式化NameNode从节点

  1. [root@node2 ~]# hadoop namenode -bootstrapStandby

  5.NameNode主节点向zookeeper提交初始化节点信息

  1. [root@node1 ~]# hdfs zkfc -formatZK

  5.1可以在zookeeper节点上使用zkCli.sh命令查看hdfs信息

  1. [root@node6 ~]# /usr/zookeeper-3.4.6/bin/zkCli.sh
  2. Connecting to localhost:2181
  3. ......
  4. ......
  5. [zk: localhost:2181(CONNECTED) 0] ls /
  6. [zookeeper] #namenode还没提交信息的时候
  7. [zk: localhost:2181(CONNECTED) 1] ls /
  8. [zookeeper, hadoop-ha] #执行了上面那个提交命令
  9. [zk: localhost:2181(CONNECTED) 2] ls /hadoop-ha/hadoop
  10. []

  6.启动HDFS集群

  1. [root@node1 ~]# start-dfs.sh
  2. Starting namenodes on [node1 node2]
  3. node2: starting namenode, logging to /usr/hadoop-2.9.2/logs/hadoop-root-namenode-node2.out
  4. node1: namenode running as process 7225. Stop it first.
  5. node8: starting datanode, logging to /usr/hadoop-2.9.2/logs/hadoop-root-datanode-node8.out
  6. node6: starting datanode, logging to /usr/hadoop-2.9.2/logs/hadoop-root-datanode-node6.out
  7. node7: starting datanode, logging to /usr/hadoop-2.9.2/logs/hadoop-root-datanode-node7.out
  8. Starting journal nodes [node6 node7 node8]
  9. node6: journalnode running as process 2904. Stop it first.
  10. node7: journalnode running as process 2220. Stop it first.
  11. node8: journalnode running as process 2153. Stop it first.
  12. Starting ZK Failover Controllers on NN hosts [node1 node2]
  13. node2: starting zkfc, logging to /usr/hadoop-2.9.2/logs/hadoop-root-zkfc-node2.out
  14. node1: starting zkfc, logging to /usr/hadoop-2.9.2/logs/hadoop-root-zkfc-node1.out
  15.  
  16. [root@node1 ~]# jps
  17. 7857 DFSZKFailoverController
  18. 7924 Jps
  19. 7225 NameNode
  20.  
  21. [root@node2 ~]# jps
  22. 2788 Jps
  23. 2633 NameNode
  24. 2732 DFSZKFailoverController
  25.  
  26. [root@node6 ~]# jps
  27. 3235 Jps
  28. 3125 DataNode
  29. 2904 JournalNode
  30. 2779 QuorumPeerMain
  31.  
  32. [root@node7 ~]# jps
  33. 2119 QuorumPeerMain
  34. 2220 JournalNode
  35. 2572 Jps
  36. 2462 DataNode
  37.  
  38. [root@node8 ~]# jps
  39. 2483 Jps
  40. 2373 DataNode
  41. 2025 QuorumPeerMain
  42. 2153 JournalNode

  7.此时zookeeper上就会有namenode的信息了,只存储主节点信息

以上HDFS高可用集群初始化完成,下面启动yarn集群

  1.在namenode主节点上开启yarn集群,start-yarn.sh命令仅可以启动nodemanager,resourcemanager需要在对应节点上手动启动

  1. [root@node1 ~]# start-yarn.sh
  2. starting yarn daemons
  3. starting resourcemanager, logging to /usr/hadoop-2.9.2/logs/yarn-root-resourcemanager-node1.out
  4. node7: starting nodemanager, logging to /usr/hadoop-2.9.2/logs/yarn-root-nodemanager-node7.out
  5. node8: starting nodemanager, logging to /usr/hadoop-2.9.2/logs/yarn-root-nodemanager-node8.out
  6. node6: starting nodemanager, logging to /usr/hadoop-2.9.2/logs/yarn-root-nodemanager-node6.out
  7.  
  8. [root@node6 ~]# jps
  9. 3125 DataNode
  10. 3397 NodeManager
  11. 3509 Jps
  12. 2904 JournalNode
  13. 2779 QuorumPeerMain
  14.  
  15. [root@node7 ~]# jps
  16. 2736 NodeManager
  17. 2848 Jps
  18. 2119 QuorumPeerMain
  19. 2220 JournalNode
  20. 2462 DataNode
  21.  
  22. [root@node8 ~]# jps
  23. 2373 DataNode
  24. 2646 NodeManager
  25. 2758 Jps
  26. 2025 QuorumPeerMain
  27. 2153 JournalNode

  2.在resourcemanager节点手动启动rm

  1. [root@node4 ~]# yarn-daemon.sh start resourcemanager
  2. starting resourcemanager, logging to /usr/hadoop-2.9.2/logs/yarn-root-resourcemanager-node4.out
  3. [root@node4 ~]# jps
  4. 2840 ResourceManager
  5. 3103 Jps
  6.  
  7. [root@node5 ~]# yarn-daemon.sh start resourcemanager
  8. starting resourcemanager, logging to /usr/hadoop-2.9.2/logs/yarn-root-resourcemanager-node5.out
  9. [root@node5 ~]# jps
  10. 2994 Jps
  11. 2955 ResourceManager

以后在启动集群只需要
在namenode节点
  1. start-dfs.sh
  2. start-yarn.sh

在resourcemanager节点

  1. yarn-daemon.sh start resourcemanager

  

  

Hadoop完全高可用集群安装的更多相关文章

  1. Hadoop HA高可用集群搭建(Hadoop+Zookeeper+HBase)

    声明:作者原创,转载注明出处. 作者:帅气陈吃苹果 一.服务器环境 主机名 IP 用户名 密码 安装目录 master188 192.168.29.188 hadoop hadoop /home/ha ...

  2. ActiveMQ 高可用集群安装、配置(ZooKeeper + LevelDB)

    ActiveMQ 高可用集群安装.配置(ZooKeeper + LevelDB) 1.ActiveMQ 集群部署规划: 环境: JDK7 版本:ActiveMQ 5.11.1 ZooKeeper 集群 ...

  3. Neo4j 高可用集群安装

    安装neo4j高可用集群,抓图安装过程 http://www.ibm.com/developerworks/cn/java/j-lo-neo4j/ Step1.下载neo4j商业版并解压,复制为neo ...

  4. Redis Cluster 4.0高可用集群安装、在线迁移操作记录

    之前介绍了redis cluster的结构及高可用集群部署过程,今天这里简单说下redis集群的迁移.由于之前的redis cluster集群环境部署的服务器性能有限,需要迁移到高配置的服务器上.考虑 ...

  5. Zookeeper(四)Hadoop HA高可用集群搭建

    一.高可就集群搭建 1.集群规划 2.集群服务器准备 (1) 修改主机名(2) 修改 IP 地址(3) 添加主机名和 IP 映射(4) 同步服务器时间(5) 关闭防火墙(6) 配置免密登录(7) 安装 ...

  6. Hadoop HA 高可用集群搭建

    一.首先配置集群信息 vi /etc/hosts 二.安装zookeeper 1.解压至/usr/hadoop/下 .tar.gz -C /usr/hadoop/ 2.进入/usr/hadoop/zo ...

  7. Hadoop HA 高可用集群的搭建

    hadoop部署服务器 系统 主机名 IP centos6.9 hadoop01 192.168.72.21 centos6.9 hadoop02 192.168.72.22 centos6.9 ha ...

  8. Hadoop HA高可用集群搭建(2.7.2)

    1.集群规划: 主机名        IP                安装的软件                            执行的进程 drguo1  192.168.80.149 j ...

  9. 基于zookeeper(集群)+LevelDB的ActiveMq高可用集群安装、配置、测试

    一. zookeeper安装(集群):http://www.cnblogs.com/wangfajun/p/8692117.html  √ 二. ActiveMq配置: 1. ActiveMq集群部署 ...

随机推荐

  1. C语言中的变量和常量的区别和使用

    变量 定义一个变量:类型 变量名=值; int a =0; // 变量,可以在赋值 常量 定义一个常量 const 常量类型 常量名称 = 值 const int LENTHER = 521 // 定 ...

  2. Outlook 2013 您的组织策略阻止我们为您完成此操作... 解决方法

    问题:点击outlook超链接,弹出“您的组织策略阻止我们为您完成此操作”的提示,无法打开链接. 环境 OS: Win10 专业版x64bit Outlook: 2013 浏览器:搜狗浏览器 解决办法 ...

  3. redis之Set(无序)类型常用方法总结

    redis之Set(无序)类型常用方法总结 存--sadd key member [member ...] 取--SMEMBERS key sadd key member [member ...] 向 ...

  4. 吴裕雄--天生自然MySQL学习笔记:MySQL 安装

    所有平台的 MySQL 下载地址为: MySQL 下载:https://dev.mysql.com/downloads/mysql/ 注意:安装过程我们需要通过开启管理员权限来安装,否则会由于权限不足 ...

  5. Mp3下载

  6. 1552146271@qq.com

    北京时间9月27日早间消息,美国外卖服务DoorDash周四宣布,一项安全漏洞暴露了该公司大约490万客户.商家和送货员的个人数据. 这家总部位于旧金山的公司在一份声明中说,此次泄露的信息可能包括大约 ...

  7. 洛谷 P1886 滑动窗口 /【模板】单调队列

    纯板子题,入队时保证单调性,即单调栈,出队保证题目条件,本题即窗口长度k,在入队出队时都可以维护信息 ; int buf[maxm], maxq[maxm], minq[maxm], ans1[max ...

  8. 如何书写高效的MySQL查询?

    How to write efficient MySQL query statements WHERE子句中的书写注意事项 模糊查询(like)时需要注意的事项 索引 字段类型 表连接时的注意事项 其 ...

  9. 嵊州普及Day3T4

      利内罗女士准备来到意大利进行修行.意大利由 n 个城市和 m 条道路构成,道路是双向的.到达第 i 个城市时,她可以取得该城市的全部信仰,并获得 ai 点能力提升,但因为在一个城市可以取得的信仰有 ...

  10. Matplotlib 入门

    章节 Matplotlib 安装 Matplotlib 入门 Matplotlib 基本概念 Matplotlib 图形绘制 Matplotlib 多个图形 Matplotlib 其他类型图形 Mat ...