hadoop2集群环境搭建
在查询了很多资料以后,发现国内外没有一篇关于hadoop2集群环境搭建的详细步骤的文章。
所以,我想把我知道的分享给大家,方便大家交流。
以下是本文的大纲:
1. 在windows7 下面安装虚拟机
2.在虚拟机上面安装linux操作系统
3.启动Linux操作系统
4.修改hostname
4.1.在node1上面修改hostname
4.2.在node2上面修改hostname
4.3.在node3上面修改hostname
4.4.在node4上面修改hostname
4.5.重启4台机器,hostname会永久生效
5.安装JDK
6.免密码登录
7.Linux域名解析配置
8.Windows域名解析配置
9.节点分布方案
10.zookeeper的解压缩和安装
11.Hadoop压缩包安装
11.1.修改hadoop-evn.sh
11.2.修改hdfs-site.xml
11.3.修改core-site.xml
11.4.配置datanode
12.在node2, node3, node4上安装hadoop
13.启动JournalNodes
14.在第一个namenode(node1)上面进行格式化操作并启动namenode
15.拷贝拷贝元数据文件到第二个namenode
16.格式化zookeeper
17.停止所有服务
18.配置mapreduce
19.启动所有服务
20.测试是否成功
21.上传文件测试
若有不正之处,还请多多谅解,并希望批评指正。
请尊重作者劳动成果,转发请标明blog地址
https://www.cnblogs.com/hongten/p/hongten_hadoop.html
正所谓磨刀不费砍材功,下面的工具大家可以先下载备用。
环境及工具:
Windows 7 (64位)下面的虚拟机(64位):VMware-workstation-full-14.0.0-6661328.exe
Linux操作系统:CentOS-6.5-x86_64-bin-DVD1.iso
Xshell:Xshell-6.0.0101p.exe
WinSCP:从windows上面上传文件到Linux
zookeeper:zookeeper-3.4.6.tar.gz
hadoop:hadoop-2.5.1_x64.tar.gz
链接:https://pan.baidu.com/s/1hvdbGUh488Gl1EF2v44BIw
提取码:ncdd
在做好准备工作后,我们就可以来手动搭建hadoop集群
1. 在windows7 下面安装虚拟机
安装说明已经激活码请点击上面虚拟机链接。
*注:上述链接提供的安装包仅支持Windows 7及以上操作系统的64位版,已经不支持32位版的操作系统!
激活码:FF31K-AHZD1-H8ETZ-8WWEZ-WUUVA
2.在虚拟机上面安装linux操作系统
这里我把RedHat,Ubuntu,CentOS都安装过了,最后感觉CentOS好用一点(个人觉得,哈哈哈)
CentOS-6.5-x86_64-bin-DVD1.iso
After the installation is complete, please run "yum update" in order to update your system.
安装好Linux后,需要运行 'yum update' 命令。这里是需要花一点时间的,(我花了大概十多分钟的样子来执行yum update)。
在虚拟机里面,我安装了4台相同配置的CentOS。
3.启动Linux操作系统
在虚拟机里面启动4台机器。然后都以root账号进行登录。
启动完以后,我们要记录各个node(节点)ip地址(下面是我机器上面的ip地址情况)
//四台Linux的ip地址
192.168.79.133 node1
192.168.79.134 node2
192.168.79.135 node3
192.168.79.136 node4
*注:在Linux里面查看ip的命令是ifconfig
//在node4上面的ip地址情况
[root@node4 ~]# ifconfig
eth0 Link encap:Ethernet HWaddr 00:0C:29:80:01:39
inet addr:192.168.79.136 Bcast:192.168.79.255 Mask:255.255.255.0
inet6 addr: fe80::20c:29ff:fe80:139/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:201532 errors:0 dropped:0 overruns:0 frame:0
TX packets:27023 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:275203684 (262.4 MiB) TX bytes:4283436 (4.0 MiB) lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:65536 Metric:1
RX packets:18 errors:0 dropped:0 overruns:0 frame:0
TX packets:18 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:1064 (1.0 KiB) TX bytes:1064 (1.0 KiB) You have new mail in /var/spool/mail/root
4.修改hostname
刚开始的时候,我们在4台机器上看到的都是如下的hostname
[root@localhost ~]
我们现在要把他们修改为
[root@node1 ~]
[root@node2 ~]
[root@node3 ~]
[root@node4 ~]
我们为什么要修改hostname呢?
因为我们要在下面的配置文件里面添加这些节点名称,如node1,node2,node3, node4.
那么我们应该怎样做呢?下面给出了方法。
4.1.在node1上面修改hostname
--http://www.cnblogs.com/kerrycode/p/3595724.html(深入理解Linux修改hostname)
--在node1上面运行
vi /etc/sysconfig/network
--设置hostname=node1
:qw --再运行
sysctl kernel.hostname=node1
4.2.在node2上面修改hostname
--http://www.cnblogs.com/kerrycode/p/3595724.html(深入理解Linux修改hostname)
--在node2上面运行
vi /etc/sysconfig/network
--设置hostname=node2
:qw --再运行
sysctl kernel.hostname=node2
4.3.在node3上面修改hostname
--http://www.cnblogs.com/kerrycode/p/3595724.html(深入理解Linux修改hostname)
--在node3上面运行
vi /etc/sysconfig/network
--设置hostname=node3
:qw --再运行
sysctl kernel.hostname=node3
4.4.在node4上面修改hostname
--http://www.cnblogs.com/kerrycode/p/3595724.html(深入理解Linux修改hostname)
--在node4上面运行
vi /etc/sysconfig/network
--设置hostname=node4
:qw --再运行
sysctl kernel.hostname=node4
4.5.重启4台机器,hostname会永久生效
*注:在Linux里面查看ip情况,看看是否有变化。如果有变化,则调整相应的ip所对应的节点。
--我虚拟机里面的ip情况
192.168.79.133 node1
192.168.79.134 node2
192.168.79.135 node3
192.168.79.136 node4
5.安装JDK
把我们下载好的jdk-7u67-linux-x64.rpm通过WinSCP上传到4台机器的根目录上。
--在node1, node2, node3, node4上面安装jdk
--install JDK -- http://blog.51cto.com/vvxyz/1642258(LInux安装jdk的三种方法)
--解压安装
rpm -ivh your-package.rpm --修改环境变量
vi /etc/profile JAVA_HOME=/usr/java/jdk1.7.0_67
JRE_HOME=/usr/java/jdk1.7.0_67/jre
CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export JAVA_HOME JRE_HOME CLASS_PATH PATH :wq --使配置有效
source /etc/profile
*注:在4个节点上都要安装JDK。
6.免密码登录
--免密码登录
--分别在node1, node2, node3, node4,上面运行
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys --在node1上面运行,拷贝node1的公钥到node2,node3,node4上面的根目录里面去
scp id_rsa.pub root@node2:~
scp id_rsa.pub root@node3:~
scp id_rsa.pub root@node4:~ --分别进入node2, node3, node4运行,把node1的公钥追加到~/.ssh/authorized_keys文件里面
cat ~/id_rsa.pub >> ~/.ssh/authorized_keys --测试
--在node1上面运行下面命令,应该都能够免密码登录,即成功。
ssh node1
ssh node2
ssh node3
ssh node4
*注:我在这里遇到很多坑,最后还是搞定了。
7.Linux域名解析配置
--修改域名解析conf hosts
--在node1上面运行下面命令
vi /etc/hosts --根据自己机器上面的ip进行配置
192.168.79.134 node1
192.168.79.135 node2
192.168.79.133 node3
192.168.79.136 node4 :wq --copy hosts file to node2, node3, node4
scp /etc/hosts root@node2:/etc/
scp /etc/hosts root@node3:/etc/
scp /etc/hosts root@node4:/etc/
8.Windows域名解析配置
--windows 域名解析
--打开C:/WINDOWS/system32/drivers/etc/hosts文件
--把下面的信息复制到文件最后尾 -- 根据自己机器ip进行配置
192.168.79.134 node1
192.168.79.135 node2
192.168.79.133 node3
192.168.79.136 node4
为什么要做这个呢?
因为下面我们会在浏览器里面输入http:node1:50070进行测试,就会用到这个配置了。
9.节点分布方案
*注:打钩的表示在该节点上有相对应的服务。
10.zookeeper的解压缩和安装
--解压zookeeper压缩包并安装
tar -zxvf zookeeper-3.4.6.tar.gz --创建zookeeper的软链
ln -sf /root/zookeeper-3.4.6 /home/zk --配置zookeeper
cd /home/zk/conf/ --把下面的zoo_sample.cfg文件重新命名
cp zoo_sample.cfg zoo.cfg --修改zoo.cfg配置文件
vi zoo.cfg --设置zookeeper的文件存放目录
--找到dataDir=/tmp/zookeeper,并设置为下面值
dataDir=/opt/zookeeper --设置zookeeper集群
server.1=node1:2888:3888
server.2=node2:2888:3888
server.3=node3:2888:3888 :wq --创建/opt/zookeeper目录
mkdir /opt/zookeeper --进入/opt/zookeeper目录
cd /opt/zookeeper --创建一个文件myid
vi myid --输入1
1
:wq
--以此类推,在node2,node3,值分别是2, 3 --拷贝zookeeper目录到node2, node3的/opt/目录下面
cd ..
scp -r zookeeper/ root@node2:/opt/
scp -r zookeeper/ root@node3:/opt/ --分别进入到node2, node3里面,修改/opt/zookeeper/myid,值分别是2, 3 --作为以上配置,把node1里面的zookeeper拷贝到node2, node3上面。
scp -r zookeeper-3.4.6 root@node2:~/
scp -r zookeeper-3.4.6 root@node3:~/ --分别进入到node2, node3里面,创建软链
ln -sf /root/zookeeper-3.4.6/ /home/zk --配置zookeeper环境变量
cd /home/zk/bin --修改/etc/profile文件,把zookeeper的bin目录路径添加进去
vi /etc/profile
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:/home/zk/bin --让配置文件生效
source /etc/profile --分别进入到node2, node3里面,修改/etc/profile文件,把zookeeper的bin目录路径添加进去 --作为环境变量配置,就可以启动zookeeper了。
--分别在node1, node2, node3上面启动zookeeper
zkServer.sh start --测试是否启动成功
jps
--观察是否有QuorumPeerMain进程
注:这里一定要让Zookeeper启动着。
11.Hadoop压缩包安装
--解压Hadoop压缩包安装
--在node1上面安装
tar -zxvf hadoop-2.5.1_x64.tar.gz --解压完,创建一个软链到home目录下面
ln -sf /root/hadoop-2.5.1 /home/hadoop-2.5 --进入hadoop中进行文件配置
cd /home/hadoop-2.5/etc/hadoop/
11.1.修改hadoop-evn.sh
--1.修改hadoop-evn.sh
--修改JAVA_HOME配置
vi hadoop-env.sh --The java implementation to use. 根据上面JDK的配置信息
export JAVA_HOME=/usr/java/jdk1.7.0_67 :wq
11.2.修改hdfs-site.xml
--2.修改hdfs-site.xml
vi hdfs-site.xml --2.1.配置dfs.nameservices - the logical name for this new nameservice
--服务名称
<property>
<name>dfs.nameservices</name>
<value>mycluster</value>
</property> --2.2.配置namenode节点名称。这里的名称是namenode的名称,不是主机名(hostname)。
<property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2</value>
</property> --2.3.配置RPC协议和端口
--有多少namenode,就需要配置多少次。
<property>
<name>dfs.namenode.rpc-address.mycluster.nn1</name>
<value>node1:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn2</name>
<value>node2:8020</value>
</property> --2.4.配置HTTP协议和主机
--这里也是针对上面的namenode
--有多少namenode,就需要配置多少次。
<property>
<name>dfs.namenode.http-address.mycluster.nn1</name>
<value>node1:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn2</name>
<value>node2:50070</value>
</property> --2.5.配置dfs.namenode.shared.edits.dir
--the URI which identifies the group of JNs(JournalNodes) where the NameNodes will write/read edits
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://node2:8485;node3:8485;node4:8485/mycluster</value>
</property> --2.6.配置客户端使用的一个类,固定配置
--作用:客户端使用该类去找到active namenode
<property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property> --2.7.配置sshfence
--这里配置的私钥路径,是根据上面免密登录设置的路径
--ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property> <property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property> --2.8.配置JournalNodes的工作目录
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/opt/jn/data</value>
</property> --------
--以上基本配置完成
--下面进行自动切换配置 --2.9.配置自动切换
--自动切换配置好了以后,可以允许手动切换
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property> :wq
下面是完整的配置信息(hdfs-site.xml配置)
<configuration>
<property>
<name>dfs.nameservices</name>
<value>mycluster</value>
</property> <property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2</value>
</property> <property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2</value>
</property> <property>
<name>dfs.namenode.rpc-address.mycluster.nn1</name>
<value>node1:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn2</name>
<value>node2:8020</value>
</property> <property>
<name>dfs.namenode.http-address.mycluster.nn1</name>
<value>node1:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn2</name>
<value>node2:50070</value>
</property> <property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://node2:8485;node3:8485;node4:8485/mycluster</value>
</property> <property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property> <property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property> <property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property> <property>
<name>dfs.journalnode.edits.dir</name>
<value>/opt/jn/data</value>
</property> <property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
</configuration>
11.3.修改core-site.xml
--修改core-site.xml
vi core-site.xml --3.1.配置namenode入口
<property>
<name>fs.defaultFS</name>
<value>hdfs://mycluster</value>
</property> --3.2.配置ZooKeeper集群
<property>
<name>ha.zookeeper.quorum</name>
<value>node1:2181,node2:2181,node3:2181</value>
</property> --3.3.修改hadoop的临时目录
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop2</value>
</property> :wq
下面是完整的配置信息(core-site.xml配置)
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://mycluster</value>
</property> <property>
<name>ha.zookeeper.quorum</name>
<value>node1:2181,node2:2181,node3:2181</value>
</property> <property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop2</value>
</property>
</configuration>
11.4.配置datanode
cd /home/hadoop-2.5/etc/hadoop/ vi slaves
--输入
node2
node3
node4 :wq
*注:以上为hadoop的配置
12.在node2, node3, node4上安装hadnoop
--拷贝hadoop到node2, node3, node4上去
scp hadoop-2.5.1_x64.tar.gz root@node2:~/
scp hadoop-2.5.1_x64.tar.gz root@node3:~/
scp hadoop-2.5.1_x64.tar.gz root@node4:~/ --然后分别进入到node2,node3, node4上面去解压缩文件,分别创建软链
cd ~
tar -zxvf hadoop-2.5.1_x64.tar.gz ln -sf /root/hadoop-2.5.1 /home/hadoop-2.5 --回到node1, 进入到/home/hadoop-2.5/etc/hadoop/目录
cd /home/hadoop-2.5/etc/hadoop/ --把所有配置文件拷贝到node2,node3, node4上面的/home/hadoop-2.5/etc/hadoop/目录下面
--这样做的目的是保证,所有机器上面的配置文件都一样
scp ./* root@node2:/home/hadoop-2.5/etc/hadoop/
scp ./* root@node3:/home/hadoop-2.5/etc/hadoop/
scp ./* root@node4:/home/hadoop-2.5/etc/hadoop/
13.启动JournalNodes
--做完这些后,就可以启动JournalNodes
--去到node2, node3, node4
cd /home/hadoop-2.5/sbin/ ./hadoop-daemon.sh start journalnode --检查是否启动成功:
jps
--检查是否有:JournalNode
14.在第一个namenode(node1)上面进行格式化操作并启动namenode
--在第一个namenode上面进行格式化操作
--进入node1
cd /home/hadoop-2.5/bin
--进入node1,node2,node3,node4关闭防火墙........这一步很关键......
service iptables stop
./hdfs namenode -format --格式化成功后,会在/opt/hadoop2/dfs/name/current/目录下面生成元数据文件
cd /opt/hadoop2/dfs/name/current --需要把元数据文件拷贝到第二个namenode上面去。
--在拷贝之前,需要启动刚刚格式化后的namenode(node1)
cd /home/hadoop-2.5/sbin/ ./hadoop-daemon.sh start namenode --查看是否启动成功
jps
--检查是否包含:NameNode
15.拷贝拷贝元数据文件到第二个namenode
--然后去到node2上去。要保证第一个(即格式化后的namenode(node1)要先启动--运行着的状态)
--执行拷贝元数据文件命令 cd /home/hadoop-2.5/bin/ ./hdfs namenode -bootstrapStandby --检查是否拷贝成功:
cd /opt/hadoop2/dfs/name/current/ --查看是否有元数据
ls
16.格式化zookeeper
--格式化zookeeper
cd /home/hadoop-2.5/bin/ ./hdfs zkfc -formatZK
注:这里只需要在node1上面进行操作。
17.停止所有服务
--如果都完成,在node1上面
cd /home/hadoop-2.5/sbin/ --停止所有服务
./stop-dfs.sh
18.配置mapreduce
--配置mapreduce
cd /home/hadoop-2.5/etc/hadoop/ --复制/创建mapred-site.xml
cp mapred-site.xml.template mapred-site.xml --修改mapred-site.xml
vi mapred-site.xml <configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration> :wq --修改yarn-site.xml
vi yarn-site.xml <configuration> <!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>node1</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration> :wq
注:在node1上面修改完后,分发两个xml文件到node2,node3,node4.
19.启动所有服务
--然后启动所有服务,在node1上面
cd /home/hadoop-2.5/sbin/
./start-all.sh
*注:下面是我机器上面的运行结果
[root@node1 sbin]# ./start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [node1 node2]
node1: starting namenode, logging to /root/hadoop-2.5.1/logs/hadoop-root-namenode-node1.out
node2: starting namenode, logging to /root/hadoop-2.5.1/logs/hadoop-root-namenode-node2.out
node3: starting datanode, logging to /root/hadoop-2.5.1/logs/hadoop-root-datanode-node3.out
node2: starting datanode, logging to /root/hadoop-2.5.1/logs/hadoop-root-datanode-node2.out
node4: starting datanode, logging to /root/hadoop-2.5.1/logs/hadoop-root-datanode-node4.out
Starting journal nodes [node2 node3 node4]
node2: starting journalnode, logging to /root/hadoop-2.5.1/logs/hadoop-root-journalnode-node2.out
node3: starting journalnode, logging to /root/hadoop-2.5.1/logs/hadoop-root-journalnode-node3.out
node4: starting journalnode, logging to /root/hadoop-2.5.1/logs/hadoop-root-journalnode-node4.out
Starting ZK Failover Controllers on NN hosts [node1 node2]
node2: starting zkfc, logging to /root/hadoop-2.5.1/logs/hadoop-root-zkfc-node2.out
node1: starting zkfc, logging to /root/hadoop-2.5.1/logs/hadoop-root-zkfc-node1.out
starting yarn daemons
starting resourcemanager, logging to /root/hadoop-2.5.1/logs/yarn-root-resourcemanager-node1.out
node3: starting nodemanager, logging to /root/hadoop-2.5.1/logs/yarn-root-nodemanager-node3.out
node4: starting nodemanager, logging to /root/hadoop-2.5.1/logs/yarn-root-nodemanager-node4.out
node2: starting nodemanager, logging to /root/hadoop-2.5.1/logs/yarn-root-nodemanager-node2.out
20.测试是否成功
--打开windows上面的浏览器
--输入:
http://node1:50070
--输入:
http://node2:50070 --可以看到hadoop启动成功
node运行结果(standby):
node2运行结果(active):
21.上传文件测试
--上传文件测试:
cd /home/hadoop-2.5/bin/ --创建上传文件目录
./hdfs dfs -mkdir -p /usr/file --这里上传的文件是jdk-7u67-linux-x64.rpm
./hdfs dfs -put /root/jdk-7u67-linux-x64.rpm /usr/file --在浏览器上面查看是否上传文件成功。
点击Name
到这里我们的hadoop集群环境成功搭建完成。
========================================================
More reading,and english is important.
I'm Hongten
大哥哥大姐姐,觉得有用打赏点哦!你的支持是我最大的动力。谢谢。
Hongten博客排名在100名以内。粉丝过千。
Hongten出品,必是精品。
E | hongtenzone@foxmail.com B | http://www.cnblogs.com/hongten
========================================================
hadoop2集群环境搭建的更多相关文章
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十)安装hadoop2.9.0搭建HA
如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(二)安装hadoop2.9.0
如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...
- Hadoop+Spark:集群环境搭建
环境准备: 在虚拟机下,大家三台Linux ubuntu 14.04 server x64 系统(下载地址:http://releases.ubuntu.com/14.04.2/ubuntu-14.0 ...
- Spark 1.6.1分布式集群环境搭建
一.软件准备 scala-2.11.8.tgz spark-1.6.1-bin-hadoop2.6.tgz 二.Scala 安装 1.master 机器 (1)下载 scala-2.11.8.tgz, ...
- hadoop集群环境搭建之安装配置hadoop集群
在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/ (如果没有这个目录 ...
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十三)kafka+spark streaming打包好的程序提交时提示虚拟内存不足(Container is running beyond virtual memory limits. Current usage: 119.5 MB of 1 GB physical memory used; 2.2 GB of 2.1 G)
异常问题:Container is running beyond virtual memory limits. Current usage: 119.5 MB of 1 GB physical mem ...
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(九)安装kafka_2.11-1.1.0
如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(八)安装zookeeper-3.4.12
如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(三)安装spark2.2.1
如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...
随机推荐
- 关于ddl(新增字段)对数据库锁表|读写操作的影响_资料
1.对一个表执行ddl(新增字段)会不会阻塞表,影响读写? 在一次项目升级之前需要执行一个新增字段的脚本(alter table...),表的数据量是260多万,执行时间是72秒,感觉略长,不知道会不 ...
- 【1】JDK8 HashMap扩容优化
JDK1.7 VS JDK1.8 比较 优化概述: resize 扩容优化 引入了红黑树,目的是避免单条链表过长而影响查询效率 解决了resize时多线程死循环问题,但仍是非线程安全的 这里主要讲讲扩 ...
- 深入学习javaScript闭包(闭包的原理,闭包的作用,闭包与内存管理)
前言 虽然JavaScript是一门完整的面向对象的编程语言,但这门语言同时也拥有许多函数式语言的特性. 函数式语言的鼻祖是LISP,JavaScript在设计之初参考了LISP两大方言之一的Sche ...
- SpringBoot系列: 单元测试2
之前发了SpringBoot 单元测试的博客, https://www.cnblogs.com/harrychinese/p/springboot_unittesting.html , 内容较少, 现 ...
- [物理学与PDEs]第3章习题3电磁场的矢势在 Lorentz 规范下满足的方程
设 $\phi$ 及 ${\bf A}$ 分别为电磁场的标势及矢势 (见第一章 $\S$ 6). 试证明: 若 $\phi$ 及 ${\bf A}$ 满足条件 $$\bex \phi+\cfrac{1 ...
- python 写代码笔记 2017.6.15
其实并不是越复杂的代码越好,简单高效才是好. 关键是思路和逻辑,还有多看别人写的代码. 学习到了:)
- 【JS】长轮询
循环请求服务器数据 function send () { xhr.open('GET', '/clock', true); xhr.onreadystatechange = function () { ...
- Invalid character found in the request target. The valid characters are defined in RFC 7230 and RFC
解决Invalid character found in the request target. The valid characters are defined in RFC 7230 and RF ...
- springMVC源码笔记
springMVC 设计总览 下图来源:https://www.cnblogs.com/fangjian0423/p/springMVC-directory-summary.html 下图来源:htt ...
- MySQL建表规范
一.基础规范 (1)必须使用InnoDB存储引擎 解读:支持事务.行级锁.并发性能更好.CPU及内存缓存页优化使得资源利用率更高 (2)必须使用UTF8字符集 解读:万国码,无需转码,无乱码风险,节省 ...