hadoop-2.6.0集群开发环境配置
hadoop-2.6.0集群开发环境配置
一.环境说明
1.1安装环境说明
本例中,操作系统为CentOS 6.6, JDK版本号为JDK 1.7,Hadoop版本号为Apache Hadoop 2.6.0
现有四台机器例如以下
10.25.100.130 node01 //namenode
10.25.100.131 node02 //datanode
10.25.100.132 node03 //datanode
10.25.100.133 node04 //datanode
二.安装jdk,此处使用jdk1.7。
1.换文件夹到/usr 文件夹下。 cd /usr
2.创建java 文件夹 , mkdir java
3.将jkd拷贝到/usr/java文件夹 cp jdk-7u75-linux-x64.tar.gz /usr/java
4.解压jdk, tar zxvf jdk-7u75-linux-x64.tar.gz
5.配置环境变量 vi /etc/profile
添加记录 :
export JAVA_HOME=/usr/java/jdk1.7.0_75
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$PATH:$JAVA_HOME/bin
6.使环境变量生效 source /etc/profile
7.验证是否生效 java -version
[root@localhost java]# java -version
java version "1.7.0_75"
Java(TM) SE Runtime Environment (build 1.7.0_75-b13)
Java HotSpot(TM) 64-Bit Server VM (build 24.75-b04, mixed mode)
[root@localhost ~]#
三. 改动主机名称
1.
[root@localhost ~]# vi /etc/hosts 改动并添加后为
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
127.0.0.1 localhost
10.25.100.130 node01
10.25.100.131 node02
10.25.100.132 node03
10.25.100.133 node04
2.
[root@localhost ~]# vi /etc/sysconfig/network 将/etc/syscinfig/network 下的HOSTNAME改为node01
NETWORKING=yes
HOSTNAME=node01
3.再使用hostname命令指定一次
[root@localhost ~]# hostname node01
仅仅要又一次登入(重新启动)。命令提示字串就会改成[root@node01 ~]#
同理(1,2,3步骤)改动其他几台机器
四. 制作ssh无password登录
1.先分别制作每台主机的无password登录
[root@node01 ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
[root@node01 ~]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
[root@node01 ~]# ssh node01
Last login: Wed Jul 29 18:52:44 2015 from localhost
[root@node01 ~]#
同理制作其他几台机器
2.在/root下 生成一个.ssh目录
[root@node01 ~]# cd .ssh/
[root@node01 .ssh]# ls
authorized_keys id_dsa id_dsa.pub known_hosts
[root@node01 .ssh]#
3.然后将authorized_keys文件复制到其他几台机器的/root下
[root@node01 .ssh]# scp authorized_keys root@node02:~/
[root@node01 .ssh]# scp authorized_keys root@node03:~/
[root@node01 .ssh]# scp authorized_keys root@node04:~/
4.分别进入其他几台机器将拷贝过来的文件进行重定向
[root@node02 ~]# cat authorized_keys >> ~/.ssh/authorized_keys
[root@node03 ~]# cat authorized_keys >> ~/.ssh/authorized_keys
[root@node04 ~]# cat authorized_keys >> ~/.ssh/authorized_keys
5.此时,就完毕了ssh无password登录,是不是非常easy呢。我们能够做一个測试
在node01主机下登录node04
[root@node01 .ssh]# ssh node04
Last login: Wed Jul 29 18:48:13 2015 from 10.25.100.100
[root@node04 ~]#
6.假设退出连接输入exit
[root@node04 ~]# exit
logout
Connection to node04 closed.b
[root@node01 .ssh]#
五.hadoop安装 此操作在node01机上进行,用root用户
如今就開始了我们的hadoop搭建
1, 首先在/home下建立一个hadoop目录
将hadoop安装包hadoop-2.6.0.tar.gz复制到/home/hadoop下进行解压 tar zxvf hadoop-2.6.0.tar.gz
1. 改动配置文件 [root@node01 home]# cd hadoop/
[root@node01 hadoop]# cd hadoop-2.6.0/etc/hadoop/
3.改动配置文件 core-site.xml
[root@node01 hadoop]# vi core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node01:9000</value> //node01是主server机名
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-2.6</value> /*防止后面须要每一次又一次格式化。这个文件夹不须要手动建立,执行时会自己主动建立*/
</property>
</configuration>
4.改动hdfs-site.xml
[root@node01 hadoop]# vi hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value> //datanode的节点个数,默认的为3个
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node01:50090</value>
</property>
</configuration>
.配置执行环境 vi hadoop-env.sh
[root@node01 hadoop]# vi hadoop-env.sh在最后加入以下一句话
export JAVA_HOME=/usr/java/jdk1.7.0_55
.配置slaves
[root@node01 hadoop]# vi slaves
改动文件中的内容为 datanode的节点
node02
node03
node04
7.拷贝安装,配置的hadoop到其他几台机器
进入/home文件夹下将文件夹/hadoop复制到其他几台机器的/home下
[root@node01 hadoop]# cd /home/
[root@node01 home]# scp -r hadoop root@node02:/home/
[root@node01 home]# scp -r hadoop root@node03:/home/
[root@node01 home]# scp -r hadoop root@node04:/home/
将三台机器的防火墙关闭掉:
service iptables stop
8.如今,你能够检查ssh到localhost没有password,这一步假设不运行,可能后面的结果Live Nodes会为0
[root@node01 home]# ssh loaclhost
9. 格式化文件系统
cd /home/hadoop/hadoop-2.6.0/
[root@node01 home]# cd hadoop/hadoop-2.6.0/
[root@node01 hadoop-2.6.0]# bin/hdfs namenode –format
10. 启动hadoop
[root@node01 hadoop-2.6.0]# sbin/start-dfs.sh
查看hadoop进程,验证是否启动成功
[root@node01 hadoop-2.6.0]# jps
3628 SecondaryNameNode
3435 NameNode
7108 Jps
说明已经启动,同理查看其它几台机器
11.查看集群执行情况,在windows下的浏览器上输入
12.关闭hadoop
[root@node01 hadoop-2.6.0]# sbin/stop-dfs.sh
查看hadoop进程,验证是否关闭成功
[root@node01 hadoop-2.6.0]# jps
7108 Jps
说明已经关闭。同理查看其它几台机器
至此一个简单的hadoop集群搭建hdfs就算完毕了。兴许学习还须要大家继续努力探索。在这就不再赘述。能够參考hadoop官方站点。http://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-common/SingleCluster.html,Apache Hadoop 2.6.0安装学习文档教程,祝大家好运!
hadoop-2.6.0集群开发环境配置的更多相关文章
- hadoop 2.2.0集群安装详细步骤(简单配置,无HA)
安装环境操作系统:CentOS 6.5 i586(32位)java环境:JDK 1.7.0.51hadoop版本:社区版本2.2.0,hadoop-2.2.0.tar.gz 安装准备设置集群的host ...
- Ubuntu 12.04下Hadoop 2.2.0 集群搭建(原创)
现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机 ...
- vagrant+docker搭建consul集群开发环境
HashiCorp 公司推出的Consul是一款分布式高可用服务治理与服务配置的工具.关于其配置与使用可以参考这篇文章 consul 简介与配置说明. 一般,我们会在多台主机上安装并启动 consul ...
- 如何基于Jupyter notebook搭建Spark集群开发环境
摘要:本文介绍如何基于Jupyter notebook搭建Spark集群开发环境. 本文分享自华为云社区<基于Jupyter Notebook 搭建Spark集群开发环境>,作者:apr鹏 ...
- hadoop 2.2.0 集群部署 坑
注意fs.defaultFS为2..0新的变量,代替旧的:fs.default.name hadoop 2.2.0 集群启动命令:bin/hdfs namenode -formatsbin/start ...
- odoo8.0+PyCharm4.5开发环境配置
终于把odoo的开发环境配置好,现把相关经验教训做个记录分享: odoo8.0+PyCharm4.5开发环境配置(剑飞花 373500710) 1.最佳兼容搭配包 试过各种组合 GreenOdoo+p ...
- hadoop 2.2.0集群安装
相关阅读: hbase 0.98.1集群安装 本文将基于hadoop 2.2.0解说其在linux集群上的安装方法,并对一些重要的设置项进行解释,本文原文链接:http://blog.csdn.net ...
- ubuntu14.04搭建Hadoop2.9.0集群(分布式)环境
本文进行操作的虚拟机是在伪分布式配置的基础上进行的,具体配置本文不再赘述,请参考本人博文:ubuntu14.04搭建Hadoop2.9.0伪分布式环境 本文主要参考 给力星的博文——Hadoop集群安 ...
- hadoop2.2.0集群安装和配置
hadoop2.0已经发布了稳定版本了,增加了很多特性,比如HDFS HA.YARN等. 注意:apache提供的hadoop-2.2.0的安装包是在32位操作系统编译的,因为hadoop依赖一些C+ ...
随机推荐
- WingIDE4.1 破解及支持中文设置
1.下面提供最新版本的破解方法. 先到http://wingware.com/downloads/wingide下载最新版本的IDE. 安装之前,先修改时间到一个月前. 安装 安装之后然后获取试用版的 ...
- [Apple开发者帐户帮助]五、管理标识符(1)注册应用程序ID
一个应用程序ID标识的配置设定档中的应用程序.它是一个由两部分组成的字符串,用于标识来自单个开发团队的一个或多个应用程序.有两种类型的应用程序ID:用于单个应用程序的显式应用程序ID,以及用于一组应用 ...
- LocalDateTime相关处理,得到零点以及24点值,最近五分钟点位,与Date互转,时间格式
最近一直使用LocalDateTime,老是忘记怎么转换,仅此记录一下 import java.time.Instant; import java.time.LocalDateTime; import ...
- ROS-URDF-Xacro
前言:Xacro是一种宏语言,允许代码复用,使用Xacro可以减少URDF文件中的代码量. 参考自:http://wiki.ros.org/urdf/Tutorials/Using%20Xacro%2 ...
- BZOJ 4514 费用流
思路: 懒得写了 http://blog.csdn.net/werkeytom_ftd/article/details/51277482 //By SiriusRen #include <que ...
- C - Football
Problem description Petya loves football very much. One day, as he was watching a football match, he ...
- JAVA面试题基础部分(二)
10.使用 final 关键字修饰一个变量时,是引用不能变,还是引用的对象不能变?使用 final 关键字修饰一个变量时,是指引用变量不能变,引用变量所指向的对象中的内容还是可以改变的.例如,对于如下 ...
- SQL Server存储过程作业(一)
创建客房类型表RoomType 创建客房状态表RoomState 创建客房信息表Room 创建结账状态表ResideState 创建客人信息表GuestRecord 编写sql语句 USE maste ...
- 使用NDK编译VTK
VTK提供了对安卓的CMAKE编译支持,其介绍文件在源代码根目录下的 "/cmake/android.toolchain.cmake". 对Wndows的编译自持描述为: 注意:但 ...
- (转)基于MVC4+EasyUI的Web开发框架经验总结(11)--使用Bundles处理简化页面代码
http://www.cnblogs.com/wuhuacong/p/4073203.html 在Web开发的时候,我们很多时候,需要引用很多CSS文件.JS文件,随着使用更多的插件或者独立样式文件, ...