[Big Data]hadoop分布式系统在Linux系统安装
待完善
Hadoop2.6.0部署与应用
一、 环境准备
硬件:3台虚拟机
内存:至少512MB
硬盘:至少20G
操作系统:rhel6.4 64位 最小化安装
主机名 |
IP(局域网) |
描述 |
Master |
192.168.111.5 |
hdfs主节点,yarn主节点 |
slaves1 |
192.168.111.6 |
hdfs数据节点,yarn计算节点 |
slaves2 |
192.168.111.7 |
hdfs数据节点,yarn计算节点 |
(1) 安装openssh
在每台虚拟机上安装openssh,最小化虚拟机默认没有安装,自行配置yum安装openssh。3台虚拟机之间需要相互ssh登录
[root@master ~]#yum install openssh* -y
(2) 配置主机名和IP
修改主机名,编辑/etc/sysconfig/network文件
[root@master ~]#vi /etc/sysconfig/network
将主节点计算机名改为master
hostname=master
其他2台类推
hostname=slaves1
hostname=slaves2
然后修改3台虚拟机的IP为在同一个网段的静态IP
[root@master ~]#vi /etc/sysconfig/network-scripts/ifcfg-eth0
内容分别如下
IPADDR=192.168.111.5
IPADDR=192.168.111.6
IPADDR=192.168.111.7
配置hosts文件,方便访问,不用记IP
[root@master ~]# vi /etc/hosts
192.168.111.5 hadoop-master
192.168.111.6 hadoop-slaves1
192.168.111.7 Hadoop-slaves2
然后把/etc/hosts文件分发到其他2台虚拟机上
[root@master ~]# scp /etc/hosts slaves1:/etc/
[root@master ~]# scp /etc/hosts slaves2:/etc/
二、 安装JDK
可以到oracle官网下载jdk
http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
http://download.oracle.com/otn-pub/java/jdk/8u101-b13/jdk-8u101-linux-x64.tar.gz
在每台虚拟机上安装JDK,解压tar.gz包,,把解压的文件夹jdk1.8.0_31移到/usr/java下
[root@master ~]#tar zxvf jdk-8u31-linux-x64.gz
[root@master ~]#mkdir /usr/java
[root@master ~]#mv jdk1.8.0_31 /usr/java
配置环境变量
[root@master ~]#vi /etc/profile
将以下内容添加到/etc/profile的最后面
export JAVA_HOME=/usr/java/jdk1.8.0_31
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME PATH CLASSPATH
使环境变量生效并验证是否安装成功
[root@master ~]#source /etc/profile
[root@master ~]#java -versison
三、 建立ssh无密登录
3台虚拟机建立专属用户hadoop并为其建立相互信任关系,使其方便自动登录运行命令,密码统一使用hadoop
[root@master ~]#useradd hadoop
[root@master ~]#passwd hadoop
[root@master ~]#su - hadoop
[hadoop@master ~]$Ssh-keygen -t rsa
一直回车就可以生成公钥和私钥,把3台虚拟机的公钥id_rsa.pub文件合并到一个authorized_keys文件上,然后分发到3台虚拟机上,改authorized_keys文件为600权限,使其可以相互登录
在slaves1和slaves2上操作,slaves2对应换编号
[hadoop@slaves1 ~]$cd .ssh
[hadoop@slaves1 ~]$scp id_rsa.pub master:~/.ssh/id_rsa.pub1
在master上操作
[hadoop@master ~]cd .ssh
[hadoop@master ~]cat id_rsa.pub >> authorized_keys
[hadoop@master ~]cat id_rsa.pub1 >> authorized_keys
[hadoop@master ~]cat id_rsa.pub2 >> authorized_keys
[hadoop@master ~]cat authorized_keys #查看是否操作正确
[hadoop@master ~]scp authorized_keys hadoop-master:~/.ssh/
[hadoop@master ~]chmod 600 ~/.ssh/authorized_keys
四、 安装hadoop
在主节点上操作,解压hadoop-2.6.0.tar.gz到hadoop用户家目录,编辑hadoop的配置文件,用hadoop用户操作
Su hadoop
Tar zxvf hadoop-2.6.0.tar.gz
修改hadoop-env.sh和yarn-env.sh文件的JAVA_HOME来指定JDK的路径
vi hadoop-2.6.0/etc/hadoop/hadoop-env.sh
第25行 export JAVA_HOME=/usr/java/jdk1.8.0_31
vi hadoop-2.6.0/etc/hadoop/hadoop-env.sh
第23行 export JAVA_HOME=/usr/java/jdk1.8.0_31
编辑从节点列表文件slaves
vi slaves
指定两台从节点
Hadoop-slvaes1
hadoop-slaves2
编辑core-site.xml,指定主节点的地址和端口
Cd hadoop-2.6.0/etc/hadoop
vi core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> </configuration>
复制mapred-site.xml.template为mapred-site.xml,指定mapreduce工作方式
cd hadoop-2.6.0/etc/hadoop
vi mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
编辑yarn-site.xml,指定yran的主节点和端口
vi yarn-site.xml
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8035</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>master:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:8088</value> </property> </configuration>
将hadoop-2.6.0文件夹分发到其他2台虚拟机上
Scp -r hadoop-2.6.0 hadoop-slaves1:~
Scp -r hadoop-2.6.0 hadoop-slaves2:~
编辑环境变量
Vi .baserc
HADOOP_HOME=/home/hadoop/hadoop-2.6.0
PATH=$PATH:$HADOOP_HOME/bin
Export HADOOP_HOME PATH
格式化分布式文件系统
Hadoop namenode -fotmat
在主节点启动
hadoop-2.6.0/sbin/start-all.sh
打开浏览器http://192.168.111.5:8088
如果成功应该看到如下效果
打开浏览器http://192.168.111.5:50070
如果成功可以看到如下效果
五、 运行测试
[Big Data]hadoop分布式系统在Linux系统安装的更多相关文章
- hadoop伪分布式环境搭建之linux系统安装教程
本篇文章是接上一篇<超详细hadoop虚拟机安装教程(附图文步骤)>,上一篇有人问怎么没写hadoop安装.在文章开头就已经说明了,hadoop安装会在后面写到,因为整个系列的文章涉及到每 ...
- LNMP平台搭建---Linux系统安装篇
在互联网网站开发领域,有一个名词,大家一定不陌生,那就是LAMP,经典的Web服务器环境,由Linux+Apache+MySQL+PHP组成,,后来,一个名叫Nginx的Web服务器开源出来了,因其更 ...
- 从Linux系统安装到Web应用启动教程
概述 本文讲述web应用服务器安装配置教程,其中包括:Linux系统安装,Mysql数据库安装配置,Redis安装配置,Tomcat安装配置,MongoDB安装配置,Linux JDK安装使用,Ngi ...
- 阿里云服务器Linux系统安装配置ElasticSearch搜索引擎
近几篇ElasticSearch系列: 1.阿里云服务器Linux系统安装配置ElasticSearch搜索引擎 2.Linux系统中ElasticSearch搜索引擎安装配置Head插件 3.Ela ...
- linux系统安装(上)
1.VMware虚拟机的软件应用 www.vmware.com 2.linux系统安装设置(分区为重点) 3.远程登录管理工具介绍centOS5.5 使用虚拟机的优点 1.不用分区 2.可以完成本机与 ...
- 1.Linux系统安装
Linux系统安装系统分区(磁盘分区) 主要管理:文件和目录分类:主分区:最多有4个 扩展分区:1个扩展分区 和主分区最多4个 存放逻辑分区 逻辑分区:存放数据 格式化:高级格式化(逻辑格式化) 写入 ...
- Linux学习心得之 LVM管理与Linux系统安装
作者:枫雪庭 出处:http://www.cnblogs.com/FengXueTing-px/ 欢迎转载 LVM管理与Linux系统安装 1.前言 2.LVM 简介与术语 3.LVM 使用 4.Li ...
- Linux系统安装时分区的选择(推荐)
Linux系统安装时分区的选择(推荐) 出处:http://www.cnblogs.com/gylei/archive/2011/12/04/2275987.html 前言: 以前初识Linux时, ...
- Vmware安装与VMware下Linux系统安装
源文件地址:http://www.cnblogs.com/lclq/p/5619271.html 1.下载安装VMware,我安装的是VMware 12.VMware从11开始不再支持32位系统,32 ...
随机推荐
- Let'sencrypt认证的网站Https配置
推荐使用这个脚本,具体说明里面都有 https://github.com/xdtianyu/scripts/tree/master/le-dns 它是通过调用dns服务商的api更新txt记录实现,无 ...
- Hibernate写入Oracle Date类型处理
Hibernate写入Oracle数据库时,数据库设计字段为Date类型时,只能保存年月日,不能保存时分秒,如果要保存时分秒,需修改Hibernate.cfg.xml文件 <property n ...
- innerHTML,innerText,outerHTML,outerText,value浅析
首先是一个例子: <div id= "aa">0<br/>0<span>11</span>22</div><inp ...
- 转 Windows 7设置定时自动执行任务方法
在使用电脑的时候可能会遇到一些需要无人值守让电脑自行执行任务后定时关机的情形,在Win7系统中,我们可以使用"任务计划"设置功能结合 shutdown命令灵活设置任务计划,让Win ...
- struts2修改文件上传的大小
那天写了一个web上传图片的程序,明明修改了上传文件的默认值(2M),可就是一直没有起作用 <action name="fileupload" class="upl ...
- awk 用法小结
简介 awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大.简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再 ...
- ignite客户端找不到服务端的时候如何设置退出
ignite启动客户端时需要有服务端支持: Ignition.setClientMode(true); Ignition.start("ignite.xml"); 这里有个问题,当 ...
- cannot create windows service for mysql
这安装完mysql启动的时候总是弹出不能启动错误,解决办法: 先卸载掉MySQL干净:把关于MySQL所有目录及文件都删除掉,还有把注册表删除干净.在注册表找到以下项目并删除:HKEY_LOCAL_M ...
- NSArray或NSDictionary中汉字输出
1.问题: NSArray *array = [NSArray arrayWithObjects:@"我",@"在",@"鼓楼", nil] ...
- 转:浏览器与WEB服务器工作过程举例
用户通过“浏览器”访问因特网上的WEB服务器,浏览器和服务器之间的信息交换使用超文本传输协议(HTTP--HyperText Transfer Protocol). 例:用户访问东南大学主页 Http ...