分布式搭建
在ubuntu下创建hadoop用户组和用户
bigdata@master:~$sudo addgroup hadoop
bigdata@master:~$sudo adduser --ingroup hadoop hadoop
给hadoop用户添加权限
bigdata@master:~$sudo gedit /etc/sudoers
在root ALL=(ALL) ALL下面添加
hadoop ALL=(root) NOPASSWD:ALL
配置ssh,配置ssh注意是在hadoop用户下进行的
hadoop@master:~$su -hadoop
hadoop@master:~$sudp apt-get update
hadoop@master:~$sudo apt-get install openssh-server
修改hostname,设置hostname=master
hadoop@master:~$sudo vi /etc/hostname
修改自己节点的ip映射(一定要记得注释掉上方的127.0.1.1,不然会影响到后面的namenode和datanode的访问)
hadoop@master:~$sudo vi /etc/hosts
192.168.100.10 master
192.168.100.20 salves1
192.168.100.30 salves2
重启网络,互ping
ssh无密码配置
生成公钥
hadoop@master:~$ssh-keygen -t rsa -P ""
master上面首先配置本地的免密访问
hadoop@master:~$cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
将master的公钥发到每个节点虚拟机上
hadoop@master:~$scp ~/.ssh/id_rsa. pub hdoop@salves1:/home/hadoop/.ssh
hadoop@master:~$scp ~/.ssh/id_rsa. pub hdoop@salves2:/home/hadoop/.ssh
每个节点虚拟机再将其公钥加入授权a
hdoop@salves1:cat /home/hadoop/.ssh/id_rsa.pub >> /home/hadoop/.ssh/authorized_keys
hdoop@salves2:cat /home/hadoop/.ssh/id_rsa.pub >> /home/hadoop/.ssh/authorized_keys
验证master能够无密码访问slave(如能正常进入slave,则配置成功,否则配置失败)
hadoop@master:~$ssh slave1
hadoop@master:~$ssh slave2
安装jdk
hadoop@master:~$vi /etc/profile
export JAVA_HOME=/opt/modules/jdk1.7.0_79
export HADOOP_HOME=/opt/modules/hadoop-2.6.0
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
更新配置文件,使其生效
hadoop@master:~$source /etc/proflie
修改配置文件core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/data/tmp</value>
</property>
创建存储HDFS的临时目录
hadoop@master:~$sudo mkdir -p /opt/data/tmp--在slave上面也要创建这个目录
修改临时目录的所有者
hadoop@master:~$sudo chown -R hadoop:hadoop /opt/data/tmp
修改hdfs-site.xml文件
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
修改mapred-site.xml文件
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
配置yarn-site.xml文件
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
编辑slaves文件
hadoop@master:~$vi /opt/modules/hadoop/etc/hadoop/slaves
添加:slave1 slave2
将master上的jdk,hadoop的安装目录发送到slave上
hadoop@master:~$scp -r /opt/modules/hadoop hadoop@slave1:/opt/modules/
hadoop@master:~$scp -r /opt/modules/hadoop hadoop@slave2:/opt/modules/
hadoop@master:~$scp -r /opt/modules/jdk1.7.0_79 hadoop@slave2:/opt/modules/
hadoop@master:~$scp -r /opt/modules/jdk1.7.0_79 hadoop@slave1:/opt/modules/
补充相关可能会出现的问题
离开安全模式
hadoop@master:~$hadoop dfsadmin -safemode leave
如果上传文件到HDFS一直失败的话一般都是防护墙的问题
hadoop@master:~$sudo ufw disable
hadoop@master:~$stop-all.sh
hadoop@master:~$start-all.sh
在slave上只需要配置/etc/profile文件的java,hadoop路径即可,配置方式和master的配置方式一样,见上。
至此就全部配置完成,接下来就是激动人心的时刻了
格式化namenode
hadoop@master:~$hadoop namenode -foramt
启动
hadoop@master:~$start-all.sh
补充:
单独启动各个节点
hadoop$:hadoop-daemon.sh start namenode
hadoop$:hadoop-daemon.sh start datenode
hadoop$:hadoop-daemon.sh start secondarynamenode
hadoop$:hadoop-daemon.sh start jobtracker
hadoop$:hadoop-daemon.sh start tasktracker
启动HDFS和mapredduce
hadoop$:start-dfs.sh start-mapreduced.sh
- hadoop集群的搭建与配置(2)
对解压过后的文件进行从命名 把"/usr/hadoop"读权限分配给hadoop用户(非常重要) 配置完之后我们要创建一个tmp文件供以后的使用 然后对我们的hadoop进行配置文 ...
- 关于hadoop集群管理系统搭建的规划说明
Hadoop集群管理系统搭建是每个入门级新手都非常头疼的事情,因为你可能花费了很久的时间在搭建运行环境,最终却不知道什么原因无法创建成功.但对新手来说,运行环境搭建不成功的概率还蛮高的. 在之前的分享 ...
- Hadoop集群环境搭建步骤说明
Hadoop集群环境搭建是很多学习hadoop学习者或者是使用者都必然要面对的一个问题,网上关于hadoop集群环境搭建的博文教程也蛮多的.对于玩hadoop的高手来说肯定没有什么问题,甚至可以说事“ ...
- Hadoop集群上搭建Ranger
There are two types of people in the world. I hate both of them. Hadoop集群上搭建Ranger 在搭建Ranger工程之前,需要完 ...
- Hadoop集群初步搭建:
自己整理了一下Hadoop集群简易搭建的过程,感谢尚观科技贾老师的授课和指导! 基本环境要求:能联网电脑一台:装有Centos系统的VMware虚拟机:Xmanager Enterprise 5软件. ...
- hadoop集群环境搭建之zookeeper集群的安装部署
关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...
- hadoop集群环境搭建之安装配置hadoop集群
在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/ (如果没有这个目录 ...
- hadoop集群环境搭建准备工作
一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...
- hadoop集群的搭建
hadoop集群的搭建 1.ubuntu 14.04更换成阿里云源 刚刚开始我选择了nat模式,所有可以连通网络,但是不能ping通,我就是想安装一下mysql,因为安装手动安装mysql太麻烦了,然 ...
随机推荐
- js中的回调函数的理解
一,常见的但是不是特别注意的回调方法. 1.1,ajax $.ajax({ url:"test.json", type: "GET", data: {usern ...
- 【BZOJ1899】午餐(动态规划)
[BZOJ1899]午餐(动态规划) 题面 BZOJ 题解 我太弱了 这种\(dp\)完全做不动.. 首先,感性理解一些 如果所有人都要早点走, 那么,吃饭时间长的就先吃 吃饭时间短的就晚点吃 所以, ...
- CDQ分治嵌套模板:多维偏序问题
CDQ分治2 CDQ套CDQ:四维偏序问题 题目来源:COGS 2479 偏序 #define LEFT 0 #define RIGHT 1 struct Node{int a,b,c,d,bg;}; ...
- JAVA面试一
ORACLE分页 -- 要求根据年龄排序后的 第三 行到第6 行的数据 (?) 分页语句 select t.* from ( select t1. *, rownum num from ( selec ...
- Python字典的浅复制和深复制
copy:x(原字典),y字典, 替换y字典的某个键的值,x字典不受影响: 修改y字典的某个键的值,x字典也相应发生变化
- 使用JSONP实现跨域
什么是跨域? 简单的来说,出于安全方面的考虑,页面中的JavaScript无法访问其他服务器上的数据,即"同源策略".而跨域就是通过某些手段来绕过同源策略限制,实现不同服务器之间通 ...
- WPF研究之道——数据驱动UI
如果有人问你wpf和winform的区别,也许你会说,wpf的界面比较漂亮,wpf有诸多新的理念,的确如此.我今天想说的是wpf的数据驱动UI的理念. 传统的winform,想要更新界面内容,是不是必 ...
- 面向服务的体系架构 SOA(二) --- 服务的路由和负载均衡
2. 服务的路由和负载均衡 1.2.1 服务化的演变 SOA设计思想:分布式应用架构体系对于业务逻辑复用的需求十分强烈,上层业务都想借用已有的底层服务来快速搭建更多.更丰富的应用,降低新业务开展的人力 ...
- js备战春招の三
DOM (Document Object Model)(文档对象模型)是用于访问 HTML 元素的正式 W3C 标准. window.alert() 弹出警告框. document.write() 方 ...
- 审核Memcrashed Drdos攻击代码
0x00前言: 距离世界上最大的Drdos攻击已经过去了两个星期左右 昨天在交流的时候.群友在Github中找到了exploit. 0x01开始: #-- coding: utf8 -- #!/usr ...