hadoop学习笔记411
安装hadoop
1. 免秘钥
使用hadoop用户
ssh-keygen -t rsa
cp id_rsa.pub authorized_keys
cat id_rsa.pub>>authorized_keys
使用ssh测试,如果失败:
情况1: authorized_keys 权限过高:
chmod 600 authorized_keys
情况2: sshd_config
2. 安装hadoop
tar -zxvf hadoop-1.2.1.tar.gz
配置hadoop
$HADOOP_HOME/conf
1. 修改core-site.xml
a.配置Namenode主机及端口号
b.配置制定临时文件夹路径,tmp文件夹要自行创建。
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs:192.168.242.132:9000</value>//这个就是namenode的地址和端口号
</property>
2. 修改hadoop-env.sh文件
修改JDK的路径
3. 修改hdfs-site.xml
节点机数量为2,value为2
<property>
<name>dfs.replication</name>//文件块被存储几份//在不同的机架存储,
<value>2</value>
</property>
<property>
<name>dfs.name.dir</name> //存储映射文件
<value>/opt/hadoop/name</value>
</property>
<name>dfs.data.dir</name>// 存储在哪个位置
<value>/opt/hadoop/data</value>
</property>
<name>dfs.tmp.dir</name>//临时文件,如果不指定,默认存在Linux默认的tmp文件目录下
<value>/opt/hadoop/tmp</value>
//------------------------------
</property>
<name>dfs.blocksize</name>
<value>64MB</value>
</property>
4. 修改mapred-site.xml
配置job tracter监听端口监听端口
<property>
<name>mapred.job.tracker</name>
<value>node01:9001</value>
</property>
//------------------------------------------------------或者本机
<property>
<name>mapred.job.tracker</name>
<value>192.168.242.132:9001</value>
</property>
5. 修改master 和 slaves
直接写本机的IP地址或者slaves IP地址(这个就是完全分布式)
修改master文件
添加namenode 主机名 尽量写IP地址
//--------------------------------755---------------------- 只能用hadoop账号--------------------
执行权限: -drwx-rw-r--
- -
755
124
3. 格式化
测试文件
虚拟机克隆不能够克隆IP地址的解决方法是 找到etc/udev/rules.d/70-persistent-net.rules找到eth1
然后再次修改sysconfig中的network-script的
00:0c;29:04:1f:ac
2c:4e:55
master 192.168.242.132
slave1 192.168.242.134
slave2 192.168.242.135
//-------------------------------------------------------------------------------------------------------------------------------------------------------------
完全分布式:
1. 机器间免秘钥
新增slave上生成秘钥文件
ssh-keygen -t rsa
scp master:/home/hadoop/.ssh/authorized_keys /home/hadoop/.ssh/
cat id_rsa.pub>>authorized_keys
scp /home/hadoop/.ssh/authorized_keys master:/home/hadoop/.ssh/
测试ssh 免秘钥登录
2. 修改master文件($hadoop/home/conf/master)
制定namenode ip地址
拷贝到所有的机器上
2. 修改slave文件($hadoop/home/conf/slave
制定所有的slave的 ip地址
拷贝到所有的机器上
3.
防火墙关闭 权限
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAqo52ERhoNZ1PP31YdjA9ixVQV46AOjD2HJVYnBphwHkmZjYt1amZeRz/jv+LyqdTyJ/qxbfKohg8XCxh8Iv3jAaok1Hm+Vpmv/G6xCmwgPWEuqSIM1/fK2npqMYhHANtUify3fvppMZkylHKDfb1WqOOqE4F8+kUIYb3ttv9keQCM8AfEYLw2L9dnlOTjtNjdVZUSkrl/Gb06ApabwJEzl8rV+RM73EmhADnJV2jYXhQ4uOIXs59A2Y2M1kPbtq8EtMydXAu0RMAS2ryRf89hz8fbyiLB1+Vmtu2TOJBJoFdJHRpeIU1VXiFO5sBTIk1Qtep3QBIaZ5go7V+nP7jcQ== hadoop@slave1
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAw4Yvjdu0kqddArSUZqiFvK6OXpYMfPG+Z0P4m7CvH8AM0XlB562TXj8cRO+IB73z8h0ZaDBtlvYDFCk7brccvns7I/vqbIGl3QTC9UnZ1vn+OvjViMB32pigISkvnA6CjDiWFj8kiclPIfNIoMAQXoi6tnK+WwK3VP2hFGSpFbua1H1opCplhYybzPVoLH6EhU9nhCicYhxC9fFDlJ/sYNJgFFTDzXLfw1SVFnE7NVCdoNCfYFe08YDeS/TSrCC0U6HtKw1hQx6ZgMgXfIv43REbq6IuhJSQE7kfDvExCTQ/vA5CnE/bibytQJuTrPNI69VeCPFlKJIGQhnvNJ+JkQ== hadoop@slave2
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAooZ9CSQTg22BH6JKsczVAVojXYp77LXzHiU998zqZoY3ztHXU0uOPFz5fvEI+08v4P4S6p/QUnPwRG2FSExZ3RseooM0q2ZQTcC7MxNQ8GcWF/pwrlvF32EhEMo47hfuGnFlqJ+UAloypZKOJS/6Qvq9zXs1HLcyFytS1zremM2qtyTIdxcTxBjYEFXPn2PwzTm60I/PV/QmXUBHZYYmo/UqYpjy8hNjzR4OzVkaG5OyucoWC6DSd2yPHKWKcfv/10M5RbcSkvjwHbJf1wThzBN8mGPKuWjb63yreFROfq6hQVnWV7Q/IjU/lDvO2p0VMHqhaIaH83814gDzlrflLw== hadoop@master
ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Incompatible namespaceIDs
in /opt/hadoop/hadoop-1.2.1/data: namenode namespaceID = 152321483; datanode namespaceID = 1180969193
x修改Version的namespaceID和 namenode namespaceID一致
vi /opt/hadoop/hadoop-1.2.1/data/current/VERSION
namespaceID = 152321483; datanode namespaceID = 1180969193
#Mon Apr 13 12:08:43 CST 2015
namespaceID=152321483
storageID=DS-340743364-127.0.0.1-50010-1428876505344
cTime=0
storageType=DATA_NODE
layoutVersion=-41
~
每次新加入一个datanode的时候,要把该机器上的data文件夹下的文件清空 rm -rf *
版权声明:本文为博主原创文章,未经博主允许不得转载。
hadoop学习笔记411的更多相关文章
- Hadoop学习笔记—22.Hadoop2.x环境搭建与配置
自从2015年花了2个多月时间把Hadoop1.x的学习教程学习了一遍,对Hadoop这个神奇的小象有了一个初步的了解,还对每次学习的内容进行了总结,也形成了我的一个博文系列<Hadoop学习笔 ...
- Hadoop学习笔记(7) ——高级编程
Hadoop学习笔记(7) ——高级编程 从前面的学习中,我们了解到了MapReduce整个过程需要经过以下几个步骤: 1.输入(input):将输入数据分成一个个split,并将split进一步拆成 ...
- Hadoop学习笔记(6) ——重新认识Hadoop
Hadoop学习笔记(6) ——重新认识Hadoop 之前,我们把hadoop从下载包部署到编写了helloworld,看到了结果.现是得开始稍微更深入地了解hadoop了. Hadoop包含了两大功 ...
- Hadoop学习笔记(2)
Hadoop学习笔记(2) ——解读Hello World 上一章中,我们把hadoop下载.安装.运行起来,最后还执行了一个Hello world程序,看到了结果.现在我们就来解读一下这个Hello ...
- Hadoop学习笔记(5) ——编写HelloWorld(2)
Hadoop学习笔记(5) ——编写HelloWorld(2) 前面我们写了一个Hadoop程序,并让它跑起来了.但想想不对啊,Hadoop不是有两块功能么,DFS和MapReduce.没错,上一节我 ...
- Hadoop学习笔记(3)——分布式环境搭建
Hadoop学习笔记(3) ——分布式环境搭建 前面,我们已经在单机上把Hadoop运行起来了,但我们知道Hadoop支持分布式的,而它的优点就是在分布上突出的,所以我们得搭个环境模拟一下. 在这里, ...
- Hadoop学习笔记(2) ——解读Hello World
Hadoop学习笔记(2) ——解读Hello World 上一章中,我们把hadoop下载.安装.运行起来,最后还执行了一个Hello world程序,看到了结果.现在我们就来解读一下这个Hello ...
- Hadoop学习笔记(1) ——菜鸟入门
Hadoop学习笔记(1) ——菜鸟入门 Hadoop是什么?先问一下百度吧: [百度百科]一个分布式系统基础架构,由Apache基金会所开发.用户可以在不了解分布式底层细节的情况下,开发分布式程序. ...
- Hadoop学习笔记(两)设置单节点集群
本文描写叙述怎样设置一个单一节点的 Hadoop 安装.以便您能够高速运行简单的操作,使用 Hadoop MapReduce 和 Hadoop 分布式文件系统 (HDFS). 參考官方文档:Hadoo ...
随机推荐
- 安装Redis 非结构化数据库
1.官网下载安装包 1) 首先在Redis官网下载安装包: http://redis.io/download(redis-4.0.9.tar.gz) 2.在/usr/local/创建一个redi ...
- 字符数组和strcpy
已知strcpy函数的原型是char *strcpy(char *strDest, const char *strSrc);,其中strDest是目的字符串,strSrc是源字符串. (1)Write ...
- go test 上篇
前言 Go语言本身集成了轻量级的测试框架,由go test命令和testing包组成.包含单元测试和压力测试,是保证我们编写健壮Golang程序的有效工具. 演示环境 $ uname -a Darwi ...
- tp框架知识 之(链接数据库和操作数据内容)
框架有时会用到数据库的内容,在"ThinkPhp框架知识"的那篇随笔中提到过,现在这篇随笔详细的描述下. 一.链接数据库 (1)找到模块文件夹中的Conf文件夹,然后进行编写con ...
- 【BZOJ3319】黑白树 并查集
[BZOJ3319]黑白树 Description 给定一棵树,边的颜色为黑或白,初始时全部为白色.维护两个操作:1.查询u到根路径上的第一条黑色边的标号.2.将u到v 路径上的所有边的颜色设为 ...
- The goroutine scheduler is not preemptive.
go - Why is time.sleep required to run certain goroutines? - Stack Overflow https://stackoverflow.co ...
- 一文快速搞懂MySQL InnoDB事务ACID实现原理(转)
这一篇主要讲一下 InnoDB 中的事务到底是如何实现 ACID 的: 原子性(atomicity) 一致性(consistency) 隔离性(isolation) 持久性(durability) 隔 ...
- Allegro PCB中添加汉字
注明出处:http://www.cnblogs.com/einstein-2014731/p/5650943.html Cadence用起来比AltiumDesigner要麻烦些,但是也更开放,更灵活 ...
- Raspberry Pi3 ~ 使用eclipse进行远程调试
为了开发方便需要在电脑上对树莓派进行远程Debug. l 在eclipse中安装交叉编译(参照开发环境搭建) arm-linux-gnueabihf-gcc l 树莓派中检查是否安装了gdb ...
- [STM8L]基于STM8L152的TAB段式LCD液晶驱动的分析 - 单片机干货 - 中国电子技术论坛 - 最好最受欢迎电子论坛!
[STM8L]基于STM8L152的TAB段式LCD液晶驱动的分析 - 单片机干货 - 中国电子技术论坛 - 最好最受欢迎电子论坛!.md 主控芯片为STM8L152C4T6自带LCD控制器,低功耗系 ...