hadoop学习笔记--集群搭建
注:大家常说的ssh其实就是一个免密码访问的东西,为了简化操作的,不用每次访问其他节点重新输入密码。但是要想配置如下:
.在每台机器上执行 ssh-keygen -t rsa,连敲三次回车键(即设置空密码)
.然后在每台机器上都执行cd ~/.ssh,并分别把id_rsa.pub复制到authorized_keys中,
即执行 cp id_rsa.pub authorized_keys
.然后分别把slave0,slave1的authorized_keys都复制到master主节点的authorized_keys中,
即分别在两个从节点slave0和slave1中执行 ssh-copy-id -i master
.再分别复制到slave0,slave1中(即每一个节点的authorized_keys中都有这三个节点的密钥)
即在主节点master上执行 scp -r ~/.ssh/authorized_keys slave0:~/.ssh/
scp -r ~/.ssh/authorized_keys slave1:~/.ssh/
此时成功。
简单测试:比如说在master上执行ssh slave0,这时候发现不需要输入密码即可转
到slave0从节点上,这时成功
hadoop-0.20.2的配置文件
hadoop-0.20.0的配置文件:
core-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://cMaster:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/joe/cloudData</value>
</property>
hdfs-site.xml
<property>
<name>dfs.name.dir</name>
<value>/home/joe/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/joe/hdfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value></value>
</property>
mapred-site.xml
<property>
<name>mapred.job.tracker</name>
<value>cMaster:</value>
</property>
hadoop-0.20.2集群操作命令:
hadoop-0.20.2的集群操作命令
上传本地文件至hdfs:[rio@cMaster hadoop-0.20.]#bin/hadoop dfs -put /home/rio/input/* /in
用WordCount计算数据:[rio@cMaster hadoop-2.2.0]#bin/hadoop jar hadoop-0.20.2-examples.jar
wordcount /in /out/wc-01
hadoop-2.2.0的配置文件:
hadoop-2.2.0的配置文件:
core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://cMaster:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/joe/cloudData</value>
</property>
yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>cMaster</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
mapred-site.xml(注:将mapred-site.xml.template重命名为mapred-site.xml)
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
hadoop-2.2.0进程启动命令:
启动(或关闭)全部服务:[rio@cMaster hadoop-2.2.]#sbin/start-all.sh
[rio@cMaster hadoop-2.2.]#sbin/stop-all.sh
格式化主节点:[rio@cMaster hadoop-2.2.]#bin/hdfs namenode -format(注:仅格式化一次)
启动主节点上的namenode:[rio@cMaster hadoop-2.2.]#sbin/hadoop-daemon.sh start namenode
启动主节点上的resourcemanager:[rio@cMaster hadoop-2.2.]#sbin/yarn-daemon.sh start resourcemanager
启动从节点上的datanode:[rio@cMaster hadoop-2.2.]#sbin/hadoop-daemon.sh start datanode
启动从节点上的nodemanager:[rio@cMaster hadoop-2.2.]#sbin/yarn-daemon.sh start nodemanager
启动日志历史查询:[rio@cMaster hadoop-2.2.]#sbin/mr-jobhistory-daemon.sh start historyserver
查看服务是否启动:[rio@cMaster hadoop-2.2.]#/usr/java/jdk1..0_71/bin/jps
hadoop-2.2.0集群操作命令:
创建目录:[rio@cMaster hadoop-2.2.]#bin/hdfs dfs -mkidr /in
删除文件及目录:[rio@cMaster hadoop-2.2.]#bin/hdfs dfs -rmr /out/input
上传本地文件至hdfs:[rio@cMaster hadoop-2.2.]#bin/hdfs dfs -put /home/rio/input/* /in
查看hdfs里的文件:[rio@cMaster hadoop-2.2.0]#bin/hdfs dfs -cat /in/*
[rio@cMaster hadoop-2.2.0]#bin/hdfs dfs -cat /out/wc-01/*
用WordCount计算数据:[rio@cMaster hadoop-2.2.0]#bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-example-2.2.0.jar
wordcount /in /out/wc-01
hadoop学习笔记--集群搭建的更多相关文章
- hadoop高可用集群搭建小结
hadoop高可用集群搭建小结1.Zookeeper集群搭建2.格式化Zookeeper集群 (注:在Zookeeper集群建立hadoop-ha,amenode的元数据)3.开启Journalmno ...
- Hadoop初期学习和集群搭建
留给我学习hadoop的时间不多了,要提高效率,用上以前学的东西.hadoop要注重实战,把概念和原理弄清楚,之前看过一些spark,感觉都是一些小细节,对于理解hadoop没什么帮助.多看看资料,把 ...
- Hadoop完全分布式集群搭建
Hadoop的运行模式 Hadoop一般有三种运行模式,分别是: 单机模式(Standalone Mode),默认情况下,Hadoop即处于该模式,使用本地文件系统,而不是分布式文件系统.,用于开发和 ...
- 从零自学Hadoop(06):集群搭建
阅读目录 序 集群搭建 监控 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 上一 ...
- hadoop伪分布式集群搭建与安装(ubuntu系统)
1:Vmware虚拟软件里面安装好Ubuntu操作系统之后使用ifconfig命令查看一下ip; 2:使用Xsheel软件远程链接自己的虚拟机,方便操作.输入自己ubuntu操作系统的账号密码之后就链 ...
- hadoop namenode HA集群搭建
hadoop集群搭建(namenode是单点的) http://www.cnblogs.com/kisf/p/7456290.html HA集群需要zk, zk搭建:http://www.cnblo ...
- Hadoop介绍及集群搭建
简介 Hadoop 是 Apache 旗下的一个用 java 语言实现开源软件框架,是一个开发和运行处理大规模数据的软件平台.允许使用简单的编程模型在大量计算机集群上对大型数据集进行分布式处理.它的核 ...
- 大数据之Hadoop完全分布式集群搭建
1.准备阶段 1.1.新建三台虚拟机 Hadoop完全分市式集群是典型的主从架构(master-slave),一般需要使用多台服务器来组建.我们准备3台服务器(关闭防火墙.静态IP.主机名称).如果没 ...
- 基于Hadoop伪分布式集群搭建Spark
一.前置安装 1)JDK 2)Hadoop伪分布式集群 二.Scala安装 1)解压Scala安装包 2)环境变量 SCALA_HOME = C:\ProgramData\scala-2.10.6 P ...
随机推荐
- 利用html5压缩图片,产出base64图片
/* 将页面选择的图片等比压缩成指定大小(长边固定) file:图片文件 callBack:回调函数 maxLen:长边的长度*/function makePic(file,callBack,maxL ...
- C++ Builder多线程编程技术经验谈(转)
源:C++ Builder多线程编程技术经验谈 线程之可行性 在很多情况下,可能需要为程序创建线程.这里给出其中一些可能性: (1)如果创建的是一个多文档接口(Multiple Document ...
- Delphi 的绘图功能[10] - TFONT 类
Delphi 的绘图功能[10] - TFONT 类 ;DEFAULT_CHARSET = ;SYMBOL_CHARSET = ;SHIFTJIS_CHARSET = ;HAN ...
- ural1628 White Streaks
White Streaks Time limit: 1.0 secondMemory limit: 64 MB The life of every unlucky person has not onl ...
- 关于BOM 的详细介绍
原文地址:http://blog.csdn.net/u011526599/article/details/51419182
- cdr格式文件抠图
使用CoreDRAW打开cdr文件,另存为ai格式 使用illustrator打开新文件,使用套索工具选择需要的图形,复制到photoshop中进行编辑
- UILabel的抗压缩、抗拉伸、以及控件的约束简述
今天来说一说UILabel的约束设置问题 首先主要介绍:Priority(控件约束的优先级).Content Hugging Priority(控件抗拉伸优先级).Content Compressio ...
- java中关于编码的问题(字符转换流及字符缓冲流 )
上次我们使用的是字节流,还有一种方式就是字符流,上次说过如何分辨使用哪种流,如果记事本可以读懂则使用字符流,否则使用字节流.使用字符流就需要牵扯到编码的问题,下面给出一种转化流的格式. OutputS ...
- HUST 1601 Shepherd
间隔小的时候dp预处理,大的时候暴力..正确做法不会... dp[i][j]表示以i为开头,间隔为j的和,递推:dp[i][j] = dp[i + j][j] + a[i] 测试数据中间隔可能是0.. ...
- NSDate常用代码范例
NSDate常用代码范例 NSDate类用于保存时间值,同时提供了一些方法来处理一些基于秒级别时差(Time Interval)运算和日期之间的早晚比较等. 1. 创建或初始化可用以下方法 用于创建N ...