注:大家常说的ssh其实就是一个免密码访问的东西,为了简化操作的,不用每次访问其他节点重新输入密码。但是要想配置如下:

.在每台机器上执行 ssh-keygen -t rsa,连敲三次回车键(即设置空密码)
.然后在每台机器上都执行cd ~/.ssh,并分别把id_rsa.pub复制到authorized_keys中,
即执行 cp id_rsa.pub authorized_keys
.然后分别把slave0,slave1的authorized_keys都复制到master主节点的authorized_keys中,
即分别在两个从节点slave0和slave1中执行 ssh-copy-id -i master
.再分别复制到slave0,slave1中(即每一个节点的authorized_keys中都有这三个节点的密钥)
即在主节点master上执行 scp -r ~/.ssh/authorized_keys slave0:~/.ssh/
scp -r ~/.ssh/authorized_keys slave1:~/.ssh/
此时成功。
简单测试:比如说在master上执行ssh slave0,这时候发现不需要输入密码即可转
到slave0从节点上,这时成功

hadoop-0.20.2的配置文件

hadoop-0.20.0的配置文件:
core-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://cMaster:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/joe/cloudData</value>
</property>
hdfs-site.xml
<property>
<name>dfs.name.dir</name>
<value>/home/joe/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/joe/hdfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value></value>
</property>
mapred-site.xml
<property>
<name>mapred.job.tracker</name>
<value>cMaster:</value>
</property>

hadoop-0.20.2集群操作命令:

hadoop-0.20.2的集群操作命令
上传本地文件至hdfs:[rio@cMaster hadoop-0.20.]#bin/hadoop dfs -put /home/rio/input/* /in
用WordCount计算数据:[rio@cMaster hadoop-2.2.0]#bin/hadoop jar hadoop-0.20.2-examples.jar
wordcount /in /out/wc-01

hadoop-2.2.0的配置文件:

hadoop-2.2.0的配置文件:
core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://cMaster:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/joe/cloudData</value>
</property>
yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>cMaster</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
mapred-site.xml(注:将mapred-site.xml.template重命名为mapred-site.xml)
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

hadoop-2.2.0进程启动命令:

启动(或关闭)全部服务:[rio@cMaster hadoop-2.2.]#sbin/start-all.sh
[rio@cMaster hadoop-2.2.]#sbin/stop-all.sh
格式化主节点:[rio@cMaster hadoop-2.2.]#bin/hdfs namenode -format(注:仅格式化一次)
启动主节点上的namenode:[rio@cMaster hadoop-2.2.]#sbin/hadoop-daemon.sh start namenode
启动主节点上的resourcemanager:[rio@cMaster hadoop-2.2.]#sbin/yarn-daemon.sh start resourcemanager
启动从节点上的datanode:[rio@cMaster hadoop-2.2.]#sbin/hadoop-daemon.sh start datanode
启动从节点上的nodemanager:[rio@cMaster hadoop-2.2.]#sbin/yarn-daemon.sh start nodemanager
启动日志历史查询:[rio@cMaster hadoop-2.2.]#sbin/mr-jobhistory-daemon.sh start historyserver
查看服务是否启动:[rio@cMaster hadoop-2.2.]#/usr/java/jdk1..0_71/bin/jps

hadoop-2.2.0集群操作命令:

创建目录:[rio@cMaster hadoop-2.2.]#bin/hdfs dfs -mkidr /in
删除文件及目录:[rio@cMaster hadoop-2.2.]#bin/hdfs dfs -rmr /out/input
上传本地文件至hdfs:[rio@cMaster hadoop-2.2.]#bin/hdfs dfs -put /home/rio/input/* /in
查看hdfs里的文件:[rio@cMaster hadoop-2.2.0]#bin/hdfs dfs -cat /in/*
[rio@cMaster hadoop-2.2.0]#bin/hdfs dfs -cat /out/wc-01/*
用WordCount计算数据:[rio@cMaster hadoop-2.2.0]#bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-example-2.2.0.jar
wordcount /in /out/wc-01

hadoop学习笔记--集群搭建的更多相关文章

  1. hadoop高可用集群搭建小结

    hadoop高可用集群搭建小结1.Zookeeper集群搭建2.格式化Zookeeper集群 (注:在Zookeeper集群建立hadoop-ha,amenode的元数据)3.开启Journalmno ...

  2. Hadoop初期学习和集群搭建

    留给我学习hadoop的时间不多了,要提高效率,用上以前学的东西.hadoop要注重实战,把概念和原理弄清楚,之前看过一些spark,感觉都是一些小细节,对于理解hadoop没什么帮助.多看看资料,把 ...

  3. Hadoop完全分布式集群搭建

    Hadoop的运行模式 Hadoop一般有三种运行模式,分别是: 单机模式(Standalone Mode),默认情况下,Hadoop即处于该模式,使用本地文件系统,而不是分布式文件系统.,用于开发和 ...

  4. 从零自学Hadoop(06):集群搭建

    阅读目录 序 集群搭建 监控 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 上一 ...

  5. hadoop伪分布式集群搭建与安装(ubuntu系统)

    1:Vmware虚拟软件里面安装好Ubuntu操作系统之后使用ifconfig命令查看一下ip; 2:使用Xsheel软件远程链接自己的虚拟机,方便操作.输入自己ubuntu操作系统的账号密码之后就链 ...

  6. hadoop namenode HA集群搭建

    hadoop集群搭建(namenode是单点的)  http://www.cnblogs.com/kisf/p/7456290.html HA集群需要zk, zk搭建:http://www.cnblo ...

  7. Hadoop介绍及集群搭建

    简介 Hadoop 是 Apache 旗下的一个用 java 语言实现开源软件框架,是一个开发和运行处理大规模数据的软件平台.允许使用简单的编程模型在大量计算机集群上对大型数据集进行分布式处理.它的核 ...

  8. 大数据之Hadoop完全分布式集群搭建

    1.准备阶段 1.1.新建三台虚拟机 Hadoop完全分市式集群是典型的主从架构(master-slave),一般需要使用多台服务器来组建.我们准备3台服务器(关闭防火墙.静态IP.主机名称).如果没 ...

  9. 基于Hadoop伪分布式集群搭建Spark

    一.前置安装 1)JDK 2)Hadoop伪分布式集群 二.Scala安装 1)解压Scala安装包 2)环境变量 SCALA_HOME = C:\ProgramData\scala-2.10.6 P ...

随机推荐

  1. (转)Hadoop MapReduce链式实践--ChainReducer

    版本:CDH5.0.0,HDFS:2.3.0,Mapreduce:2.3.0,Yarn:2.3.0. 场景描述:求一组数据中按照不同类别的最大值,比如,如下的数据: data1: A,10 A,11 ...

  2. CodeForces 158B Taxi(贪心)

    贪心,注意优先级,4单独,3与1先匹配,2与2匹配(注意判断2有没有剩下),然后2与两个1匹配,最后4个1匹配就可以了. #include<iostream> #include<cs ...

  3. GetEnvironmentVariable 获取常用系统变量(转)

    源:GetEnvironmentVariable 获取常用系统变量 //譬如 WINDIR 表示系统目录系统变量, 以这样获: var s:string; begin s:=GetEnvironmen ...

  4. Jedis使用示例

    http://javacrazyer.iteye.com/blog/1840161 http://www.cnblogs.com/edisonfeng/p/3571870.html

  5. keystone policy.json 的学习总结

    keystone的policy.json文件位于:/etc/keystone/policy.json 其内容如下: 1 { 2 "admin_required": "ro ...

  6. CI框架学习——基本的用法(一)

    一.必备知识 1.如何访问你的页面 我在控制器下面建立了admin文件夹,此文件夹下有login.php 文件,我们现在要访问这个文件 http://localhost/gradesystem/ind ...

  7. greenDAO简介

    了解android开发的人应该都会知道,android的数据库开发主要用到sqlite.greenDAO应该算是当前最火的数据库开源框架了吧,它是一个移动开发的ORM(object / relatio ...

  8. Redis详细介绍

    转自:http://blog.csdn.net/eroswang/article/details/7080412 1.介绍 1.1 Redis是什么 REmote DIctionary Server( ...

  9. (一)Javascript基础知识

    一,五种基本数据类型和一种复合数据类型. 五种基本数据类型 1,undefined 2,null 3,string 4,number 5,boolean 6,复合数据类型(Object,Array,D ...

  10. 适用于SQl数据的Sql语句

    ---基础知识if exists(select * from sysdatabases where name='Exam') ---判断数据库中是否存在该数据库drop database Examgo ...