linux安装hadoop 1.2.1
我的服务器里面会装很多东西,所以我在跟目录下面建立了个doc文档文件夹
1.创建存放软件的doc文件夹
mkdir doc
2.进去doc文件夹进行下载hadoop-1.2.1资源包或者到我的百度云下载 地址http://pan.baidu.com/s/1gdSws07
cd doc
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
3.下载完毕进行解压hadoop-1.2.1.tar.gz
tar -zxf hadoop-1.2..tar.gz
4.这个时候在doc目录应该有个hadoop-1.2.1文件夹,这个是我们存放软件包的目录,一般我们安装一个服务会单独的创建一个相关的文件夹,我的hadoop服务是装在
/usr/local/hadoop/hadoop-1.2.1这个目录里面的,所以我们把doc里面的hadoop-1.2.1复制到/usr/local/hadoop目录
#进入usr下面的local文件夹
cd /usr/local
#创建hadoop文件夹
mkdir hadoop
#转移hadoop-1.2.1文件夹到hadoop文件夹中
mv /doc/hadoop-1.2.1 /usr/local/hadoop
5.ok 现在开到配置hadoop的配置文件
配置hadoop-env.sh文件
使用echo命令看JAVA_HOME,jdk的安装目录
[root@iZ94j7ahvuvZ conf]# echo $JAVA_HOME
/usr/local/java/jdk1.7.0
修改hadoop-env.sh的JAVA_HOME信息
进入hadoop的conf文件夹
cd /usr/local/hadoop/hadoop-1.2./conf
vi hadoop-env.sh
完善 JAVA_HOME属性
export JAVA_HOME=/usr/local/java/jdk1.7.0(自己的JDK目录)
6.配置文件core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop</value>
</property> <property>
<name>dfs.name.dir</name>
<value>/hadoop/name</value>
</property> <property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.data.dir</name>
<value>/hadoop/data</value>
</property>
</configuration>
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:</value>
</property>
</configuration>
cd /etc
在下面加入
export HADOOP_HOME=/usr/local/hadoop/hadoop-1.2.
export PATH=$PATH:/usr/local/java/jdk1.7.0/bin:$HADOOP_HOME/bin(这里的JDK路径按照自己的JDK路径)
[root@iZ94j7ahvuvZ conf]# hadoop
Usage: hadoop [--config confdir] COMMAND
where COMMAND is one of:
namenode -format format the DFS filesystem
secondarynamenode run the DFS secondary namenode
namenode run the DFS namenode
datanode run a DFS datanode
dfsadmin run a DFS admin client
mradmin run a Map-Reduce admin client
fsck run a DFS filesystem checking utility
fs run a generic filesystem user client
balancer run a cluster balancing utility
oiv apply the offline fsimage viewer to an fsimage
fetchdt fetch a delegation token from the NameNode
jobtracker run the MapReduce job Tracker node
pipes run a Pipes job
tasktracker run a MapReduce task Tracker node
historyserver run job history servers as a standalone daemon
job manipulate MapReduce jobs
queue get information regarding JobQueues
version print the version
jar <jar> run a jar file
distcp <srcurl> <desturl> copy file or directories recursively
distcp2 <srcurl> <desturl> DistCp version
archive -archiveName NAME -p <parent path> <src>* <dest> create a hadoop archive
classpath prints the class path needed to get the
Hadoop jar and the required libraries
daemonlog get/set the log level for each daemon
or
CLASSNAME run the class named CLASSNAME
cd /usr/local/hadoop/hadoop-1.2./bin
./start-all.sh
#敲完需要输入3次密码 如下提示则成功 [root@iZ94j7ahvuvZ bin]# ./start-all.sh
namenode running as process . Stop it first.
root@localhost's password:
localhost: starting datanode, logging to /usr/local/hadoop/hadoop-1.2./libexec/../logs/hadoop-root-datanode-iZ94j7ahvuvZ.out
root@localhost's password:
localhost: starting secondarynamenode, logging to /usr/local/hadoop/hadoop-1.2./libexec/../logs/hadoop-root-secondarynamenode-iZ94j7ahvuvZ.out
starting jobtracker, logging to /usr/local/hadoop/hadoop-1.2./libexec/../logs/hadoop-root-jobtracker-iZ94j7ahvuvZ.out
root@localhost's password:
localhost: starting tasktracker, logging to /usr/local/hadoop/hadoop-1.2./libexec/../logs/hadoop-root-tasktracker-iZ94j7ahvuvZ.out
linux安装hadoop 1.2.1的更多相关文章
- 图解linux安装hadoop
安装步骤: 一.准备工作 1.解压文件 [root@localhost soft]# tar -zxvf hadoop-2.4.1.tar.gz 2.改名: [root@localhost soft] ...
- Hadoop Linux安装
Hadoop Linux安装 步骤流程 1.硬件准备 2.软件准备(推荐CDH) 3.将Hadoop安装包分发到各个节点下 4.安装JDK 5.修改/etc/hosts配置文件 6.设置SSH免密码登 ...
- Linux下Hadoop集群环境的安装配置
1)安装Ubuntu或其他Linux系统: a)为减少错误,集群中的主机最好安装同一版本的Linux系统,我的是Ubuntu12.04. b)每个主机的登陆用户名也最好都一样,比如都是hadoop,不 ...
- Linux下Hadoop的简单安装
Hadoop 的安装极为简单,一共只有三步: 安装JDK 安装Hadoop 配置Hadoop 1,安装JDK 下载JDK,ftp传到linux或者linux中下载 切换 ...
- 在Linux上安装Hadoop
先决条件: Hadoop是用JAVA写的,所以首先要安装Java.在Ubuntu上安装JDK见:http://blog.csdn.net/microfhu/article/details/766739 ...
- Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)
1下载hadoop 2安装3个虚拟机并实现ssh免密码登录 2.1安装3个机器 2.2检查机器名称 2.3修改/etc/hosts文件 2.4 给3个机器生成秘钥文件 2.5 在hserver1上创建 ...
- Linux ->> UBuntu 14.04 LTE下安装Hadoop 1.2.1(集群分布式模式)
安装步骤: 1) JDK -- Hadoop是用Java写的,不安装Java虚拟机怎么运行Hadoop的程序: 2)创建专门用于运行和执行hadoop任务(比如map和reduce任务)的linux用 ...
- Linux上安装Hadoop集群(CentOS7+hadoop-2.8.3)
https://blog.csdn.net/pucao_cug/article/details/71698903 1下载hadoop 2安装3个虚拟机并实现ssh免密码登录 2.1安装3个机器 2.2 ...
- Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)--------hadoop环境的搭建
Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)------https://blog.csdn.net/pucao_cug/article/details/71698903 ...
随机推荐
- [爬虫学习笔记]Url过滤模块UrlFilter
Url Filter则是对提取出来的URL再进行一次筛选.不同的应用筛选的标准是不一样的,比如对于baidu/google的搜索,一般不进行筛选,但是对于垂直搜索或者定向抓取的应用,那 ...
- ANT自动打包U3D安卓项目研究笔记
概述 因项目使用Atlassian Stash作为项目源码管理端,且其支持Ant命令自动编译,可使其根据最新的代码自动打包,故产生该研究Ant打包的任务.在此将研究过程及一些相关知识整理记录在此. 本 ...
- JPA学习(3)JPA API
在我们的jpa的helloworld中,我们看到了简单的一个jpa保存操作,下面就来好好学习一下,JPA最主要的几个类 1.基本的几个类: ①:Persistence 类是用于获取 EntityMan ...
- 泛函编程(6)-数据结构-List基础
List是一种最普通的泛函数据结构,比较直观,有良好的示范基础.List就像一个管子,里面可以装载一长条任何类型的东西.如需要对管子里的东西进行处理,则必须在管子内按直线顺序一个一个的来,这符合泛函编 ...
- LGLCalender (价格日历)
一直未能找到自己想要的日历价格,就算右也不是我想要的,今天自己封装了一个,欢迎各位来查阅,不足的地方请指教 最新代码下载地址https://github.com/liguoliangiOS/LGLCa ...
- ASP.NET WebAPI 11 参数验证
在绑定完Action的所有参数后,WebAPI并不会马上执行该方法,而要对参数进行验证,以保证输入的合法性. ModelState 在ApiController中一个ModelState属性用来获取参 ...
- .NET Core创建一个控制台(Console)程序
.NET Core版本:1.0.0-rc2 Visual Studio版本:Microsoft Visual Studio Community 2015 Update 2 开发及运行平台:Window ...
- C# WM_NCMOUSELEAVE 消息触发
public static extern bool TrackMouseEvent([In, Out] TRACKMOUSEEVENT lpEventTrack); [DllImport(" ...
- 再谈visibility:hidden和display:none
之前写过一篇有关visibility:hidden和display:none的文章:为什么要用用visibility:hidden;代替display:none;?主要是从浏览器性能方面入手,却没写两 ...
- ASP.NET MVC:窗体身份验证及角色权限管理示例
ASP.NET MVC 建立 ASP.NET 基础之上,很多 ASP.NET 的特性(如窗体身份验证.成员资格)在 MVC 中可以直接使用.本文旨在提供可参考的代码,不会涉及这方面太多理论的知识. 本 ...