Hadoop之中的一个:Hadoop的安装部署
说到Hadoop不得不说云计算了,我这里大概说说云计算的概念,事实上百度百科里都有,我仅仅是copy过来,好让我的这篇hadoop博客内容不显得那么单调、骨感。云计算近期今年炒的特别火,我也是个刚開始学习的人。记下我自学hadoop的一些经历和过程。
云计算(cloud computing)是基于互联网的相关服务的添加、使用和交付模式,通常涉及通过互联网来提供动态易扩展且常常是虚拟化的资源。
云是网络、互联网的一种比喻说法。过去在图中往往用云来表示电信网,后来也用来表示互联网和底层基础设施的抽象。因此,云计算甚至能够让你体验每秒10万亿次的运算能力,拥有这么强大的计算能力能够模拟核爆炸、预測气候变化和市场发展趋势。用户通过电脑、笔记本、手机等方式接入数据中心。按自己的需求进行运算。对云计算的定义有多种说法。对于究竟什么是云计算,至少能够找到100种解释。眼下广为接受的是美国国家标准与技术研究院(NIST)定义:云计算是一种按使用量付费的模式,这样的模式提供可用的、便捷的、按需的网络訪问,
进入可配置的计算资源共享池(资源包含网络,server,存储。应用软件,服务)。这些资源可以被高速提供。仅仅需投入非常少的管理工作,或与服务供应商进行非常少的交互。
(以上是照搬百度百科的。别吐槽啊。跪谢了……)。
说完了云计算。我们来说说Hadoop的概念吧,Hadoop是一个分布式的基础架构,由Apache基金会开发。Hadoop实现了一个分布式文件系统也就是兴许文章会说到的HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的硬件上。并且它提供高传输率来訪问应用程序的数据,适合那些有着超大数据集的应用程序。
HDFS放宽了(relax)POSIX的要求。能够以流的形式訪问文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和MapReduce.HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。
好吧。太罗嗦了。写那么多概念大部分都是从百度百科里摘抄下来的。我厌烦了。以下来讲讲怎样配置部署Hadoop环境,首先要说的是,眼下Hadoop版本号已经到2的版本号了,可是非常遗憾,我作为一个刚開始学习的人,我还是比較喜欢一步一个脚印的学习,所以我们今天要讲的是Hadoop1的部署和配置,以后的篇章也是针对Hadoop1的版本号来学习。
Hadoop能够装在非常多的操作系统上,比方Windows上,Linux上。苹果的Mac OSX上。因为眼下的经常使用的生产环境都是Linux操作系统。所以我们本章之讲在Linux操作系统下怎样配置部署Hadoop。Hadoop部署方式有三种各自是单机模式、伪分布式模式和分布式模式。
因为本人电脑配置有限,无法虚拟太多的Linux环境,所以我们今天临时仅仅讲伪分布式的部署方式。至于单机模式,本文章不讲述,后面的篇幅我会讲分布式模式的配置步骤。
准备环境:Ubuntu12、jdk-6u45-linux-i586.bin、hadoop-1.0.4.tar.gz(作为程序猿来讲,这些大家都是能够在官网弄到手的,我就不给下载地址了……假设读者看到这里,或许会吐槽了,Hadoop不止这些啊。Hbase哪去了、Hive数据仓库哪里去了?这太扯了吧……呵呵,我想说的是,一步一步的来,会的大神么就别吐槽我了,我菜鸟一枚,以后的篇章我会一一写出来这些内容,我做好了持久战的准备……)
首先进入 Ubuntu操作系统,检查一下Ubuntu是否安装了java jdk。
好吧。进入我们的Ubuntu终端,输入java -version,看看是否已经安装的sun公司的jdk,如图:
好吧。我这里是安装好的,没有安装jdk的同学。我继续说了。
将我们的jdk-6u45-linux-i586.bin文件考入到ubuntu的/home/zhaolong/下,好吧,我有一个这种用户。你们依照你们的路径来吧。在Linux安装jdk事实上就是一个文件解压的过程,安装前必须给当前这个文件进行授权。
cd命令进入我们jdk文件所在的文件夹。也就是/home/zhaolong/下,键入命令chmod
777 jdk-6u45-linux-i586.bin。
文件授权完成之后,我们開始解压,使用./jdk-6u45-linux-i586.bin命令解压jdk文件。
解压完毕之后,我们使用vi .bashrc命令进入到.bashrc文件编辑模式。
我们要配置环境变量,在.bashrc文件的最后一行以下输入:
export JAVA_HOME=/home/zhaolong/jdk1.6.0_45 和 export PATH=/bin:$JAVA_HOME/bin:/usr/bin:$PATH:.
编辑完毕后按ESC键然后输入:wq保存退出。使用. .bashrc命令使其生效。这时候我们再来用java
-version来验证我们是否成功安装jdk了,不出意外应该会出现上图的内容。
接下来,我们来配置SSH的无password登录,假设SSH有password的话。每次启动每一个节点都要又一次输入password。这是一件非常麻烦的事情。
首先使用命令sudo apt-get install ssh安装ssh,安装的过程须要联网,下载有点慢,要有点耐心……
成功安装后,输入ssh-keygen命令,不用理会以下的内容,一路回车就可以,结束后会在~/.ssh/文件夹下生成了两个文件:id_dsa和
id_rsa.pub。这两个文件是成对出现的类似钥匙和锁,再把id_dsa.pub文件拷贝到~/.ssh/文件夹的authorizde_keys里详细命令为:cp id_dsa.pub authorizde_keys
SSH我们安装配置好了,接着,我们安装Hadoop。将下载好的hadoop文件hadoop-1.0.4.tar.gz复制到/home/zhaolong/下。和安装JDK一样,我们要设置文件的权限,不然无法解压。设置hadoop-1.0.4.tar.gz文件的权限。命令为:chmod
777 hadoop-1.0.4.tar.gz
解压解压hadoop-1.0.4.tar.gz文件,命令为:tar
xzvf hadoop-1.0.4.tar.gz
解压完毕后。加入hadoop bin到环境变量中。
详细操作依旧是改动.bashrc文件最以下的$PATH环境变量。操作和上面的配置JDK的环境变量一样,我就不赘述了。
Hadoop环境变量配置好后,我们须要配置一些Hadoop的配置文件,我们须要进入到hadoop/conf文件夹下。
1、改动:hadoop-env.sh配置文件,文件内容添加
export JAVA_HOME=/home/zhaolong/jdk1.6.0_45
2、改动:core-site.xml配置文件。文件内容添加
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop</value>
</property>
</configuration>
3、改动:hdfs-site.xml配置文件。文件内容添加
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
4、改动:mapred-site.xml配置文件。文件内容添加
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
以上4步骤都配置完毕后,我们须要启动一下Hadoop来验证我们的环境是否部署成功。启动前。必须先格式化文件系统,当然这个格式化文件系统仅仅在第一次启动是进行,以后不须要又一次格式化文件系统。格式化文件系统的命令为:hadoop
namenode -format
文件系统格式化须要等待一段时间,只是不会非常长,格式化完毕之后。我们能够尝试着启动Hadoop了。为了方便我们start-all.sh命令启动全部的服务。
我们启动了所以的服务。
好吧大概说一下Hadoop启动和停止的经常使用命令,
(1)格式化文件系统,命令为:hadoop
namenode -format
(2)启动关闭全部服务:start-all.sh/stop-all.sh
(3)启动关闭HDFS:start-dfs.sh/stop-dfs.sh
(4)启动关闭MapReduce:start-mapred.sh/stop-mapred.sh
(5)使用jps命令查看进程,确保有namenode。dataNode,JobTracker
(6)Job
Tracker管理界面:http://localhost:50030
(7)HDFS管理界面:http://localhost:50070
(8)HDFS通信port:9000
(9)MapReduce通信port:9001
先写到这吧。夜深了,该睡觉了……写的比較笼统,先这样吧。晚安……
Hadoop之中的一个:Hadoop的安装部署的更多相关文章
- cas 单点登录(SSO)之中的一个: jasig cas-server 安装
cas 单点登录(SSO)实验之中的一个: jasig cas-server 安装 參考文章: http://my.oschina.net/indestiny/blog/200768#comments ...
- hadoop 2.7.1 高可用安装部署
hadoop集群规划 目标:创建2个NameNode,做高可用,一个NameNode挂掉,另一个能够启动:一个运行Yarn,3台DataNode,3台Zookeeper集群,做高可用. 在hadoop ...
- Hadoop第12周练习—HBase安装部署
1 1.1 1.2 :安装HBase 2.1 内容 运行环境说明 1.1 硬软件环境 线程,主频2.2G,6G内存 l 虚拟软件:VMware® Workstation 9.0.0 build-8 ...
- mysql学习之中的一个:mysql安装
我用的时mac系统,本来想在mac系统上装一个,可是发现mac系统始终无法用password登入到本机server,很奇怪的问题(在stackflow上看了些回复,也没有找到原因),最后仅仅好装到虚拟 ...
- hadoop入门(3)——hadoop2.0理论基础:安装部署方法
一.hadoop2.0安装部署流程 1.自动安装部署:Ambari.Minos(小米).Cloudera Manager(收费) 2.使用RPM包安装部署:Apache ...
- Hadoop入门进阶课程13--Chukwa介绍与安装部署
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,博主为石山园,博客地址为 http://www.cnblogs.com/shishanyuan ...
- Hadoop入门进阶课程8--Hive介绍和安装部署
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,博主为石山园,博客地址为 http://www.cnblogs.com/shishanyuan ...
- Ganglia监控Hadoop集群的安装部署[转]
Ganglia监控Hadoop集群的安装部署 一. 安装环境 Ubuntu server 12.04 安装gmetad的机器:192.168.52.105 安装gmond的机 器:192.168.52 ...
- hadoop集群环境搭建之zookeeper集群的安装部署
关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...
随机推荐
- vector性能调优之resize与reserve
vector的resize与reserve reserve()函数为当前vector预留至少共容纳size个元素的空间.(译注:实际空间可能大于size) resize() 函数( void resi ...
- [JOYOI] 1415 西瓜种植
题目描述 笨笨种了一块西瓜地,但这块西瓜地的种植范围是一条直线的-- 笨笨在一番研究过后,得出了m个结论,这m个结论可以使他收获的西瓜最多. 笨笨的结论是这样的: 从西瓜地B处到E处至少要种植T个西瓜 ...
- redis搭建配置
1 .去官方下载 2.解压tar 3.进入解压目录 编译 4.将编译好的目录移动到制定位置.做软连接 .配置环境便利 5.创建数据保存目录.创建配置文件 [root@radis ~]# vim /da ...
- tornado框架基础11-tornado异步
01 同步和异步 生活中常常会遇到在超市排队买东西的情况,排在你前面的人没有结算完成,你就无法付账,在计算机中也有类似的情形,一个程序在执行之前,需要等待其他的程序执行完成,大家还能举出其他的例子吗? ...
- Linux 基本操作指南
Linux基本操作 1. su 切换用户 2.exit 退出当前登录用户 3.useradd 用户名 -m 在home目录下 创建一个和用户名同名的目录,并添加一个用户 (有root权限才能 ...
- Druid配置
spring-mybatis.xml <!-- 定义数据源Bean --> <!-- Druid --> <bean id="dataSource" ...
- 大数据学习——sqoop入门
下载地址 https://pan.baidu.com/s/1qWDl29L9I_KVU54c0ioNfQ fvfh 3.1 概述 sqoop是apache旗下一款“Hadoop和关系数据库服务器之间传 ...
- Extjs中获取grid数据
(1)grid.getStore().getRange(0,store.getCount()); //得到grid所有的行 (2)grid.getSelectionModel().getSelecti ...
- 大数据学习——linux常用命令(一)
一.基本日常操作命令 1 查看当前所在工作目录的全路径 pwd 2 查看当前系统的时间 date 设置时间,date -s"2018-11-12" 修改时间后,需要写入硬件bios ...
- hdu 4049 Tourism Planning [ 状压dp ]
传送门 Tourism Planning Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 32768/32768 K (Java/Oth ...