Hadoop入门--HDFS(单节点)配置和部署 (一)
一 配置SSH
- 下载ssh服务端和客户端
- sudo apt-get install openssh-server openssh-client
- 验证是否安装成功
- ssh username@192.168.30.128
- 按照提示输入username的密码,回车后显示以下,则成功。(此处不建议修改端口号,hadoop默认的是22,修改后启动hadoop会报异常,除非在hadoop的配置文件中也修改ssh端口号)
- Welcome to Ubuntu 13.04 (GNU/Linux 3.8.0-34-generic i686)
* Documentation: https://help.ubuntu.com/
New release '13.10' available.
Run 'do-release-upgrade' to upgrade to it.Last login: Sun Dec 8 10:27:38 2013 from ubuntu.local
- 公钥-私钥登录配置(无密)
- ssh-keygen -t rsa -P ""(其中会出现输入提示,回车即可,之后home/username/.ssh/ 下生成id_rsa ,id_rsa.pub, known_hosts三个文件。
/home/username/ 下生成 authorized_keys 文件)
- ssh-keygen -t rsa -P ""(其中会出现输入提示,回车即可,之后home/username/.ssh/ 下生成id_rsa ,id_rsa.pub, known_hosts三个文件。
- 将id_rsa.pub追加到authorized_keys授权文件中
- cat .ssh/id_rsa >> authorized_keys (切换到/home/username/下)
- 公钥-私钥登录配置(有密)
- ssh-keygen -t rsa (在出现 Enter passphrase (empty for no passphrase):
时,输入设置的密码。其它同上,此处未测试过)
- ssh-keygen -t rsa (在出现 Enter passphrase (empty for no passphrase):
二 安装JDK(采用OpenJDK,为啥不用JDK...百度or谷歌)
- 下载jdk
- sudo apt-get install openjdk-7-jdk(目前最新的是openjdk-7)
- 配置环境变量
- sudo vim ~/.bashrc
- (在文件末尾添加) export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-i386
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH - (修改环境变量生效)source ~/.bashrc
- 测试jdk是否安装成功
- java -version(出现以下信息则成功)
- java version "1.7.0_25"
OpenJDK Runtime Environment (IcedTea 2.3.10) (7u25-2.3.10-1ubuntu0.13.04.2)
OpenJDK Client VM (build 23.7-b01, mixed mode, sharing)
三 安装Hadoop和HDFS配置
- 下载hadoop
- tar -zxvf hadoop-1.2.1.tar.gz(解压到 hadoop-1.2.1目录下)
- mv hadoop-1.2.1 hadoop(hadoop-1.2.1目录改名为hadoop)
- cp hadoop /usr/local(复制hadoop到 /usr/local 目录下)
- 配置hdfs文件(
hadoop
/conf/core-site
.xml
,
hadoop
/conf/hdfs-site
.xml,
)hadoop
/conf/mapred-site
.xml
- sudo vim /usr/local/
hadoop
/conf/core-site
.xml
(修改为以下内容) - <?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.30.128:9000</value>
</property>
</configuration> - sudo vim /usr/local/
hadoop
/conf/hdfs-site
.xml
(修改为以下内容) - <?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/username/hadoop_tmp</value><!--需要创建此目录-->
<description>A base for other temporary directories.</description>
</property>
<property>
<name>dfs.name.dir</name>
<value>/tmp/hadoop/dfs/datalog1,/tmp/hadoop/dfs/datalog2</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/tmp/hadoop/dfs/data1,/tmp/hadoop/dfs/data2</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property> - sudo vim /usr/local/
hadoop
/conf/mapred-site
.xml
(修改为以下内容) - <?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>192.168.30.128:9001</value>
</property>
</configuration>
四 运行wordcount
- 在hdfs中创建一个统计目录,输出目录不用创建,否则运行wordcount的时候报错。
- ./hadoop fs -mkdir /input
- ./hadoop fs -put myword.txt /input
- ./hadoop jar /usr/local/hadoop/hadoop-examples-1.2.1.jar wordcount /input /output
- ./hadoop fs -cat /output/part-r-00000
Hadoop入门--HDFS(单节点)配置和部署 (一)的更多相关文章
- 二、hdfs单节点安装
一.准备环境 在配置hdfs之前,我们需要先安装好hadoop的配置,本文主要讲述hdfs单节点的安装配置. hadoop的单节点安装配置请参考:https://www.cnblogs.com/lay ...
- Zookeeper+Kafka的单节点配置
Zookeeper+Kafka的单节点配置 环境描述:Ubuntu16.04 server系统,在系统上搭建Java环境,jdk的版本为1.8或更高,我的服务器IP地址为192.168.0.106. ...
- HDFS环境搭建(单节点配置)
[参考文章]:hadoop集群搭建(hdfs) 1. Hadoop下载 官网下载地址: https://hadoop.apache.org/releases.html,进入官网根据自己需要下载具体的安 ...
- CentOS7 下 Hadoop 单节点(伪分布式)部署
Hadoop 下载 (2.9.2) https://hadoop.apache.org/releases.html 准备工作 关闭防火墙 (也可放行) # 停止防火墙 systemctl stop f ...
- (3)hadoop单节点配置
hadopp版本hadoop-2.6.0-cdh5.7.0 下载地址http://archive-primary.cloudera.com/cdh5/cdh/5/ 同样使用flashFXP上 ...
- Hbase入门教程--单节点伪分布式模式的安装与使用
Hbase入门简介 HBase是一个分布式的.面向列的开源数据库,该技术来源于 FayChang 所撰写的Google论文"Bigtable:一个结构化数据的分布式存储系统".就像 ...
- Hadoop HDFS 单节点部署方案
初学者,再次记录一下. 确保Java 和 Hadoop已安装完毕(每个人的不一定一样,但肯定都有数据,仅供参考) [root@jans hadoop-2.9.0]# pwd /usr/local/ha ...
- hadoop单节点配置
首先按照官网的单机去配置,如果官网不行的话可以参考一下配置,这个是配置成功过的.但是不一定每次都成功 http://hadoop.apache.org/docs/r2.6.5/ centos 6.7 ...
- 在Ubuntu下配置运行Hadoop2.4.0单节点配置
还没有修改hosts,请先按前文修改. 还没安装java的,请按照前文配置. (1)增加用户并设立公钥: sudo addgroup hadoop sudo adduser --ingroup had ...
随机推荐
- npm不能安装任何包,报错:npm WARN onload-script failed to require onload script npm-autoinit/autoinit及解决方法
想要利用Hexo搭建一个博客,但是安装时npm一直报错,不仅仅是Hexo包,连别的其他包也不行,会提示下面的一堆错误 npm WARN onload-script failed to require ...
- 24种设计模式--单例模式【Singleton Pattern】
这个模式是很有意思,而且比较简单,但是我还是要说因为它使用的是如此广泛,如此的有人缘,单例就是单一.独苗的意思,那什么是独一份呢?你的思维是 独一份,除此之外还有什么不能山寨的呢?我们举个比较难复制的 ...
- BeanUtils的日期问题
//注册日期类型转换器 //第一种 自定义方法 ConvertUtils.register(new Converter(){ //第一个参数是目标 ...
- Java多线程:Semaphore
Semaphore为并发包中提供用于控制某资源同时可以被几个线程访问的类 实例代码: // 允许2个线程同时访问 final Semaphore semaphore = new Semaphore(2 ...
- Android获取相册图片
1. AlertDialog的使用 2. 显示和隐式意图的区别 3. 相册页面的跳转 4. 选择完成后返回图片的获取 ----------------------------------------- ...
- 淘宝API举例子
# -*- coding: utf-8 -*- import urllib2 import urllib import time import md5 secret='xx' app_key='yy' ...
- HashMap在Android和Java中的不同实现
起因 今天在项目中遇到一个很"奇葩"的问题.情况大致是这样的:Android终端和服务器(Spring),完全相同的字符串键值对放入HashMap中竟然顺序不一样,这直接导致了服务 ...
- python django 自定义 装饰器
# -*-coding:utf-8-*- __author__ = "GILANG (pleasurelong@foxmail.com)" """ d ...
- notepad++使用心得
最近和网友谈论软件编译器的时候,很多人都推荐使用notepad++这款软件,于是怀着一份好奇心安装了这款软件耍了耍,感觉确实不错.特将网友的分享以及自己的心得总结如下: 1)首先notepad++支持 ...
- 转:Win7 IIS7应用PHP Manager使用FastCGI通道快速部署PHP支持
原文来自于:http://www.jb51.net/os/windows/62390.html 正常情况下,我们在Windows系统中部署WEB服务器(iis)支持PHP是采用ISAPI通道.参照这篇 ...