stp1:在Vmware虚拟机上创建Ubantu.2环境

步骤:文件—>新建虚拟机—>典型(下一步)—>下一步——>位置(不建议放c盘,文件地址一定要全英文)—>下一步—>磁盘大小(20G搭建环境够用)—>自定义硬件(内存最好设置2G,不然慢得受不了)—>完成!(漫长得等待。。。)

step2:修改主机名

临时修改主机名:

步骤:打开终端(右键,CTRL+ALT+T)—>输入 hostname (返回主机名,即@符号后得)—>输入 su 获得root权限—>密码—>hostname newname(根据需要自己定)(临时修改主机名);

永久修改主机名:

方法1:步骤:打开终端(右键,CTRL+ALT+T)—>输入 su —>密码—>apt install vim(下载安装文件编辑工具,很快)—>sudo vim /etc/hosts —> 点击键盘 i (插入符)—>修改主机名—>点击ESC退出编辑,输入  :wq 保存—>重启即可;

方法2:步骤:打开终端(右键,CTRL+ALT+T)—>输入 su —>密码—>apt install vim(下载安装文件编辑工具,很快)—>sudo vim /etc/hostname —> 修改主机名—>重启即可;

详细步骤及常见错误可见:https://www.cnblogs.com/zhibei/p/9930744.html

https://www.cnblogs.com/zhibei/p/9930839.html

step3:查看ip地址:Ubuntu使用得是:ifconfig -a

步骤:打开终端(右键,CTRL+ALT+T)—>输入 su —>密码—>apt install net-tools—>输入 ifconfig -a (注意返回2段结果,IP在第一段类似于192.163.。。)

step4:下载安装ssh

这个主要是为了远程连接和免密登录

步骤:打开终端—>输入 su —>密码—>apt install openssh—>输入sshd(不报错即成功);

远程连接:

在windows端下载Putty端口连接工具

步骤:打开putty—>Hostname(填写IP),Port(默认22)—>Connection type:(SSH)—>Saved Sessions(任然填入IP)—>点击 Save—>选择保存得IP,点击Load—>open(得到连接控制台)—>login as:(输入用户名)—>密码验证—>接下来就可以进行自己想要得操作啦!

免密登录:(未完。。。)

这一步很重要(只要在hadoop部署之前完成就可以啦)

这里得权限问题我还没搞清楚,不太清楚什么时候要在用户,什么时候要在root下:

步骤:输入:ssh-keygen -t rsa -P (获得公私匙对,一直回车即可)

—>输入:cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys(将密匙写入ssh中)

—>输入:/etc/init.d/ssh reload;

step5:安装JDK

步骤:打开终端—>输入 su —>密码—>输入javac,回车—>根据提示选择想要得版本号直接安装(遇到询问写y)—>输入javac,返回相关信息表示安装成功—>vim /etc/profile (配置环境变量 ,如下)保存,退出编辑—>输入:source /etc/profile使配置生效(这样可以在任何目录下找到java)。

配置java环境变量:export JAVA_HOME= /usr/lib/jvm/java-8-openjdk-amd64(这个地址要根据你的安装路径进行更改)

           export JRE_HOME= $JAVA_HOME/jre

export  CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

step6:安装Hadoop

尝试了直接使用连接安装,结果都失败,在这里建议大家按如下步骤,少走弯路

下载hadoop安装包:https://archive.apache.org/dist/hadoop/common/hadoop-3.1.0/(有各种版本可以自己选)

下载完成后,将安装包移动到 /home 路径下

在终端输入:tar -xvf hadoop-2.9.1.tar.gz  解压

文件配置:

cd /etc/hadoop

vim hadoop-env.sh 配置 export JAVA_HOME= /usr/lib/jvm/java-8-openjdk-amd64 保存并退出。

vim core-site.xml ,请自行建立/tmp/name,/tmp/data子文件,当然你可以自行指定存放目录

<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property> <property>
<name>dfs.name.dir</name>
<value>/home/apache/hadoop-2.9.1/tmp/name</value>
</property> <property>
<name>hadoop.tmp.dir</name>
<value>/home/apache/hadoop-2.9.1/tmp/data</value>
</property>

接着,vim hafs_site.xml,请建立data文件夹

<property>
<name>dfs.data.dir</name>
<value>/home/apache/hadoop-2.9.1/data</value>
</property>

然后vim yarn-site.xml,

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

最后:cp mapred-site.xml.plate mapred-site.xml,

vim mapred-site.xml,

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

配置Hadoop得环境变量

vim /etc/profile
#hadoop
HADOOP_HOME=/home/apache/hadoop-2.9.1
PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:
export HADOOP_HOME PATH

配置生效

source /etc/profile

查看hadoop版本输入hadoop version;

节点初始化:

hadoop namenode -format

启动hadoop

cd /hadoop-2.9.1/sbin/
./start-dfs.sh
./start-yarn.sh
./mr-jobhistory-daemon.sh start historyserver

查看服务启动情况输入jps命令出现下面内容启动成功

2499 NameNode
3460 NodeManager
2694 DataNode
2934 SecondaryNameNode
3705 Jps
3626 JobHistoryServer
3103 ResourceManager

可以浏览器输入http://localhost:50070 查看hadoop详情。

Ubuntu中搭建Hadoop集群(简记)的更多相关文章

  1. ubuntu中安装hadoop集群

    hadoop是由java 语言编写的主从结构分布式计算存储架构 准备工作: 操作系统: Ubuntu16.04 软件安装包:jdk-8u171-linux-x64.tar.gz : hadoop-2. ...

  2. 实验室中搭建Spark集群和PyCUDA开发环境

    1.安装CUDA 1.1安装前工作 1.1.1选取实验器材 实验中的每台计算机均装有双系统.选择其中一台计算机作为master节点,配置有GeForce GTX 650显卡,拥有384个CUDA核心. ...

  3. Linux下搭建Hadoop集群

    本文地址: 1.前言 本文描述的是如何使用3台Hadoop节点搭建一个集群.本文中,使用的是三个Ubuntu虚拟机,并没有使用三台物理机.在使用物理机搭建Hadoop集群的时候,也可以参考本文.首先这 ...

  4. 虚拟机搭建Hadoop集群

    安装包准备 操作系统:ubuntu-16.04.3-desktop-amd64.iso 软件包:VirtualBox 安装包:hadoop-3.0.0.tar.gz,jdk-8u161-linux-x ...

  5. 在搭建Hadoop集群环境时遇到的一些问题

    最近在学习搭建hadoop集群环境,在搭建的过程中遇到很多问题,在这里做一些记录.1. SSH相关的问题 问题一: ssh: connect to host localhost port 22: Co ...

  6. 使用Windows Azure的VM安装和配置CDH搭建Hadoop集群

    本文主要内容是使用Windows Azure的VIRTUAL MACHINES和NETWORKS服务安装CDH (Cloudera Distribution Including Apache Hado ...

  7. virtualbox 虚拟3台虚拟机搭建hadoop集群

    用了这么久的hadoop,只会使用streaming接口跑任务,各种调优还不熟练,自定义inputformat , outputformat, partitioner 还不会写,于是干脆从头开始,自己 ...

  8. 搭建Hadoop集群 (三)

    通过 搭建Hadoop集群 (二), 我们已经可以顺利运行自带的wordcount程序. 下面学习如何创建自己的Java应用, 放到Hadoop集群上运行, 并且可以通过debug来调试. 有多少种D ...

  9. 搭建Hadoop集群 (一)

    上面讲了如何搭建Hadoop的Standalone和Pseudo-Distributed Mode(搭建单节点Hadoop应用环境), 现在我们来搭建一个Fully-Distributed Mode的 ...

随机推荐

  1. 使用while循环+try-except定位元素

    selenium学习过程中,发现自己遇到的最大的困难不是那些元素的操作,而是元素的定位,有时候明明利用firebug将xpath路径确认好了,但是在定位元素的时候还是会报错,后来在度娘上找到了一个方法 ...

  2. MVC学习二:Controller和View关系

    控制器(Controller)主要是定义方法和加载视图(View) 1.控制器中的Action方法返回值的类型ActionResult,string 2.控制器中Action方法接收浏览器参数方式: ...

  3. Tomcat+Oracle配置连接池的例子

    我这有一个Tomcat+Oracle连接池的例子,放上来和大家分享一下. Tomcat +Oracle  连接池配置   Author: Kenneth.Leaf@GalaxySoft Date: / ...

  4. 今天升级win10.vs调试程序各种崩溃

    今天升级win10.vs调试程序各种崩溃.感觉代码没问题.崩溃时有时没有.不知道是win10的问题,好真是我的代码问题. 问题1: 尝试读取或写入受保护的内存.这通常指示其他内存已损坏 不过.当我写这 ...

  5. 数据恢复顾问(DRA)

    (1)DRA介绍 数据恢复顾问(Data Recovery Advise)是一个诊断和修复数据库的工具,DRA能够修复数据文件和(某些环境下)控制文件的损坏,它不提供spfile和logfile的修复 ...

  6. MySql使用入门

    SQL是Structure Query Language(结构化查询语言)的缩写. SQL主要可以分为三个类别: 1.DDL(Data Definition Languages)语句:数据定义语言,这 ...

  7. MySQL提升课程 全面讲解MySQL架构设计-索引

    索引是什么? 索引是帮助MySQL高效获取数据的数据结构. 索引能干什么? 提高数据查询的效率. 索引:排好序的快速查找数据结构!索引会影响where后面的查找,和order by 后面的排序. 一. ...

  8. flask中的CBV和FBV

    flask中CBV使用 from flask import Flask, views app = Flask(__name__) class Login(views.MethodView): meth ...

  9. 安装Chrome插件

    重装系统后重装了Chrome浏览器,想着将自己的东西同步到Chrome上.但是登录谷歌账号要FQ,我又是靠setup插件FQ,但插件又要靠账号同步到本地.形成了死循环. 其实重装系统前我将插件提取了, ...

  10. Linux入门-第六周

    1.总结IP地址规划 IP地址的合理规划是网络设计中最重要的一环,在大型网络中必须对IP地址进行统一规划并得到实施.IP地址规划的好坏影响到网络路由协议算法的效率,影响到网络的性能,影响到网络的拓展, ...