bayaim_hadoop1_2.2.0伪分布式搭建
------------------bayaim_hadoop1_2.2.0伪分布式搭建_2018年11月06日09:21:46---------------------------------
1.准备Linux环境
1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.1.0 子网掩码:255.255.255.0 -> apply -> ok
回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 -> 设置windows的IP:192.168.1.110 子网掩码:255.255.255.0 -> 点击确定
在虚拟软件上 --My Computer -> 选中虚拟机 -> 右键 -> settings -> network adapter -> host only -> ok
1.1修改主机名
vim /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=itcast01 ###
1.2修改IP
两种方式:
第一种:通过Linux图形界面进行修改(强烈推荐)
进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加IP:192.168.1.119 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply
第二种:修改配置文件方式(屌丝程序猿专用)
vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0"
BOOTPROTO="static" ###
HWADDR="00:0C:29:3C:BF:E7"
IPV6INIT="yes"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
IPADDR="192.168.1.44" ###
NETMASK="255.255.255.0" ###
GATEWAY="192.168.1.1" ###
1.3修改主机名和IP的映射关系
vim /etc/hosts
192.168.1.44 itcast01
1.4关闭防火墙
#查看防火墙状态
service iptables status
#关闭防火墙
service iptables stop
#查看防火墙开机启动状态
chkconfig iptables --list
#关闭防火墙开机启动
chkconfig iptables off
yum install -y iptables-services
//临时关闭
systemctl stop firewalld
//禁止开机启动
systemctl disable firewalld
1.5重启Linux
reboot
2.安装JDK
2.1上传
2.2解压jdk
#创建文件夹
mkdir /usr/java
#解压
tar -zxvf jdk-7u55-linux-i586.tar.gz -C /usr/java/
[root@testoracle bin]# ./java -version
[root@testoracle jdk1.7.0_80]# pwd
/usr/java/jdk1.7.0_80
2.3将java添加到环境变量中
vim /etc/profile
#在文件最后添加
export JAVA_HOME=/usr/java/jdk1.7.0_55
export PATH=$PATH:$JAVA_HOME/bin
#刷新配置
source /etc/profile
[root@testoracle bin]# ./java -version
java version "1.7.0_80"
Java(TM) SE Runtime Environment (build 1.7.0_80-b15)
Java HotSpot(TM) 64-Bit Server VM (build 24.80-b11, mixed mode)
3.安装Hadoop
3.1上传hadoop安装包
官网: archive.apache.org/dist
3.2解压hadoop安装包
mkdir /cloud
#解压到/cloud/目录下
tar -zxvf hadoop-2.2.0.tar.gz -C /cloud/
3.3修改配置文件(5个)===============
内容: bin 可执行脚本 。 sbin 启动停止脚本。 etc hadoop 的配置文件。 lib 库文件
[root@testoracle hadoop]# pwd
/cloud/hadoop-2.2.0/etc/hadoop
第一个:hadoop-env.sh ================
#在27行修改
export JAVA_HOME=/usr/java/jdk1.7.0_80
第二个:core-site.xml ================
<configuration>
<!-- 指定HDFS老大(namenode)的通信地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://itcast01:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储路径 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/cloud/hadoop-2.2.0/tmp</value>
</property>
</configuration>
第三个:hdfs-site.xml ===================
<configuration>
<!-- 设置hdfs副本数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
第四个:mapred-site.xml.template 需要重命名: ===========
[root@testoracle hadoop]# mv mapred-site.xml.template mapred-site.xml
<configuration>
<!-- 通知框架MR使用YARN -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
第五个:yarn-site.xml =======================
<configuration>
<!-- reducer取数据的方式是mapreduce_shuffle -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<name>yarn.resourcemanager.hostname</name>
<value>testoracle</value>
</property>
</configuration>
3.4将hadoop添加到环境变量
#vim /etc/profile
export JAVA_HOME=/usr/java/jdk1.7.0_80
export HADOOP_HOME=/cloud/hadoop-2.2.0
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
source /etc/profile
3.5格式化HDFS(namenode)第一次使用时要 格式化文件系统
hadoop namenode -format (过时了)
#hdfs namenode -format (现在用这个)
3.6启动hadoop
[root@testoracle sbin]# ./start-all.sh (过时了)
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
先启动HDFS
sbin/start-dfs.sh
一直输入:yes
电脑密码: root/dba_2018
再启动YARN
#sbin/start-yarn.sh
JAVA JPS 命令详解
JPS 名称: jps - Java Virtual Machine Process Status Tool
3.7验证是否启动成功
# jps
使用jps命令验证
27408 NameNode ----hdfs 的老大
28218 Jps ----java 相关的命令
27643 SecondaryNameNode ----hdfs 的助理,帮助数据同步
28066 NodeManager ----YARN 的小弟
27803 ResourceManager ----YARN 的老大,资源的分配 调度
27512 DataNode ----hdfs 的小弟
http://192.168.210.82:50070 (HDFS管理界面)
http://192.168.210.82:8088 (MR管理界面YARN)
修改本地机器: C:\Windows\System32\drivers\etc\hosts
添加:192.168.210.82 testoracle
[root@testoracle sbin]# hadoop fs
【上传】
[root@testoracle hadoop]# hadoop fs -put jdk-7u80-linux-x64.tar.gz hdfs://testoracle:9000/jdk
[root@testoracle hadoop]#
【下载】
[root@testoracle bin]# hadoop fs -get hdfs://testoracle:9000/jdk /home/jdk1.7
[root@testoracle bin]#
[root@testoracle mapreduce]# pwd
/cloud/hadoop-2.2.0/share/hadoop/mapreduce
[root@testoracle mapreduce]# hadoop fs -put words hdfs://testoracle:9000/words
[root@testoracle mapreduce]# hadoop fs -ls hdfs://testoracle:9000/
Found 2 items
-rw-r--r-- 1 root supergroup 153530841 2018-11-06 15:17 hdfs://testoracle:9000/jdk
-rw-r--r-- 1 root supergroup 54 2018-11-06 15:41 hdfs://testoracle:9000/words
[root@testoracle mapreduce]# hadoop fs -ls /
[root@testoracle mapreduce]# hadoop jar hadoop-mapreduce-examples-2.2.0.jar wordcount hdfs://testoracle:9000/words hdfs://testoracle:9000/bai_count_words
[root@testoracle mapreduce]# hadoop fs -cat /bai_count_words/part-r-00000
dsda 1
hello 5
sdsds 1
tin 1
tom 2
4.配置ssh免登陆
生成ssh免登陆密钥
cd ~,进入到我的home目录
cd .ssh/
[root@testoracle sbin]# ssh-keygen -t rsa(四个回车)
执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
[root@testoracle sbin]# cd ~
[root@testoracle ~]# cd .ssh/
[root@testoracle .ssh]# ll
[root@testoracle .ssh]# more id_rsa.pub
将公钥拷贝到要免登陆的机器上
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
或
ssh-copy-id -i localhost
【ssh 再也不要密码了】
[root@testoracle .ssh]# ssh testoracle
Last login: Tue Nov 6 16:31:26 2018 from testoracle
[root@testoracle ~]#
bayaim_hadoop1_2.2.0伪分布式搭建的更多相关文章
- spark1.6.0伪分布式搭建
环境: hadoop2.6.0 jdk1.8 ubuntu 14.04 64位 1 安装scala环境 版本是scala-2.10.6,官网下载地址http://www.scala-lang.org/ ...
- hadoop2.4.0伪分布式搭建以及分布式关机重启后datanode没起来的解决办法
1.准备Linux环境 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip ...
- hadoop2.2.0伪分布式搭建3--安装Hadoop
3.1上传hadoop安装包 3.2解压hadoop安装包 mkdir /cloud #解压到/cloud/目录下 tar -zxvf hadoop-2.2.0.tar.gz -C /cloud/ 3 ...
- hadoop2.2.0伪分布式搭建1--准备Linux环境
1.0修改网关 点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:19 ...
- hadoop2.2.0伪分布式搭建
1.准备Linux环境 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ...
- Hadoop2.6.0伪分布式搭建
环境: 1.Ubuntu14.04 首先要在linux系统上新建一个账户,比如就叫做hadoop,用于专门运行hadoop. 2.配置jdk 我是使用的版本是jdk1.8. 解压:创建/usr/jav ...
- hadoop2.2.0伪分布式搭建2--安装JDK
2.1上传FileZilla 上传 https://filezilla-project.org/ 2.2解压jdk #创建文件夹 mkdir /usr/java #解压 tar -zxvf jdk-7 ...
- Spark2.4.0伪分布式环境搭建
一.搭建环境的前提条件 环境:ubuntu-16.04 hadoop-2.6.0 jdk1.8.0_161. spark-2.4.0-bin-hadoop2.6.这里的环境不一定需要和我一样,基本版 ...
- Hadoop2.5.0伪分布式环境搭建
本章主要介绍下在Linux系统下的Hadoop2.5.0伪分布式环境搭建步骤.首先要搭建Hadoop伪分布式环境,需要完成一些前置依赖工作,包括创建用户.安装JDK.关闭防火墙等. 一.创建hadoo ...
随机推荐
- js相同的正则多次调用test()返回的值却不同
项目中文件上传需要验证文件的格式,第一次正常,第二次就验证不通过了.在验证的地方console.log()两遍,发现结果不一样 !!! 正则和文件名都没变,但是两次的验证结果不同. this.reg ...
- mysql安装及简单操作
sudo grep mysql_root_passwd /root/env.txt (现在很多人开始使用云主机,登录云主机之后可以根据该命令查看阿里云数据库密码) mysql 安装:rpm+retha ...
- 26-限制容器对CPU的使用
默认设置下,所有容器可以平等地使用 host CPU 资源并且没有限制. Docker 可以通过 -c 或 --cpu-shares 设置容器使用 CPU 的权重.如果不指定,默认值为 1024. 与 ...
- php对微信支付回调处理的方法(合集)
支付完成后,微信会把相关支付结果和用户信息发送给商户,商户需要接收处理,并返回应答. 对后台通知交互时,如果微信收到商户的应答不是成功或超时,微信认为通知失败,微信会通过一定的策略定期重新发起通知,尽 ...
- FreeRTOS操作系统,在按键中断函数中恢复被挂起的任务,程序卡死的原因和解决办法
出现问题场景: 作为刚接触FreeRTOS实时操作系统的菜鸟,我在练习一个程序功能:按键3按下,将LED闪烁的任务挂起:按键4按下,将LED闪烁的任务恢复到就绪.按键使用外部中断.恢复就绪 ...
- Linux下基于shell脚本实现学生信息管理系统
#该管理系统是参考两位博主(时间有点远了,我忘了,请博主看到后联系我)后自行修改添加的.登录过程还有很多不完善,我就抛砖引玉啦. 废话不多,直接上码! #!/bin/bash# 学生管理系统# @ve ...
- TensorFlow从1到2(十四)评估器的使用和泰坦尼克号乘客分析
三种开发模式 使用TensorFlow 2.0完成机器学习一般有三种方式: 使用底层逻辑 这种方式使用Python函数自定义学习模型,把数学公式转化为可执行的程序逻辑.接着在训练循环中,通过tf.Gr ...
- LeetCode 1245 树的直径
地址 https://leetcode-cn.com/contest/biweekly-contest-12/problems/tree-diameter/ 给你这棵「无向树」,请你测算并返回它的「直 ...
- C语言中倒序输出你输入的数。
int n; scanf("%d",&n); while(n>0) { printf("%d",n%10); n/=10; //其实就是n的自除 ...
- Python连载44-XML其他注意点
一.XML文件注意点 1.内容中不能出现尖括号 例如:下面是不合法的 <grade>成绩<90</grade> 解决方案:使用实体引用<EntityReferenc ...