hadoop部署步骤:

环境rhel8.2

1.配置主机网络信息

使物理机能和主机ping通

使用secureCRT与虚拟连接

设置网卡(dhcp)

[root@maoqiyang ~]# nmcli device connect ens160
Device 'ens160' successfully activated with '4a5b3266-42ad-4e0f-a17d-8f200cc67def'.

2.设置主机名,绑定主机名与ip地址

[root@maoqiyang ~]# hostnamectl set-hostname maoqiyang
[root@maoqiyang ~]# bash
[root@maoqiyang ~]# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 172.16.0.99 maoqiyang
[root@maoqiyang ~]# ping maoqiyang
PING maoqiyang (172.16.0.99) 56(84) bytes of data.
64 bytes from maoqiyang (172.16.0.99): icmp_seq=1 ttl=64 time=0.062 ms
^C

3.开启sshd。关闭防火墙与selinux

systemctl  enable  --now sshd
systemctl stop firewalld
systemctl disable firewalld
sed -i 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config
setenforce 0

4.创建hadoop并设置密码

[root@maoqiyang ~]# useradd hadoop && echo '123' | passwd --stdin hadoop
Changing password for user hadoop.
passwd: all authentication tokens updated successfully.
[root@maoqiyang ~]# cat /etc/shadow | grep hadoop
hadoop:$6$iQ9ZfF0I9gIglEZm$YLyxw22TvWnt63or457hOPBEkY6fCoBnEVpOcT7PcY2XDY3YhzBItoe23ecS5mpKID7x2iqpSbSv/r9s638Kn1:19062:0:99999:7:::
给hadoop提权
vi /etc/sudoers
hadoop maoqiyang=(root) NOPASSWD:ALL

5.安装java环境

1.卸载老版本,安装新版

rpm  -qa | grep  java
rpm -e --nodeps java-1.8.0-openjdk-headless-1.8.0.131-11.b12.el7.x86_64
rpm -e --nodeps java-1.8.0-openjdk-1.8.0.131-11.b12.el7.x86_64
rpm -e --nodeps java-1.7.0-openjdk-headless-1.7.0.141-2.6.10.5.el7.x86_64
rpm -e --nodeps java-1.7.0-openjdk-1.7.0.141-2.6.10.5.el7.x86_64
查看删除结果再次键入命令 java -version
NO such file or directory则成功

2.传文件

(hadoop一会用)

物理机cmd scp
scp jdk-8u152-linux-x64.tar.gz root@172.16.0.99:/root
scp hadoop-2.7.1.tar.gz root@172.16.0.99:/root

3.解压文件

tar -zxvf  jdk-8u152-linux-x64.tar.gz -C /usr/local/src

4.配置jdk环境变量

vi /etc/profile
export JAVA_HOME=/usr/local/src/jdk1.8.0_152
export PATH=$PATH:$JAVA_HOME/bin
source /etc/profile
java -version

6.安装Hadoop软件

tar  -zxvf  ~/hadoop-2.7.1.tar.gz -C  /usr/local/src/
配置环境变量
vi /etc/profile
export HADOOP_HOME=/usr/local/src/hadoop-2.7.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
hadoop #查看是否生效

修改目录的所有者和拥有组让hadoop执行的时候不会有权限问题

chown -R hadoop:hadoop /usr/local/src
ll /usr/local/src

7.安装单机版的hadoop系统

进入hadoop安装的目录
cd /usr/local/src/hadoop-2.7.1/
告诉hadoop系统jdk的目录
vi etc/hadoop/hadoop-env.sh
更改export JAVA_HOME 这行
export JAVA_HOME=/usr/local/src/jdk1.8.0_152
到此设置好了hadoop本地模式

8.运行hadoop

使用hadoop用户来运行hadoop
su - hadoop
将输入的文件放在hadoop家目录的input下
mkdir ~/input
创建输入文件
vi ~/input/data.txt
输入内容
Hello World
Hello Hadoop
Hello Huasan

测试mapreduce运行

hadoop jar /usr/local/src/hadoop-2.7.1/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar  wordcount  ~/input/data.txt  ~/output

hadoop命令 jar包 要做什么(wordcount统计单词数量) 被统计的输入文件 和被统计的输出文件

注意:输出目录不能事先创建,如果已经有~/output 目录,就要选择另外的

输出目录,或者将~/output 目录先删除。删除命令如下所示。

[hadoop@maoqiyang ~]$ rm -rf ~/output

统计多个输入的单词数

hadoop jar /usr/local/src/hadoop-2.7.1/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar  wordcount  ~/input/data.txt  ~/input/abc ~/input/etc/*  ~/output

~/input/data.txt    ~/input/abc   ~/input/etc/*  都会整合到输出文件output里面

Hadoop 部署的更多相关文章

  1. hadoop部署小结的命令

    hadoop部署总结的命令 学习笔记,转自:hadoop部署总结的命令http://www.aboutyun.com/thread-5385-1-1.html(出处: about云开发)

  2. Hadoop 部署文档

    Hadoop 部署文档 1 先决条件 2 下载二进制文件 3 修改配置文件 3.1 core-site.xml 3.2 hdfs-site.xml 3.3 mapred-site.xml 3.4 ya ...

  3. hadoop进阶----hadoop经验(一)-----生产环境hadoop部署在超大内存服务器的虚拟机集群上vs几个内存较小的物理机

    生产环境 hadoop部署在超大内存服务器的虚拟机集群上 好 还是  几个内存较小的物理机上好? 虚拟机集群优点 虚拟化会带来一些其他方面的功能. 资源隔离.有些集群是专用的,比如给你三台设备只跑一个 ...

  4. Hadoop部署方式-完全分布式(Fully-Distributed Mode)

    Hadoop部署方式-完全分布式(Fully-Distributed Mode) 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本博客搭建的虚拟机是伪分布式环境(https://w ...

  5. Hadoop部署方式-伪分布式(Pseudo-Distributed Mode)

    Hadoop部署方式-伪分布式(Pseudo-Distributed Mode) 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.下载相应的jdk和Hadoop安装包 JDK:h ...

  6. Hadoop部署方式-本地模式(Local (Standalone) Mode)

    Hadoop部署方式-本地模式(Local (Standalone) Mode) 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. Hadoop总共有三种运行方式.本地模式(Local ...

  7. hadoop部署中遇到ssh设置的问题

    尽管hadoop和一些培训视频课程上讲分布式部署比较详细,但是在部署时仍遇到了一些小问题,在此mark一下: 1.linux的namenode主机上安装了ssh,也启动了ssh,并且执行了: /etc ...

  8. hadoop部署工具与配置工具

    https://github.com/xianglei/phpHiveAdmin 随着Hadoop的推出,大数据处理实现了技术上的落地.但是对于一般的公司和开发者而言,Hadoop依旧是一个陌生或者难 ...

  9. hadoop部署、启动全套过程

    Hadoop是Apache基金会的开源项目,为开发者提供了一个分布式系统的基础架构,用户可以在不了解分布式系统的底层细节的情况下开发分布式的应用,充分利用集群的强大功能,实现高速运算和存储.Hadoo ...

  10. hadoop部署错误

    hadoop的单机部署很简单也不容易出错,但是对生产环境的价值和意义不大,但是可以快速用于开发. 部署hadoop的错误原因不少,并且很奇怪. 比如,用户名不同,造成客户端和服务器通讯产生认证失败的错 ...

随机推荐

  1. React jsx中js表达式

    嵌入JS表达式 在jsx语法中,要把JS代码写到{ }中,所有标签必须要闭合. let num = 100 let bool = false; // JSX 语法 var myh1 = ( <d ...

  2. linux系统下,安装docker教程,以CentOS8为例

    查看本机的系统信息: 使用命令 lsb_release -a ,可以看到本机是CentOS系统,版本是8.4.2105 一.安装docker 1.Docker的安装要求CentOS系统内核版本要高于3 ...

  3. 从 Redis 开源协议变更到 ES 国产化:一次技术自主的机遇

    引言 近日,Redis Labs 宣布其主导的开源项目 Redis 将采用双重源代码可用许可证(RSALv2)和服务器端公共许可证(SSPLv1).这一重大决策标志着 Redis 从传统的 BSD 许 ...

  4. HTTP报文结构详解

    HTTP/HTTPS简介HTTP 协议是 Hyper Text Transfer Protocol(超文本传输协议)的缩写,是用于从万维网( WWW:World Wide Web )服务器传输超文本到 ...

  5. readonly和disable的区别是什么?

    Readonly和Disabled两种属性的写法如下: 1.<input type="text" name="name" value="xxx& ...

  6. Java格式化手机号和身份证号,中间使用星号*隐藏

    Java格式化手机号和身份证号,中间使用星号*隐藏 package com.example.core.mydemo.java; /** * renterMobile=111****1198 * idN ...

  7. Feign的客户端注解@EnableFeignClients,解决No qualifying bean of type 'xx.xx.类' available注入报错

    //如果使用Feign的客户端,请放开下列注释@EnableFeignClientsNo qualifying bean of type 'xx.xx.类' available //需要添加扫描的路径 ...

  8. SHOW PROCESSLIST 最多能显示多长的 SQL?

    在 MySQL 中,如果我们想查看实例当前正在执行的 SQL,常用的命令是SHOW PROCESSLIST. 但如果 SQL 过长的话,就会被截断.这时,我们一般会用SHOW FULL PROCESS ...

  9. HBase2版本的修复工具HBCK2

    一.hbase出现的问题 1.元数据表hbase:namespace 不在线 导致查询数据时 master is initing 2.一些表的region一直处于opening状态 3.region ...

  10. mtr和traceroute的区别,以及为什么traceroute不显示路径mtr却可以显示路径

    最近工作主要都是网络策略的开通和网络测试,在测试的过程当中发现当网络不通时,用traceroute来看路由路径的时候总是无法显示出来,于是就换了个工具-mtr,发现mtr可以正常显示出路由路径,帮助我 ...