hadoop

安装jdk

配置文件:
sudo vim /etc/profile
配置文件:
export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
重新加载配置文件:
source /etc/profile
验证是否成功:
java -version

配置ssh免密登录

安装ssh:
sudo ape-get install ssh
产生ssh key:
ssh-keygen -t rsa
查看ssh key:
ll ~/.ssh
将id_rsa.pub放许可证文件:
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
更改权限:
chmod 755~
chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys
验证是否成功:
ssh -Version
用hostname查看主机名:
ssh ubuntu(主机名)
退出ssh:exit

hadoop安装

1.解压安装包
cd 到想要安装的目录:
tar -zxvf hadoop-3.1.1.tar.gz

hadoop环境变量配置准备

1.查看本机ip:
ifconfig
本机ip为:192.168.232.9
2.查看主机名:
hostname
本机主机名为:nbuntu
3.将ip地址和主机名写进/etc/hosts:
sudo vim /etc/hosts

环境变量配置

1.编辑配置文件
sudo vim ~/.bashrc
export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
export HADOOP_HOME=/home/hadoop01/hadoop-3.1.1
export PATH=$PATH:$HADOOP_HOME/binexport PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib :$HADOOP_COMMON_LIB_NATIVE_DIR"
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
在 /etc/profile添加
export HADOOP_HOME=/home/hadoop01/hadoop-3.1.1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
配置好之后,重新加载一下source /etc/profile
source ~/.bashrc
2.检查是否成功
hadoop version

修改hadoop配置文件

1.修改hadoop-env.sh
sudo vim ./hadoop-3.1.1/etc/hadoop/hadoop-env.sh
添加export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
2.在/home/hadoop01/hadoop-3.1.1/etc/hadoop目录下:
修改core-site.xml
sudo vim core-site.xml
添加:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.232.9:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop01/hadoop-3.1.1/dataNode_1_dir</value>
</property>
</configuration>
3.修改sudo vim yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>192.168.232.9</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
4.修改mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
5.修改sudo vim hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/datanode</value>
</property>
<property>
<name>dfs.http.address</name>
<value>192.168.232.9:50070</value>
</property> </configuration>
修改/etc/profile
sudo vim /etc/profile
export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export HADOOP_HOME=/home/hadoop01/hadoop-3.1.1 6.创建并格式化文件系统
mkdir -p /home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/namenode
mkdir -p /home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/datanode
mkdir -p /home/hadoop01/hadoop-3.1.1/dataNode_1_dir/datanode
格式化:
hdfs namenode -format

bug

1.如果出现找不到native本地库的情况,需要在hadoop-env.sh里面加入native的路径,然后重新格式化一下namenode,即可成功。
2.不要轻易格式化namenode,关机需要先关所有进程,避免下次丢失。
结点出不来就格式化,先删文件夹再格式化,要删干净 3.修改ip:sudo vim /etc/netplan/01-network-manager-all.yaml
network:
ethernets:
ens33:
addresses: [192.168.232.1/24]
gateway4: 192.168.232.2
nameservers:
addresses: [114.114.114.114,8.8.8.8]
version: 2
renderer: NetworkManager
生效:sudo netplan apply 修改主机名:sudo vim /etc/hostname 然后解析主机:vim /etc/resolv.conf
nameserver 114.114.114.114
nameserver 8.8.8.8 修改完主机名需要改一下:
sudo vim /etc/hosts
127.0.0.1 localhost
ip 主机名 ping不通百度

hadoop配置day01的更多相关文章

  1. hadoop配置优化

    yarn-site.xml <property> <name>yarn.nodemanager.resource.memory-mb</name> <valu ...

  2. hadoop配置错误

    经过上一周的郁闷期(拖延症引发的郁闷),今天终于开始步入正轨了.今天主要是解决hadoop配置的错误以及网络时断时续的问题. 首先说明一下之前按照这篇文章的方法配置完全没有问题,但是等我配置好了发现h ...

  3. Hadoop 配置好hive,第一次在conf能进入,第二次就不行了,怎么办?

    问题描述: 在 Hadoop 配置好 hive 数据仓库,在conf目录下通过hive命令进入hive数据仓库,非常顺利.  但关闭终端,第二次按这种方式却显示,无次命令. 怎么办? 解决办法: 在h ...

  4. Centos7中hadoop配置

    Centos7中hadoop配置 1.下载centos7安装教程: http://jingyan.baidu.com/article/a3aad71aa180e7b1fa009676.html (注意 ...

  5. Hadoop配置第2节-JDK的安装

    Hadoop配置-JDK的安装 总体目标:完成zookeeper+Hadoop+Hbase 整合平台搭建   进度:1:集群网络属性配置2:集群免密码登陆配置3:JDK的安装4:Zookeeper的安 ...

  6. Hadoop配置要点必看

    hadoop 配置要点 软件 版本 java 1.8.0_151 hadoop 2.6.1 part1 $HADOOP_HOME/etc/hadoop 目录下配置参数. slaves 配置从节点 ya ...

  7. hadoop生态搭建(3节点)-04.hadoop配置

    如果之前没有安装jdk和zookeeper,安装了的请直接跳过 # https://www.oracle.com/technetwork/java/javase/downloads/java-arch ...

  8. nutch+hadoop 配置使用

    nutch+hadoop 配置使用 配置nutch+hadoop 1,下载nutch.如果不需要特别开发hadoop,则不需要下载hadoop.因为nutch里面带了hadoop core包以及相关配 ...

  9. Docker Hadoop 配置常见错误及解决办法

    Docker Hadoop 配置常见错误及解决办法 问题1:wordcount运行卡住,hadoop 任务运行到running job就卡住了 INFO mapreduce.Job: Running ...

随机推荐

  1. 「题解报告」CF1067A Array Without Local Maximums

    大佬们的题解都太深奥了,直接把转移方程放出来让其他大佬们感性理解,蒟蒻们很难理解,所以我就写了一篇让像我一样的蒟蒻能看懂的题解 原题传送门 动态规划三部曲:确定状态,转移方程,初始状态和答案. --神 ...

  2. DataGridVIew控件绑定数据之后的,增、插、删操作

    最开始没有绑定数据,很快就实现了增.插.删操作,可是绑定数据之后,进行这些操作就会报错. 网上对这方面的资料比较少,自己摸索着找到了解决方法,也就是直接对绑定的数据进行操作,这里以DataTable为 ...

  3. KingbaseES R6 集群物理copy方式手工添加新备库节点

    案例说明: 对于主库数据量比较大的环境,在添加新节点是可以采用在线clone方式创建新的备库节点,也可以在离线的状态下,直接拷贝其中一个备库的所有集群相关目录来创建新的备库节点.本案例介绍了通过离线物 ...

  4. 详谈 MySQL 8.0 原子 DDL 原理

    柯煜昌 青云科技研发顾问级工程师 目前从事 RadonDB 容器化研发,华中科技大学研究生毕业,有多年的数据库内核开发经验. 文章字数 3800+,阅读时间 15 分钟 背景 MySQL 5.7 的字 ...

  5. mocha、chai和supertest单元测试

    mocha单元测试 1. 因为有时候在代码中加了新的东西需要反复测试接口 或者 别人要求 重新跑接口非常的繁琐 2. 所有我们需要一个帮我们重复测试的东西  那就是mocha 3. 先下载 一定不要全 ...

  6. Promtail 配置文件说明

    转载自:https://mp.weixin.qq.com/s?__biz=MzU4MjQ0MTU4Ng==&mid=2247492163&idx=1&sn=56b26aa387 ...

  7. Kubernetes 安全

    RBAC 权限控制 对资源对象的操作都是通过 APIServer 进行的,那么集群是怎样知道我们的请求就是合法的请求呢?这个就需要了解 Kubernetes 中另外一个非常重要的知识点了:RBAC(基 ...

  8. Redis从入门到高级笔记【涵盖重点面试题】

    NoSQL数据库 DBEngines网站中会统计目前数据库在全世界的排名 1.1 什么是NoSQL 最常见的解释是"non-relational",很多人说它是"Not ...

  9. Jmix 中 REST API 的两种实现

    你知道吗,在 Jmix 中,REST API 有两种实现方式! 很多应用是采取前后端分离的方式进行开发.这种模式下,对前端的选择相对灵活,可以根据团队的擅长技能选择流行的 Angular/React/ ...

  10. 定制开发 ERP 的优势有哪些?

    定制开发ERP对企业而言是把双刃剑,成败难以把握.定制开发ERP理论上来讲是最贴合企业业务需求的,因为它是按企业需求定制,看上去似乎没什么毛病,但ERP是专业性极强的业务逻辑极其复杂的软件系统,有两个 ...