Hadoop2.7.7 centos7 完全分布式 配置与问题随记

这里是当初在三个ECS节点上搭建hadoop+zookeeper+hbase+solr的主要步骤,文章内容未经过润色,请参考的同学搭配其他博客一同使用,并记得根据实际情况调整相关参数。

 

0.prepare

jdk,推荐1.8

关闭防火墙

开放ECS安全组

 三台机器之间的免密登陆ssh

ip映射:【question1】hadoop启动时出现报错java.net.BindException: Cannot assign requested address

说明ip映射没有配置正确,正确的方式是在每一个节点上,都执行"内外外"的配置方式,即将本机与本机的内网ip对应,其他机器设置为外网ip

下面的文件要在每个节点上都修改

 

1. vi /etc/profile

  1. 1. vi /etc/profile
  2. /opt/hadoop/hadoop-2.7.7
  3. export HADOOP_HOME=/opt/hadoop/hadoop-2.7.7
  4. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
  5. export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
  6. export PATH=.:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH
  7. #使环境变量生效
  8. souce /etc/profile
  9. #检验
  10. hadoop version

 

2. vi /.../hadoop-2.7.7/etc/hadoop/core-site.xml

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://Gwj:8020</value>
  5. <description>定义默认的文件系统主机和端口</description>
  6. </property>
  7. <property>
  8. <name>io.file.buffer.size</name>
  9. <value>4096</value>
  10. <description>流文件的缓冲区为4K</description>
  11. </property>
  12. <property>
  13. <name>hadoop.tmp.dir</name>
  14. <value>file:/opt/hadoop/hadoop-2.7.7/tempdata</value>
  15. <description>A base for other temporary directories.</description>
  16. </property>
  17. </configuration>

 

3. vi /.../hadoop-2.7.7/etc/hadoop/hdfs-site.xml

  1. <configuration>
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>2</value>
  5. </property>
  6. <property>
  7. <name>dfs.namenode.name.dir</name>
  8. <value>/opt/hadoop/hadoop-2.7.7/dfs/name</value>
  9. </property>
  10. <property>
  11. <name>dfs.datanode.data.dir</name>
  12. <value>/opt/hadoop/hadoop-2.7.7/dfs/data</value>
  13. </property>
  14. <property>
  15. <name>dfs.webhdfs.enabled</name>
  16. <value>true</value>
  17. </property>
  18.     <!--后增,如果想让solr索引存放到hdfs中,则还须添加下面两个属性-->
  19.         <property>
  20.             <name>dfs.webhdfs.enabled</name>
  21.             <value>true</value>
  22.         </property>
  23.         <property>
  24.             <name>dfs.permissions.enabled</name>
  25.             <value>false</value>
  26.         </property>
  27.         
  28.         <!--【question2】SecondayNameNode默认与NameNode在同一台节点上,在实际生产过程中有安全隐患。解决方法:加入如下配置信息,指定NameNode和SecondaryNameNode节点位置-->
  29. <property>
  30. <name>dfs.http.address</name>
  31. <value>Gwj:50070</value>
  32. </property>
  33. <property>
  34. <name>dfs.namenode.secondary.http-address</name>
  35. <value>Ssj:50090</value>
  36. </property>
  37. </configuration>

 

4. vi /.../hadoop-2.7.7/etc/hadoop/mapred-site.xml

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>local</value>
  5. </property>
  6. <!-- 指定mapreduce jobhistory地址 -->
  7. <property>
  8. <name>mapreduce.jobhistory.address</name>
  9. <value>0.0.0.0:10020</value>
  10. </property>
  11. <!-- 任务历史服务器的web地址 -->
  12. <property>
  13. <name>mapreduce.jobhistory.webapp.address</name>
  14. <value>0.0.0.0:19888</value>
  15. </property>
  16. </configuration>

 

5. vi /.../hadoop-2.7.7/etc/hadoop/yarn-site.xml

  1. <configuration>
  2. <property>
  3. <name>yarn.resourcemanager.hostname</name>
  4. <value>Gwj</value>
  5. <description>指定resourcemanager所在的hostname</description>
  6. </property>
  7. <property>
  8. <name>yarn.nodemanager.aux-services</name>
  9. <value>mapreduce_shuffle</value>
  10. <description>NodeManager上运行的附属服务。需配置成mapreduce_shuffle,才可运行MapReduce程序 </description>
  11. </property>
  12. </configuration>

 

6.vi /.../hadoop-2.7.7/etc/hadoop/slaves

老版本是slaves文件,3.0.3 用 workers 文件代替 slaves 文件

  1. localhost删掉,加入dataNode节点的主机名
  2. [root@Gwj ~]# cat /opt/hadoop/hadoop-2.7.7/etc/hadoop/slaves
  3. Ssj
  4. Pyf

 

7.首次使用进行格式化

  1. hdfs namenode -format

 

8.启动

  1. /.../hadoop-2.7.7/sbin/start/start-all.sh
  2. hdfs
  3. /.../hadoop-2.7.7/sbin/start/start-dfs.sh
  4. Yarn
  5. /.../hadoop-2.7.7/sbin/start/start-yarn.sh
  6. #start可替换为stop、status

 

9.检验

  1. 使用jps检验
  2. hadoop
  3. hdfs
  4. Master---NameNode (SecondaryNameNode)
  5. Slave---DataNode
  6. Yarn
  7. Master---ResourceManager
  8. Slave---NodeManager

或者使用 “Master ip+50070”

 

  1. ---以下的yarn未设置,注意<configuration>!!!
  2. <property>
  3. <name>yarn.resourcemanager.address</name>
  4. <value>${yarn.resourcemanager.hostname}:8032</value>
  5. </property>
  6. <property>
  7. <description>The address of the scheduler interface.</description>
  8. <name>yarn.resourcemanager.scheduler.address</name>
  9. <value>${yarn.resourcemanager.hostname}:8030</value>
  10. </property>
  11. <property>
  12. <description>The http address of the RM web application.</description>
  13. <name>yarn.resourcemanager.webapp.address</name>
  14. <value>${yarn.resourcemanager.hostname}:8088</value>
  15. </property>
  16. <property>
  17. <description>The https adddress of the RM web application.</description>
  18. <name>yarn.resourcemanager.webapp.https.address</name>
  19. <value>${yarn.resourcemanager.hostname}:8090</value>
  20. </property>
  21. <property>
  22. <name>yarn.resourcemanager.resource-tracker.address</name>
  23. <value>${yarn.resourcemanager.hostname}:8031</value>
  24. </property>
  25. <property>
  26. <description>The address of the RM admin interface.</description>
  27. <name>yarn.resourcemanager.admin.address</name>
  28. <value>${yarn.resourcemanager.hostname}:8033</value>
  29. </property>
  30. <property>
  31. <name>yarn.scheduler.maximum-allocation-mb</name>
  32. <value>2048</value>
  33. <discription>每个节点可用内存,单位MB,默认8182MB,根据阿里云ECS性能配置为2048MB</discription>
  34. </property>
  35. <property>
  36. <name>yarn.nodemanager.vmem-pmem-ratio</name>
  37. <value>2.1</value>
  38. </property>
  39. <property>
  40. <name>yarn.nodemanager.resource.memory-mb</name>
  41. <value>2048</value>
  42. </property>
  43. <property>
  44. <name>yarn.nodemanager.vmem-check-enabled</name>
  45. <value>false</value>
  46. </property>
  47. </configuration>

 

Hadoop2.7.7 centos7 完全分布式 配置与问题随记的更多相关文章

  1. hadoop安装教程,分布式配置 CentOS7 Hadoop3.1.2

    安装前的准备 1. 准备4台机器.或虚拟机 4台机器的名称和IP对应如下 master:192.168.199.128 slave1:192.168.199.129 slave2:192.168.19 ...

  2. 在Linux(Centos7)系统上对进行Hadoop分布式配置以及运行Hadoop伪分布式实例

    在Linux(Centos7)系统上对进行Hadoop分布式配置以及运行Hadoop伪分布式实例                                                     ...

  3. Data - Hadoop伪分布式配置 - 使用Hadoop2.8.0和Ubuntu16.04

    系统版本 anliven@Ubuntu1604:~$ uname -a Linux Ubuntu1604 4.8.0-36-generic #36~16.04.1-Ubuntu SMP Sun Feb ...

  4. Ubuntu14.04下hadoop-2.6.0单机配置和伪分布式配置

    需要重新编译的教程:http://blog.csdn.net/ggz631047367/article/details/42460589 在Ubuntu下创建hadoop用户组和用户 hadoop的管 ...

  5. Hadoop安装教程_单机/伪分布式配置_CentOS6.4/Hadoop2.6.0

    Hadoop安装教程_单机/伪分布式配置_CentOS6.4/Hadoop2.6.0 环境 本教程使用 CentOS 6.4 32位 作为系统环境,请自行安装系统.如果用的是 Ubuntu 系统,请查 ...

  6. 分布式配置hadoop2.5.0 2.6.x

    1. sudo vim /etc/hostname 在master的机器上,改成     master 在slave上写  slave01,02,03...... 配置好后重启. 2. sudo vi ...

  7. CentOS7-64bit 编译 Hadoop-2.5.0,并分布式安装

    摘要 CentOS7-64bit 编译 Hadoop-2.5.0,并分布式安装 目录[-] 1.系统环境说明 2.安装前的准备工作 2.1 关闭防火墙 2.2 检查ssh安装情况,如果没有则安装ssh ...

  8. 转载:Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    原文 http://www.powerxing.com/install-hadoop/ 当开始着手实践 Hadoop 时,安装 Hadoop 往往会成为新手的一道门槛.尽管安装其实很简单,书上有写到, ...

  9. Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    摘自: http://www.cnblogs.com/kinglau/p/3796164.html http://www.powerxing.com/install-hadoop/ 当开始着手实践 H ...

随机推荐

  1. Java实现 泊松分酒

    泊松是法国数学家.物理学家和力学家.他一生致力科学事业,成果颇多.有许多著名的公式定理以他的名字命名,比如概率论中著名的泊松分布. 有一次闲暇时,他提出过一个有趣的问题,后称为:"泊松分酒& ...

  2. Java实现第八届蓝桥杯9算数式

    9算数式 题目描述 观察如下的算式: 9213 x 85674 = 789314562 左边的乘数和被乘数正好用到了1~9的所有数字,每个1次. 而乘积恰好也是用到了1~9的所有数字,并且每个1次. ...

  3. 从程序员到项目主管再到项目总监,一个IT从业者三个职业生涯阶段的工作生活日常

    这是王不留的第 8 篇原创文章 前段时间写过<王不留的十多年工作和生活的流水帐>,在知乎.简书,还有不少微信的朋友私信问我每天四点钟是如何做到的?你现在的作息时间是怎么安排的? 于是,我将 ...

  4. thinkphp5升级thinkphp6完整步骤

    在php.ini文件中  打开  php_openssl扩展,去掉前面的;extension=php_openssl.dll 在phpstudy的WWW目录打开cmd,输入composer creat ...

  5. tensorflow2.0学习笔记第二章第四节

    2.4损失函数损失函数(loss):预测值(y)与已知答案(y_)的差距 nn优化目标:loss最小->-mse -自定义 -ce(cross entropy)均方误差mse:MSE(y_,y) ...

  6. 面试官突然问我MySQL存储过程,我竟然连基础都不会!(详细)

    所有知识体系文章,GitHub已收录,欢迎Star!再次感谢,愿你早日进入大厂! GitHub地址: https://github.com/Ziphtracks/JavaLearningmanual ...

  7. 深入理解JVM(③)低延迟的Shenandoah收集器

    前言 Shenandoah作为第一款不由Oracle(包括一起的Sun)公司的虚拟机团队所领导开发的HotSpot垃圾收集器.是只存在于OpenJDK当中的,最初由RedHat公司创建的,在2014年 ...

  8. [搬运]Intellij IDEA 汉化

    Github地址: https://github.com/pingfangx/TranslatorX

  9. cc28c_demo.cpp,派生类的构造函数和析构函数-代码示范3

    cc28c_demo.cpp,派生类的构造函数和析构函数-代码示范3 //派生类的构造函数和析构函数//派生类的构造函数(执行步骤)//--执行基类的构造函数//--执行成员对象的构造函数//--执行 ...

  10. Linux性能优化思路

    性能测试的核心,就是找出性能瓶颈并进行性能优化,解决"慢"的问题,最终满足客户业务需求. [性能需求来源及性能问题现象] 性能需求的来源,主要分为以下几类: 项目组提出性能需求: ...