Hadoop平台配置汇总

@(Hadoop)


Hadoop

hadoop-env.sh和yarn-env.sh中export log和pid的dir即可和JAVA_HOME。

core-site.xml

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://ns1</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/data2/hadoop/tmp</value>
  9. </property>
  10. <property>
  11. <name>ha.zookeeper.quorum</name>
  12. <value>zx-hadoop-210-11:2181,zx-hadoop-210-12:2181,zx-hadoop-210-31:2181</value>
  13. </property>
  14. </configuration>

hdfs-site.xml


  1. <configuration>
  2. <property>
  3. <name>dfs.name.dir</name>
  4. <value>/data2/hadoop/hdfs/name</value>
  5. </property>
  6. <property>
  7. <name>dfs.data.dir</name>
  8. <value>/data2/hadoop/hdfs/data</value>
  9. </property>
  10. <property>
  11. <name>dfs.hosts</name>
  12. <value>/usr/local/bigdata/hadoop/etc/hadoop/datanode-allow.list</value>
  13. </property>
  14. <property>
  15. <name>dfs.hosts.exclude</name>
  16. <value>/usr/local/bigdata/hadoop/etc/hadoop/datanode-deny.list</value>
  17. </property>
  18. <property>
  19. <name>dfs.nameservices</name>
  20. <value>ns1</value>
  21. </property>
  22. <property>
  23. <name>dfs.ha.namenodes.ns1</name>
  24. <value>nn1,nn2</value>
  25. </property>
  26. <property>
  27. <name>dfs.namenode.rpc-address.ns1.nn1</name>
  28. <value>zx-hadoop-210-11:9000</value>
  29. </property>
  30. <property>
  31. <name>dfs.namenode.http-address.ns1.nn1</name>
  32. <value>zx-hadoop-210-11:50070</value>
  33. </property>
  34. <property>
  35. <name>dfs.namenode.rpc-address.ns1.nn2</name>
  36. <value>zx-hadoop-210-12:9000</value>
  37. </property>
  38. <property>
  39. <name>dfs.namenode.http-address.ns1.nn2</name>
  40. <value>zx-hadoop-210-12:50070</value>
  41. </property>
  42. <property>
  43. <name>dfs.namenode.shared.edits.dir</name>
  44. <value>qjournal://zx-hadoop-210-11:8485;zx-hadoop-210-12:8485;zx-hadoop-210-31:8485/ns1</value>
  45. </property>
  46. <property>
  47. <name>dfs.journalnode.edits.dir</name>
  48. <value>/data2/hadoop/journal</value>
  49. </property>
  50. <property>
  51. <name>dfs.ha.automatic-failover.enabled</name>
  52. <value>true</value>
  53. </property>
  54. <property>
  55. <name>dfs.client.failover.proxy.provider.ns1</name>
  56. <value>
  57. org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
  58. </value>
  59. </property>
  60. <property>
  61. <name>dfs.ha.fencing.methods</name>
  62. <value>
  63. sshfence
  64. shell(/bin/true)
  65. </value>
  66. </property>
  67. <property>
  68. <name>dfs.ha.fencing.ssh.private-key-files</name>
  69. <value>/home/hadoop/.ssh/id_rsa</value>
  70. </property>
  71. <property>
  72. <name>dfs.ha.fencing.ssh.connect-timeout</name>
  73. <value>30000</value>
  74. </property>
  75. </configuration>

yarn-site.xml

  1. <configuration>
  2. <property>
  3. <name>yarn.resourcemanager.hostname</name>
  4. <value>zx-hadoop-210-11</value>
  5. </property>
  6. <property>
  7. <name>yarn.nodemanager.aux-services</name>
  8. <value>mapreduce_shuffle</value>
  9. </property>
  10. <property>
  11. <name>yarn.log-aggregation-enable</name>
  12. <value>true</value>
  13. </property>
  14. <property>
  15. <name>yarn.nodemanager.remote-app-log-dir</name>
  16. <value>/data2/hadoop/logs/yarn</value>
  17. </property>
  18. <property>
  19. <name>yarn.log-aggregation.retain-seconds</name>
  20. <value>259200</value>
  21. </property>
  22. <property>
  23. <name>yarn.log-aggregation.retain-check-interval-seconds</name>
  24. <value>3600</value>
  25. </property>
  26. </configuration>

mapred-site.xml

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. </configuration>

HBase

hbase-env.sh

  1. export JAVA_HOME=/usr/java/jdk1.7.0_55
  2. export HBASE_MANAGES_ZK=false
  3. export HBASE_OPTS="-XX:+UseConcMarkSweepGC"
  4. export HBASE_PID_DIR=/data2/hadoop/pid
  5. export HBASE_LOG_DIR=/data2/hadoop/logs/hbase

hbase-site.xml

  1. <configuration>
  2. <property>
  3. <name>hbase.rootdir</name>
  4. <value>hdfs://ns1/hbase</value>
  5. </property>
  6. <property>
  7. <name>hbase.cluster.distributed</name>
  8. <value>true</value>
  9. </property>
  10. <property>
  11. <name>hbase.zookeeper.quorum</name>
  12. <value>zx-hadoop-210-11:2181,zx-hadoop-210-12:2181,zx-hadoop-210-31:2181</value>
  13. </property>
  14. <property>
  15. <name>hbase.master</name>
  16. <value>zx-hadoop-210-11</value>
  17. </property>
  18. <property>
  19. <name>zookeeper.session.timeout</name>
  20. <value>6000000</value>
  21. </property>
  22. </configuration>

作者:@小黑

Hadoop平台配置汇总的更多相关文章

  1. Hadoop平台配置总结

    hadoop的配置,个人感觉是非常容易出问题.一个原因是要配置的地方多,还有个原因就是集群配置要在几台机器上都配置正确,才能保证配置好hadoop,跑起任务. 经过昨晚加今天上午的折腾,总算成功配好了 ...

  2. 大数据Hadoop平台安装及Linux操作系统环境配置

    配置 Linux 系统基础环境 查看服务器的IP地址 设置服务器的主机名称 hostnamectl set-hostname hadoop hostname可查看 绑定主机名与IP 地址 vim /e ...

  3. 高可用Hadoop平台-运行MapReduce程序

    1.概述 最近有同学反应,如何在配置了HA的Hadoop平台运行MapReduce程序呢?对于刚步入Hadoop行业的同学,这个疑问却是会存在,其实仔细想想,如果你之前的语言功底不错的,应该会想到自动 ...

  4. 高可用Hadoop平台-启航

    1.概述 在上篇博客中,我们搭建了<配置高可用Hadoop平台>,接下来我们就可以驾着Hadoop这艘巨轮在大数据的海洋中遨游了.工欲善其事,必先利其器.是的,没错:我们开发需要有开发工具 ...

  5. 高可用Hadoop平台-Flume NG实战图解篇

    1.概述 今天补充一篇关于Flume的博客,前面在讲解高可用的Hadoop平台的时候遗漏了这篇,本篇博客为大家讲述以下内容: Flume NG简述 单点Flume NG搭建.运行 高可用Flume N ...

  6. 大数据Hadoop学习之搭建hadoop平台(2.2)

    关于大数据,一看就懂,一懂就懵. 一.概述 本文介绍如何搭建hadoop分布式集群环境,前面文章已经介绍了如何搭建hadoop单机环境和伪分布式环境,如需要,请参看:大数据Hadoop学习之搭建had ...

  7. Hadoop平台基本组成

    1.Hadoop系统运行于一个由普通商用服务器组成的计算集群上,能提供大规模分布式数据存储资源的同时,也提供了大规模的并行化计算资源. 2.Hadoop生态系统 3.MapReduce并行计算框架 M ...

  8. 高可用Hadoop平台-Oozie工作流之Hadoop调度

    1.概述 在<高可用Hadoop平台-Oozie工作流>一篇中,给大家分享了如何去单一的集成Oozie这样一个插件.今天为大家介绍如何去使用Oozie创建相关工作流运行与Hadoop上,已 ...

  9. 高可用Hadoop平台-Hue In Hadoop

    1.概述 前面一篇博客<高可用Hadoop平台-Ganglia安装部署>,为大家介绍了Ganglia在Hadoop中的集成,今天为大家介绍另一款工具——Hue,该工具功能比较丰富,下面是今 ...

随机推荐

  1. AC日记——[USACO10MAR]仓配置Barn Allocation 洛谷 P1937

    [USACO10MAR]仓配置Barn Allocation 思路: 贪心+线段树维护: 代码: #include <bits/stdc++.h> using namespace std; ...

  2. NET应用——你的数据安全有必要升级

    最近又被[现场破解共享单车系统]刷了一脸,不得不开始后怕:如何防止类似的情况发生? 想来想去,始终觉得将程序加密是最简单的做法.但是摩拜.ofo也有加密,为什么仍然被破解?那是因为请求在传输过程中被篡 ...

  3. .net core web api 获取request body的纯文本

    本文代码 https://github.com/wuhaibo/readPlainTextDotNetCoreWepApi 总有些时候我们希望获得Request body 的纯文本 那么怎么做呢?很简 ...

  4. Lucene.Net无障碍学习和使用:搜索篇

    一.初步认识搜索 先从上一篇示例代码中我们摘录一段代码看看搜索的简单实现: private TopDocs Search(string keyword,string field) { TopDocs ...

  5. JDBC连接执行mysql存储过程报权限错误:User does not have access to metadata required to determine stored procedure parameter types. If rights can not be granted,

    分析:JDBC在调用存储过程时不光用户要有execute的权限,还需要对mysql.proc具有访问权限.否则它无法访问metadata 解决方案:给数据库用户赋权,赋执行mysql.proc表的se ...

  6. buntu 16.04上安装和配置Samba服务器

    https://www.linuxidc.com/Linux/2017-11/148194.htm

  7. 剑指offer-链表中倒数第 K 个结点

    输入一个链表,输出该链表中倒数第k个结点. /* public class ListNode { int val; ListNode next = null; ListNode(int val) { ...

  8. 妙用next数组打表求最小循环节len

    https://www.cnblogs.com/njczy2010/p/3930688.html https://blog.csdn.net/dominating413421391/article/d ...

  9. BZOJ 1026 windy数【数位DP】

    1026: [SCOI2009]windy数 Time Limit: 1 Sec  Memory Limit: 162 MBSubmit: 10142  Solved: 4712[Submit][St ...

  10. You are my brother NBUT - 1218

    问题描述 Little A gets to know a new friend, Little B, recently. One day, they realize that they are fam ...