1,文件结构
· bin:脚本和命令目录。
· etc:配置文件目录。
· sbin:命令目录,主要包含HDFS和YARN中各类服务的启动和关闭,依赖于bin中的脚本。
· share:各个模块编译后的jar包,和示例代码。
· libexec:各个服务的shell配置文件目录,比如配置日志输出目录、启动参数等。
· include:对外提供的头文件,由C++定义。
· lib:对外的动态库,与include 对应。
 
2,core-default.xml
··· hadoop的默认配置文件,位于./share/doc/hadoop/hadoop-project-dist/hadoop-common/core-default.xml
其他的配置文件也一样
 
3,core-site.xml
··· fs.defaultFS
    · 设置运行时的文件系统,默认是 [file:///] 即本地文件系统。
    · 对于分布式Hadoop必须设置为 HDFS,[hdfs://hadoop11:9000],hadoop11:9000为NameNode所在的主机和端口
··· hadoop.tmp.dir
    · hadoop的临时文件夹,一般为 [/opt/app/hadoop/data/tmp]。会保存hdfs的NameNode的信息和DataNode的数据
 
4,hdfs-site.xml
··· dfs.replication
    · hdfs的副本个数,默认为3。在伪分布式中要设置为1。
··· dfs.namenode.http-address
    · NameNode的web访问地址,即在浏览器上查看NameNode上的信息。一般为 [hadoop11:50070]
··· dfs.namenode.secondary.http-address
    · SecondaryNameNode的web访问地址。一般为 [hadoop33:50090]
··· dfs.permissions.enabled
    · HDFS的文件系统权限。一般设为 [false]
 
5,yarn-site.xml
··· yarn.resourcemanager.hostname
    · 设置RM主机的位置。一般为 [hadoop22]
··· yarn.nodemanager.aux-services
    · 一般为 [mapreduce_shuffle],通知NodeManager实现名为mapreduce.shuffle的辅助服务
··· yarn.log-aggregation-enable
    · 设置日志聚集属性,一般打开,设为 [true]
··· yarn.log-aggragation.retain-seconds
    · 设置日志聚集的时间,单位秒,一般为7天,设为 [604800]
 
6,mapred-site.xml
··· mapreduce.framework.name
    · MapReduce的计算框架,可以是 local、classic、yarn,一般设为 yarn,默认是local
··· mapreduce.jobhistory.address
    · 历史服务器的地址,一般设为 [hadoop33:10020]
··· mapreduce.jobhistory.webapp.address
    · 历史服务器的web访问地址,一般设为 [hadoop33:19888]
 
7,slaves
··· 设置从主机的主机名(不能有空格)
    · 当启动 hdfs时,会在配置的主机中启动 DataNode进程。
    · 当启动 yarn时,会在配置的主机中启动 NodeManager进程。

5,Hadoop中的文件的更多相关文章

  1. Hadoop中pid文件存储

    我的hadoop集群部署在自己电脑虚拟机上,有时候我是挂起虚拟机,第二天再打开发现有些线程就挂了,比如namenode,好奇怪,当时看了一些帖子说是和pid存储有关,找到log看到找不到pid.因为基 ...

  2. 转载: 查看HADOOP中一个文件有多少块组成及所在机器ip

    看文件信息 hadoop fsck /user/filename 更详细的 hadoop fsck /user/filename -files  -blocks -locations -racks   ...

  3. hadoop中发送文件的脚本

    多台主机执行相同的命令 [xcall] [/usr/local/bin] sudo nano xcall ----------------------------------------------- ...

  4. MapReduce计算之——hadoop中的Hello World

    1.  启动集群 2.  创建input路径(有关hadoop 的命令用 "hadoop fs"),input路径并不能在系统中查找到,可以使用 “hadoop fs -ls /” ...

  5. 浅谈hadoop中mapreduce的文件分发

    近期在做数据分析的时候.须要在mapreduce中调用c语言写的接口.此时就须要把动态链接库so文件分发到hadoop的各个节点上,原来想自己来做这个分发,大概过程就是把so文件放在hdfs上面,然后 ...

  6. 在本机eclipse中创建maven项目,查看linux中hadoop下的文件、在本机搭建hadoop环境

    注意 第一次建立maven项目时需要在联网情况下,因为他会自动下载一些东西,不然突然终止 需要手动删除断网前建立的文件 在eclipse里新建maven项目步骤 直接新建maven项目出了错      ...

  7. 直接使用FileSystem以标准输出格式显示hadoop文件系统中的文件

    package com.yoyosys.cebbank.bdap.service.mr; import java.io.IOException; import java.io.InputStream; ...

  8. hadoop中两种上传文件方式

    记录如何将本地文件上传至HDFS中 前提是已经启动了hadoop成功(nodedate都成功启动) ①先切换到HDFS用户 ②创建一个user件夹 bin/hdfs dfs -mkdir /user ...

  9. hadoop学习笔记(十):hdfs在命令行的基本操作命令(包括文件的上传和下载和hdfs中的文件的查看等)

    hdfs命令行 ()查看帮助 hdfs dfs -help ()查看当前目录信息 hdfs dfs -ls / ()上传文件 hdfs dfs -put /本地路径 /hdfs路径 ()剪切文件 hd ...

随机推荐

  1. sm4 加解密示例

    int do_crypt(char *outfile) { unsigned ]; int outlen, tmplen; /* Bogus key and IV: we'd normally set ...

  2. redis day02

    Redis -带过期时间的key  如何删除掉的? 在redis内部有个  过期字典,所有带过期时间的都有过期字典 默认情况下 redis每秒会进行着10次过期字典的扫描,在每一次扫描过程里,执行如下 ...

  3. LeetCode No.133,134,135

    No.133 CloneGraph 克隆图 题目 给你无向 连通 图中一个节点的引用,请你返回该图的 深拷贝(克隆). 图中的每个节点都包含它的值 val(int) 和其邻居的列表(list[Node ...

  4. PAT甲级——1012 The Best Rank

    PATA1012 The Best Rank To evaluate the performance of our first year CS majored students, we conside ...

  5. 非线程安全的HashMap 和 线程安全的ConcurrentHashMap

    在平时开发中,我们经常采用HashMap来作为本地缓存的一种实现方式,将一些如系统变量等数据量比较少的参数保存在HashMap中,并将其作为单例类的一个属性.在系统运行中,使用到这些缓存数据,都可以直 ...

  6. 吴裕雄--天生自然 JAVASCRIPT开发学习:对象 实例(2)

    <!DOCTYPE html> <html> <head> <meta charset="utf-8"> <title> ...

  7. 点分治——POJ 1741

    写的第一道点分治的题目,权当认识点分治了. 点分治,就是对每条过某个点的路径进行考虑,若路径不经过此点,则可以对其子树进行考虑. 具体可以看menci的blog:点分治 来看一道例题:POJ 1741 ...

  8. [LC] 91. Decode Ways

    A message containing letters from A-Z is being encoded to numbers using the following mapping: 'A' - ...

  9. ServletContextListener 监听器

    Servlet中的过滤器Filter是实现了javax.servlet.Filter接口的服务器端程序,主要的用途是过滤字符编码.做一些业务逻辑判断等.其工作原理是,只要你在web.xml文件配置好要 ...

  10. zabbix配置文件详解--服务(server)端、客户(agent)端、代理(proxy)端

    在zabbix服务(server)端.客户(agent)端.代理(proxy)端分别对应着一个配置文件,即:zabbix_server.conf,zabbix_agentd.conf,zabbix_p ...