HDFS入门介绍


概述

HDFS全称为Hadoop Distribute File System,也就是Hadoop分布式文件系统,是Hadoop的核心组件之一。

分布式文件系统是横跨在多台计算机上的存储系统,主要解决的就是大数据存储的问题


特性

  • master/slave架构

    HDFS集群一般是由一个 NameNode 和一定数目的 DataNode 组成。NameNode 是 HDFS 集群主节点,DataNode 是 HDFS 集群从节点。
  • 分块存储

    分块存储存在的原因:

    假如有100台机器,每台机器只有1T。现在有一个2T的文件,单独存放在一台机器上是无法实现的。那么分块存储就能派上用场,它可以将2T的文件分成很多大小为128M的block块儿,将这些block块分别存储在不同的机器上。
  • 名字空间(NameSpace)

    Namenode 负责维护文件系统的名字空间,任何对文件系统名字空间或属性的修改(用户可以创建、删除、移动或重命名文件)都将被 Namenode 记录下来。

    统一的命名空间:对外提供统一的文件访问地址
  • Namenode元数据管理

    就是将所有的元数据信息保存起来方便查找
  • DataNode数据存储

    就是出磁盘,用来存储文件数据
  • 副本机制

    用来应对block块丢失的情况(副本数量也可以通过参数设置 --> dfs.replication ,默认是3)
  • 一次写入,多次读出

    hdfs文件系统适合频繁读取,不适合频繁写入,因为改变文件涉及到元数据的改变。因此适合用来做大数据分析的底层存储服务,并不适合用来做网盘等应用。

基本命令使用(使用格式:hdfs dfs -command [option] )

  • ls

    hdfs dfs -ls /dirName 查看目录内容

    hdfs dfs -ls -R /dirName 递归查看目录内容(将目录中的所有的内容都呈现出来)
  • lsr

    过期的hdfs dfs -ls -R /dirName
  • mkdir

    hdfs dfs -mkdir /dirName 创建目录

    hdfs dfs -mkdir -p /dirName1/dirName2 创建多级目录
  • moveFromLocal

    hdfs dfs -moveFromLocal LocalSrc dst 从本地向HDFS移动内容
  • moveToLocal

    从HDFS向本地移动内容(但是还不能用)
  • mv

    hdfs dfs -mv /FileName1 /FileName2 重命名(目录也适用)

    hdfs dfs -mv /FilePath dst 移动文件或目录
  • put

    hdfs dfs -put localSrc dst 将本地内容复制到HDFS上
  • appendToFile

    hdfs dfs -appendToFile localsrc … dst 将本地一个或多个文件追加到HDFS指定文件中
  • cat

    hdfs dfs -cat URI 查看HDFS文件内容
  • cp

    hdfs dfs -cp URI dst 将HDFS上的某个文件复制到HDFS指定文件
  • rm

    hdfs dfs -rm URI 删除HDFS上的指定文件

    hdfs dfs -rm -rf URI 强制删除HDFS上的指定文件
  • rmr

    过期的 hdfs dfs -rm -r URI
  • chmod

    hdfs dfs -chmod mode URI 修改HDFS上指定文件的权限

    hdfs dfs -chmod -R mode URI 递归地修改HDFS上指定文件的权限
  • chown

    hdfs dfs -chown owner:grouper URI 修改HDFS上指定文件的所属用户和所属组

    hdfs dfs -chown owner:grouper URI 递归地修改HDFS上指定文件的所属用户和所属组
  • expunge

    hdfs dfs -expunge 清空回收站

高级命令使用

  • HDFS文件限额配置

    数量限额:

    hdfs dfs -mkdir -p /user/root/lisi 创建hdfs文件夹

    hdfs dfsadmin -setQuota 2 lisi 给该文件夹下面设置最多上传两个文件(文件限额数包括用户文件夹本身,也就是限额两个只能上传一个文件)

    hdfs dfsadmin -clrQuota /user/root/lisi 清除文件数量限制

    空间限额:

    hdfs dfsadmin -setSpaceQuota 4k /user/root/lisi 限制空间大小4KB

    hdfs dfsadmin -clrSpaceQuota /user/root/lis 清除空间限额
  • HDFS安全模式

    集群刚启动就是安全模式,对外不提供任何服务,只自检,自检没问题的话,30s后自动脱离安全模式。

    hdfs dfsadmin -safemode   手动启动安全模式
	enter	|	leave	|	get	  |		wait
进入安全模式 退出安全模式 获取当前安全
模式是否启动

基准测试

  • 概述

    hadoop的环境搭建完成之后,第一件事就是进行压力测试,测试我们的集群的读取和写入速度,测试我们的网络带宽是否足够等一些基准测试
  • 测试写入速度

    向HDFS文件系统中写入数据,10个文件,每个文件10MB,文件存放到 /benchmarks/TestDFSIO 中
hadoop jar /export/servers/hadoop-2.6.0-cdh5.14.0/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.6.0-cdh5.14.0.jar TestDFSIO  -write -nrFiles 10 -fileSize 10MB

查看写入速度结果
hdfs dfs -text /benchmarks/TestDFSIO/io_write/part-00000
  • 测试读取速度

    在HDFS文件系统中读入10个文件,每个文件10M
hadoop jar /export/servers/hadoop-2.6.0-cdh5.14.0/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.6.0-cdh5.14.0.jar TestDFSIO -read -nrFiles 10 -fileSize 10MB

查看读取速度结果
hdfs dfs -text /benchmarks/TestDFSIO/io_read/part-00000
清除测试数据
hadoop jar /export/servers/hadoop-2.6.0-cdh5.14.0/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.6.0-cdh5.14.0.jar TestDFSIO -clean

【Hadoop离线基础总结】HDFS入门介绍的更多相关文章

  1. 【Hadoop离线基础总结】Hue的简单介绍和安装部署

    目录 Hue的简单介绍 概述 核心功能 安装部署 下载Hue的压缩包并上传到linux解压 编译安装启动 启动Hue进程 hue与其他框架的集成 Hue与Hadoop集成 Hue与Hive集成 Hue ...

  2. 【Hadoop离线基础总结】impala简单介绍及安装部署

    目录 impala的简单介绍 概述 优点 缺点 impala和Hive的关系 impala如何和CDH一起工作 impala的架构及查询计划 impala/hive/spark 对比 impala的安 ...

  3. 【Hadoop离线基础总结】oozie的安装部署与使用

    目录 简单介绍 概述 架构 安装部署 1.修改core-site.xml 2.上传oozie的安装包并解压 3.解压hadooplibs到与oozie平行的目录 4.创建libext目录,并拷贝依赖包 ...

  4. 【Hadoop离线基础总结】Hive调优手段

    Hive调优手段 最常用的调优手段 Fetch抓取 MapJoin 分区裁剪 列裁剪 控制map个数以及reduce个数 JVM重用 数据压缩 Fetch的抓取 出现原因 Hive中对某些情况的查询不 ...

  5. 【Hadoop离线基础总结】流量日志分析网站整体架构模块开发

    目录 数据仓库设计 维度建模概述 维度建模的三种模式 本项目中数据仓库的设计 ETL开发 创建ODS层数据表 导入ODS层数据 生成ODS层明细宽表 统计分析开发 流量分析 受访分析 访客visit分 ...

  6. 【Hadoop离线基础总结】Sqoop常用命令及参数

    目录 常用命令 常用公用参数 公用参数:数据库连接 公用参数:import 公用参数:export 公用参数:hive 常用命令&参数 从关系表导入--import 导出到关系表--expor ...

  7. 【Hadoop离线基础总结】HDFS详细介绍

    HDFS详细介绍 分布式文件系统设计思路 概述 只有一台机器时的文件查找:hello.txt /export/servers/hello.txt 如果有多台机器时的文件查找:hello.txt nod ...

  8. 【Hadoop离线基础总结】Apache Hadoop的三种运行环境介绍及standAlone环境搭建

    Apache Hadoop的三种运行环境介绍及standAlone环境搭建 三种运行环境 standAlone环境 单机版的hadoop运行环境 伪分布式环境 主节点都在一台机器上,从节点分开到其他机 ...

  9. Hadoop学习(1)-- 入门介绍

    Hadoop是Apache基金会开发的一个分布式系统基础架构,是时下最流行的分布式系统架构之一.用户可以在不了解分布式底层的情况下,在Hadoop上快速进行分布式应用的开发,并利用集群的计算和存储能力 ...

随机推荐

  1. 疲劳驾驶打瞌睡?python保障您的驾驶安全

    道路千万条,安全第一条!疲劳驾驶可谓交通事故几大罪魁祸首之一,根据美国一项研究显示,司机睡眠不足4小时,交通事故肇事几率等同于醉驾. 为了减少疲劳驾驶现象,驾驶员疲劳检测应运而生.这是一项安全技术,可 ...

  2. 最短路径变形 POJ 2253

    Freddy Frog is sitting on a stone in the middle of a lake. Suddenly he notices Fiona Frog who is sit ...

  3. Python函数的返回值和作用域

    函数的返回值和作用域 1.返回值 def guess(x):    if x > 3:        return "> 3"    else:        retu ...

  4. 【LeetCode】57. Insert Interval [Interval 系列]

    LeetCode中,有很多关于一组interval的问题.大体可分为两类: 1.查看是否有区间重叠: 2.合并重叠区间;  3.插入新的区间: 4. 基于interval的其他问题 [ 做题通用的关键 ...

  5. 3. git获取历史版本

    1.使用gitbash进入git命令行,查看commit记录.操作如下: git log 1 2.找到你想提取的目标版本,复制对应的SHA值. 3.新建一个分支,操作如下: git branch 新分 ...

  6. bluecms v1.6 sp1 代码审计学习

    前言 正式开始代码审计的学习,拓宽自己的知识面.代码审计学习的动力也是来自团队里的王叹之师傅,向王叹之师傅学习. 这里参考了一些前辈,师傅的复现经验和bluecms审计的心得 安装 install.p ...

  7. Buu刷题

    前言 希望自己能够更加的努力,希望通过多刷大赛题来提高自己的知识面.(ง •_•)ง easy_tornado 进入题目 看到render就感觉可能是模板注入的东西 hints.txt给出提示,可以看 ...

  8. SpringCloud(三)学习笔记之Ribbon

    spring Cloud Ribbon 是一个客户端的负载均衡器,它提供对大量的HTTP和TCP客户端的访问控制. 客户端负载均衡即是当浏览器向后台发出请求的时候,客户端会向 Eureka Serve ...

  9. BI报表分析和数据可视化,推荐这三个开源工具!

    开源篇 一.Superset 1.技术架构:Python + Flask + React + Redux + SQLAlchemy 2.使用人群: (1)开发/分析人员做好看板,业务人员浏览看板数据 ...

  10. TensorFlow的图像NCHW与NHWC

    import tensorflow as tf x = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12] with tf.Session() as sess: a = t ...