hdfs命令常用操作:

hdfs帮助

-help [cmd] 显示命令的帮助信息

[hadoop@hadoop-01 ~]$ hdfs dfs -help ls

递归显示当前目录下的所有文件:

[hadoop@hadoop-01 ~]$ hdfs dfs -ls -h /
Found 1 items
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp [hadoop@hadoop-01 ~]$ hdfs dfs -ls -h -R /
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp/hadoop-yarn
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp/hadoop-yarn/staging
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp/hadoop-yarn/staging/history
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp/hadoop-yarn/staging/history/done
drwxrwxrwt - hadoop supergroup 0 2017-11-23 13:09 /tmp/hadoop-yarn/staging/history/done_intermediate

-du 显示目录中所有文件大小:

[hadoop@hadoop-01 ~]$ hdfs dfs -du -s -h /tmp/
0 /tmp
[hadoop@hadoop-01 ~]$

-count计算路径下的目录、文件和字节数

[hadoop@hadoop-01 ~]$ hdfs dfs -count -q -h /tmp/
none inf none inf 6 0 0 /tmp
[hadoop@hadoop-01 ~]$

-mkdir 在指定位置创建一个hdfs目录.

[hadoop@hadoop-01 ~]$ hdfs dfs -mkdir testdhadoop

递归创建目录:

[hadoop@hadoop-01 bin]$ ./hdfs dfs -mkdir -p /test1/test2/test3
#递归查看当前目录下所有文件.
[hadoop@hadoop-01 bin]$ ./hdfs dfs -ls -R /test1
drwxr-xr-x - hadoop supergroup 0 2017-11-23 15:17 /test1/test2
drwxr-xr-x - hadoop supergroup 0 2017-11-23 15:17 /test1/test2/test3

-mv  移动多个文件目录到目标目录,(移动的文件也需要是hdfs目录中存在的文件.)

[hadoop@hadoop-01 ~]$ hdfs dfs -mv /tmp/hadoop-yarn /user/hadoop/testdhadoop

-cp 复制多个dhfs文件到目标目录

[hadoop@hadoop-01 ~]$ hdfs dfs -cp /user/hadoop/testdhadoop /tmp/hadoop-yarn

-put 本地文件复制到hdfs

[hadoop@hadoop-01 ~]$ hdfs dfs -put /etc/passwd /user/hadoop/testdhadoop

-copyFromLocal 与- put 命令相同.

[hadoop@hadoop-01 ~]$ hdfs dfs -copyFromLocal /etc/yum.conf /user/Hadoop
[hadoop@hadoop-01 ~]$ hdfs dfs -ls -R /user/hadoop
drwxr-xr-x - hadoop supergroup 0 2017-11-23 14:37 /user/hadoop/testdhadoop
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /user/hadoop/testdhadoop/hadoop-yarn
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /user/hadoop/testdhadoop/passwd
-rw-r--r-- 2 hadoop supergroup 969 2017-11-23 14:41 /user/hadoop/yum.conf

-moveFromLocal 本地文件移动到 hdfs.

[hadoop@hadoop-01 ~]$ hdfs dfs -mkdir /logs
[hadoop@hadoop-01 ~]$ hdfs dfs -ls -d /logs
drwxr-xr-x - hadoop supergroup 0 2017-11-23 14:47 /logs
[hadoop@hadoop-01 ~]$ hdfs dfs -moveFromLocal test.txt /logs
[hadoop@hadoop-01 ~]$ hdfs dfs -ls -h /logs
Found 1 items
-rw-r--r-- 2 hadoop supergroup 12 2017-11-23 14:49 /logs/test.txt

get [-ignoreCrc] 复制hdfs文件到本地,可以忽略crc校验.

[hadoop@hadoop-01 ~]$ hdfs dfs -get /logs/test.txt /tmp/

- copyToLocal 与- get命令相同 复制dhfs文件到本地.

[hadoop@hadoop-01 bin]$ ./hdfs dfs -copyToLocal /logs/test.txt /home/hadoop/
[hadoop@hadoop-01 ~]$ ls -lh /home/hadoop/
total 16K
drwxrwxr-x. 4 hadoop hadoop 4.0K Nov 23 12:12 dfs
drwxr-xr-x. 11 hadoop hadoop 4.0K Nov 23 12:47 hadoop
-rw-r--r--. 1 hadoop hadoop 12 Nov 23 15:05 test.txt
drwxrwxr-x. 3 hadoop hadoop 4.0K Nov 23 12:48 tmp

- cat 在终端显示文件内容

[hadoop@hadoop-01 /]$ hdfs dfs -cat /logs/test.txt
hello world
[hadoop@hadoop-01 /]$

- text 在终端显示文件内容,将源文件输出为文本格式。允许的格式是zip和TextRecordInputStream.  

[hadoop@hadoop-01 bin]$ ./hdfs dfs -text /logs/test.txt
hello world
[hadoop@hadoop-01 /]$ hdfs dfs -tail /logs/part-00000 (查看文件的最后一千行)
[hadoop@hadoop-01 /]$ hdfs dfs -cat /logs/part-00000 | head

- touchz 创建一个hdfs空文件.

[hadoop@hadoop-01 bin]$ ./hdfs dfs -touchz /test1/1.txt
[hadoop@hadoop-01 bin]$ ./hdfs dfs -ls -R /test1
-rw-r--r-- 2 hadoop supergroup 0 2017-11-23 15:20 /test1/1.txt
drwxr-xr-x - hadoop supergroup 0 2017-11-23 15:17 /test1/test2
drwxr-xr-x - hadoop supergroup 0 2017-11-23 15:17 /test1/test2/test3

- getmerge [addnl] 将hdfs源目录中的所有文件排序合并到一个本地文件中,接受一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件。addnl是可选的,用于指定在每个文件结尾添加一个换行符.

#将hdfs上的/logs/* 下的所有文件合并下载到本地的/tmp/hello文件中.
[hadoop@hadoop-01 bin]$ ./hdfs dfs -getmerge /logs/* /tmp/hello
[hadoop@hadoop-01 bin]$ cat /tmp/hello
111111111111111111111111
hello world
[hadoop@hadoop-01 bin]$

- grep 从hdfs上过滤包含某个字符的行内容

[hadoop@hadoop-01 bin]$ ./hdfs dfs -cat /logs/* | grep 过滤字段

 

参考文档:http://blog.csdn.net/zhaojw_420/article/details/53161624 

hadoop hdfs 命令的更多相关文章

  1. hadoop hdfs 命令行 设置文件夹大小的上限 quota:配额

    >bin/hdfs dfs -put readme.txt /finance >bin/hdfs dfs -du -s /finance > /finance >bin/hdf ...

  2. Hadoop HDFS命令

    hadoop fs -mkdir  创建HDFS目录 # hadoop fs -mkdir /data Hadoop fs -ls  列出HDFS目录 # hadoop fs -ls /data ha ...

  3. Docker 安装Hadoop HDFS命令行操作

    网上拉取Docker模板,使用singlarities/hadoop镜像 [root@localhost /]# docker pull singularities/hadoop 查看: [root@ ...

  4. Hadoop HDFS命令学习笔记

    cat Usage: hadoop fs -cat [-ignoreCrc] URI [URI ...] Copies source paths to stdout. Options The -ign ...

  5. 小记---------有关hadoop的HDFS命令行操作

      HDFS命令操作 首先需要在xshell启动hadoop start-all.sh  or start-hdfs.sh hadoop fs -ls /        (显示当前目录下所有文件) h ...

  6. [转]hadoop hdfs常用命令

    FROM : http://www.2cto.com/database/201303/198460.html hadoop hdfs常用命令   hadoop常用命令:  hadoop fs  查看H ...

  7. hadoop/hdfs/yarn 详细命令搬运

    转载自文章 http://www.cnblogs.com/davidwang456/p/5074108.html 安装完hadoop后,在hadoop的bin目录下有一系列命令: container- ...

  8. Hadoop HDFS分布式文件系统 常用命令汇总

    引言:我们维护hadoop系统的时候,必不可少需要对HDFS分布式文件系统做操作,例如拷贝一个文件/目录,查看HDFS文件系统目录下的内容,删除HDFS文件系统中的内容(文件/目录),还有HDFS管理 ...

  9. 介绍hadoop中的hadoop和hdfs命令

    有些hive安装文档提到了hdfs dfs -mkdir ,也就是说hdfs也是可以用的,但在2.8.0中已经不那么处理了,之所以还可以使用,是为了向下兼容. 本文简要介绍一下有关的命令,以便对had ...

随机推荐

  1. asp.net读取用户控件,自定义加载用户控件

    1.自定义加载用户控件 ceshi.aspx页面 <html> <body> <div id="divControls" runat="se ...

  2. String.format和MessageFormat.format的对比用法

    1.MessageFormat.format import java.text.MessageFormat; /** * Created by SYJ on 2017/9/13. */ public ...

  3. ubuntu桌面使用总结

    一.ubuntu12.04 修改系统字体:sudo apt-get install gnome-tweak-tool 关于ubuntu字体,个人习惯记录一下:默认字体:文泉驿微米黑  10桌面字体:文 ...

  4. poj1679(判断最小生成树是否唯一)

    题意:给出n个点,m条边,要你判断最小生成树是否唯一. 思路:先做一次最小生成树操作,标记选择了的边,然后枚举已经被标记了的边,判断剩下的边组成的最小生成树是否与前面的相等,相等,则不唯一,否则唯一. ...

  5. 我为什么要学Go语言

    # 我为什么要学Go语言 ### 公司的强烈推荐---之前也了解过Go语言并没有觉得有什么了不起,Go能做的其他语言都能做. ### 网上查找学习Go语言的理由---网上大体有两类人,一类说Go是大公 ...

  6. Linux下 jenkins 的 使用

    在上一张jenkins已经安装成功了,现在开始使用 需要先安装几个插件 选择maven项目 这里会出现错误,点进去去配置 配置JDK,这里用JDK1.8 ,不然jenkins会报错的 这里写上mave ...

  7. [转]Extjs中的迭代方法

    原文地址:http://www.veryhuo.com/a/view/36701.html EXTJS 有很多的迭代方法,例如,你也许已知道的Ext.each,但还有另外一些不为人知且很有用的方法.首 ...

  8. cas单点登录-jdbc认证(三)

    前言 本节的内容为JDBC认证,查找数据库进行验证,其中包括: 密码加密策略(无密码,简单加密,加盐处理) 认证策略(jdbc) 一.业务需求 不同的公司,需求业务需求或者架构不一样导致我们实现验证的 ...

  9. zeroMQ消息传送的是一个固定长度的二进制数据,而TCP是通过字节流,那二进制流和字节流有啥区别?

    1.TCP是面向连接的,它在UDP数据包的基础上增加了重传.流控等一系列机制,封装成基于字节流的传输层通讯协议.使用字节流,应用有点像语音或视频聊天,粒度小到一个字节,双向同时传输,连绵不断. Zer ...

  10. android 中遇到 imageView getWidth 始终为0 时 ,设置 setImageBitmap 的方法

    先说说我的遇到的问题: 1. 我在activity里写一个 fragment 2.这个fragment里有个 imageView ,用于显示图片. 我使用 asyncTask获得图片,并准备在这个im ...