HDFS文件操作的基本格式是:

 bin/hadoop dfs -cmd <args>

1. cat

 $ hadoop dfs -cat URI [URI …]
#将参数所指示的文件的内容输出到stdout #example:
$ hadoop dfs -cat file:///file2 /user/hadoop/file4

2.cp

 $ hadoop dfs -cp URI [URI …] <dest>
#将文件拷贝到目标路径中。如果 <dest>为目录的话,可以将多个文件拷贝到该目录下 #example:
$ hadoop dfs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir

3.get

 $ hadoop dfs -get [-ignorecrc] [-crc] <src><localdst>
#将文件拷贝到本地文件系统 #example:
$ hadoop dfs -get /user/hadoop/file localfile

4.ls

 $ hadoop dfs -ls <args>
#对于一个文件,该命令返回的文件状态以如下格式列出:
#文件权限、副本个数、用户ID、组ID、文件大小、最近一次修改日期、最近一次修改时间、文件名
#对于一个目录,结果格式:
#文件权限,用户ID,组ID,最近一次修改日期,最近一次修改时间,文件名 #example:
$ hadoop dfs -ls /user/hadoop/file1

5.lsr

 $ hadoop dfs -lsr <args>
#在整个目录下递归执行ls

6.mkdir

 $ hadoop dfs -mkdir <paths>
#以<paths>中的URI作为参数,创建目录 #example:
$ hadoop dfs -mkdir /user/hadoop/dir1 /user/hadoop/dir2

7.put

 $ hadoop dfs -put <localsrc> … <dst>
#将单个的源文件src或者多个源文件从本地文件系统拷贝到目标文件系统中。 #example:
$ hadoop dfs -put localfile1 localfile2 /user/hadoop/hadoopdir

8.rm

 $ hadoop dfs -rm [-skipTrash] URI [URI …]
#删除参数指定的文件,参数可以有多个。只删除文件和非空目录。如果指定了-skipTrash选项,那么在回收站可用的情况下,跳过回收站而直接将文件删除 #example:
$ hadoop dfs -rm hdfs://nn.example.com/file /user/hadoop/emptydir

9.rmr

 $ hadoop dfs -rmr [-skipTrash] URI [URI …]
#删除操作的递归版本,即递归删除所有子目录下的文件 #example:
$ hadoop dfs -rmr /user/hadoop/dir

HDFS文件操作命令手册的更多相关文章

  1. Hadoop之HDFS文件操作常有两种方式(转载)

    摘要:Hadoop之HDFS文件操作常有两种方式,命令行方式和JavaAPI方式.本文介绍如何利用这两种方式对HDFS文件进行操作. 关键词:HDFS文件    命令行     Java API HD ...

  2. 简单hdfs相关操作命令

    HDFS常用操作命令 启动hdfs #start-all.sh 查看hdfs的配置文件 #cat hdfs-site.sh #hadoop fs -put /soft/jdk / #HDFS上传文件命 ...

  3. HDFS文件操作(命令行)

    HDFS是一种分布式文件系统,为MapReduce这种框架下的海量数据分布式处理而设计. Hadoop之HDFS文件操作常有两种方式,一种是命令行方式,即Hadoop提供了一套与Linux文件命令类似 ...

  4. Hadoop之HDFS文件操作

    摘要:Hadoop之HDFS文件操作常有两种方式.命令行方式和JavaAPI方式.本文介绍怎样利用这两种方式对HDFS文件进行操作. 关键词:HDFS文件    命令行     Java API HD ...

  5. [bigdata] 使用Flume hdfs sink, hdfs文件未关闭的问题

    现象: 执行mapreduce任务时失败 通过hadoop fsck -openforwrite命令查看发现有文件没有关闭. [root@com ~]# hadoop fsck -openforwri ...

  6. CentOS常用的文件操作命令

    CentOS下面常用的文件操作命令: cd pwd NO1. 显示当前路径 [root@rehat root]# pwd NO2. 返回用户主目录 [root@rehat root]# cd NO3. ...

  7. HDFS文件和HIVE表的一些操作

    1. hadoop fs -ls  可以查看HDFS文件 后面不加目录参数的话,默认当前用户的目录./user/当前用户 $ hadoop fs -ls 16/05/19 10:40:10 WARN ...

  8. linux 文件操作命令

    目录操作命令 命令格式 命令 [-选项] [-参数] ls -la /etc 有多个选项时可以合并 ls命令: -a (all) 显示所有文件,包括隐藏文件,那是用.开头的文件 为什么要隐藏(这是个系 ...

  9. Spark读取HDFS文件,文件格式为GB2312,转换为UTF-8

    package iie.udps.example.operator.spark; import scala.Tuple2; import org.apache.hadoop.conf.Configur ...

随机推荐

  1. Servlet的5种方式实现表单提交(注册小功能)

    Servlet的5种方式实现表单提交(注册小功能),后台获取表单数据   用servlet实现一个注册的小功能 ,后台获取数据. 注册页面: 注册页面代码 : <!DOCTYPE html> ...

  2. Restify Api 开发经验

    此文已由作者王振华授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 工作期间,一直在用Restify开发或维护大大小小的API系统,现在分享一下一些个人觉得不错的Tips. 充 ...

  3. 「国庆训练&知识学习」图的最大独立集与拓展(Land of Farms,HDU-5556)

    题意 一个\(N*M\)的矩阵,其中"."代表空地,"0-9"代表古代建筑,我们如果选择了一个编号的古代建筑想要建立,那么对应就要将全部该编号的建筑建立起来,如 ...

  4. hdu1052Tian Ji -- The Horse Racing(贪心,细节多)

    Tian Ji -- The Horse Racing Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 65536/32768 K (J ...

  5. Selenium自动化测试第一天(上)

    如有任何学习问题,可以添加作者微信:lockingfree 目录 Selenium自动化测试基础 Selenium自动化测试第一天(上) Selenium自动化测试第一天(下) Selenium自动化 ...

  6. 接口测试工具postman(七)下载文件接口

    按照一般请求接口,配置好接口地址以及参数,点击Send and Download 按钮,执行请求的同时会下载文件

  7. MySQL☞in语句

    in语句: 1)列名 in(数值1,数值2,数值3…):求出满足该列的多个列值 格式: select 列名1,列名2  from 表名 where 列名 in (数值1,数值2,数值3...) 如下图 ...

  8. unittest,selenium——批量,多线程执行多文档用例

    之前做过批量执行多.py文件,为了省时也做过单py文件多线程,现在做多py文件用例多线程 # coding:utf-8import unittestimport osimport timeimport ...

  9. Java初始化方法:类、容器

    Java初始化方法:类.容器   初始化类(非final): Struts2的DefaultActionMapper类中:      public DefaultActionMapper() {   ...

  10. ORACLE高级部分内容

    1.pl/sql基本语句 DECLARE BEGIN END; / 循环语句 DECLARE I  NUMBER(2):=1; BEGIN WHILE I<100 LOOP I:=I+1; EN ...