HDFS文件操作命令手册
HDFS文件操作的基本格式是:
bin/hadoop dfs -cmd <args>
1. cat
$ hadoop dfs -cat URI [URI …]
#将参数所指示的文件的内容输出到stdout #example:
$ hadoop dfs -cat file:///file2 /user/hadoop/file4
2.cp
$ hadoop dfs -cp URI [URI …] <dest>
#将文件拷贝到目标路径中。如果 <dest>为目录的话,可以将多个文件拷贝到该目录下 #example:
$ hadoop dfs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
3.get
$ hadoop dfs -get [-ignorecrc] [-crc] <src><localdst>
#将文件拷贝到本地文件系统 #example:
$ hadoop dfs -get /user/hadoop/file localfile
4.ls
$ hadoop dfs -ls <args>
#对于一个文件,该命令返回的文件状态以如下格式列出:
#文件权限、副本个数、用户ID、组ID、文件大小、最近一次修改日期、最近一次修改时间、文件名
#对于一个目录,结果格式:
#文件权限,用户ID,组ID,最近一次修改日期,最近一次修改时间,文件名 #example:
$ hadoop dfs -ls /user/hadoop/file1
5.lsr
$ hadoop dfs -lsr <args>
#在整个目录下递归执行ls
6.mkdir
$ hadoop dfs -mkdir <paths>
#以<paths>中的URI作为参数,创建目录 #example:
$ hadoop dfs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
7.put
$ hadoop dfs -put <localsrc> … <dst>
#将单个的源文件src或者多个源文件从本地文件系统拷贝到目标文件系统中。 #example:
$ hadoop dfs -put localfile1 localfile2 /user/hadoop/hadoopdir
8.rm
$ hadoop dfs -rm [-skipTrash] URI [URI …]
#删除参数指定的文件,参数可以有多个。只删除文件和非空目录。如果指定了-skipTrash选项,那么在回收站可用的情况下,跳过回收站而直接将文件删除 #example:
$ hadoop dfs -rm hdfs://nn.example.com/file /user/hadoop/emptydir
9.rmr
$ hadoop dfs -rmr [-skipTrash] URI [URI …]
#删除操作的递归版本,即递归删除所有子目录下的文件 #example:
$ hadoop dfs -rmr /user/hadoop/dir
HDFS文件操作命令手册的更多相关文章
- Hadoop之HDFS文件操作常有两种方式(转载)
摘要:Hadoop之HDFS文件操作常有两种方式,命令行方式和JavaAPI方式.本文介绍如何利用这两种方式对HDFS文件进行操作. 关键词:HDFS文件 命令行 Java API HD ...
- 简单hdfs相关操作命令
HDFS常用操作命令 启动hdfs #start-all.sh 查看hdfs的配置文件 #cat hdfs-site.sh #hadoop fs -put /soft/jdk / #HDFS上传文件命 ...
- HDFS文件操作(命令行)
HDFS是一种分布式文件系统,为MapReduce这种框架下的海量数据分布式处理而设计. Hadoop之HDFS文件操作常有两种方式,一种是命令行方式,即Hadoop提供了一套与Linux文件命令类似 ...
- Hadoop之HDFS文件操作
摘要:Hadoop之HDFS文件操作常有两种方式.命令行方式和JavaAPI方式.本文介绍怎样利用这两种方式对HDFS文件进行操作. 关键词:HDFS文件 命令行 Java API HD ...
- [bigdata] 使用Flume hdfs sink, hdfs文件未关闭的问题
现象: 执行mapreduce任务时失败 通过hadoop fsck -openforwrite命令查看发现有文件没有关闭. [root@com ~]# hadoop fsck -openforwri ...
- CentOS常用的文件操作命令
CentOS下面常用的文件操作命令: cd pwd NO1. 显示当前路径 [root@rehat root]# pwd NO2. 返回用户主目录 [root@rehat root]# cd NO3. ...
- HDFS文件和HIVE表的一些操作
1. hadoop fs -ls 可以查看HDFS文件 后面不加目录参数的话,默认当前用户的目录./user/当前用户 $ hadoop fs -ls 16/05/19 10:40:10 WARN ...
- linux 文件操作命令
目录操作命令 命令格式 命令 [-选项] [-参数] ls -la /etc 有多个选项时可以合并 ls命令: -a (all) 显示所有文件,包括隐藏文件,那是用.开头的文件 为什么要隐藏(这是个系 ...
- Spark读取HDFS文件,文件格式为GB2312,转换为UTF-8
package iie.udps.example.operator.spark; import scala.Tuple2; import org.apache.hadoop.conf.Configur ...
随机推荐
- Servlet的5种方式实现表单提交(注册小功能)
Servlet的5种方式实现表单提交(注册小功能),后台获取表单数据 用servlet实现一个注册的小功能 ,后台获取数据. 注册页面: 注册页面代码 : <!DOCTYPE html> ...
- Restify Api 开发经验
此文已由作者王振华授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 工作期间,一直在用Restify开发或维护大大小小的API系统,现在分享一下一些个人觉得不错的Tips. 充 ...
- 「国庆训练&知识学习」图的最大独立集与拓展(Land of Farms,HDU-5556)
题意 一个\(N*M\)的矩阵,其中"."代表空地,"0-9"代表古代建筑,我们如果选择了一个编号的古代建筑想要建立,那么对应就要将全部该编号的建筑建立起来,如 ...
- hdu1052Tian Ji -- The Horse Racing(贪心,细节多)
Tian Ji -- The Horse Racing Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 65536/32768 K (J ...
- Selenium自动化测试第一天(上)
如有任何学习问题,可以添加作者微信:lockingfree 目录 Selenium自动化测试基础 Selenium自动化测试第一天(上) Selenium自动化测试第一天(下) Selenium自动化 ...
- 接口测试工具postman(七)下载文件接口
按照一般请求接口,配置好接口地址以及参数,点击Send and Download 按钮,执行请求的同时会下载文件
- MySQL☞in语句
in语句: 1)列名 in(数值1,数值2,数值3…):求出满足该列的多个列值 格式: select 列名1,列名2 from 表名 where 列名 in (数值1,数值2,数值3...) 如下图 ...
- unittest,selenium——批量,多线程执行多文档用例
之前做过批量执行多.py文件,为了省时也做过单py文件多线程,现在做多py文件用例多线程 # coding:utf-8import unittestimport osimport timeimport ...
- Java初始化方法:类、容器
Java初始化方法:类.容器 初始化类(非final): Struts2的DefaultActionMapper类中: public DefaultActionMapper() { ...
- ORACLE高级部分内容
1.pl/sql基本语句 DECLARE BEGIN END; / 循环语句 DECLARE I NUMBER(2):=1; BEGIN WHILE I<100 LOOP I:=I+1; EN ...