hadoop笔记之hdfs shell操作
HDFS命令行操作
HDFS命令行操作
(以下是hadoop 1.x 版本的命令使用)
装好hadoop之前首先要进行一个格式化
hadoop namenode -format
运行之后,可以将文件夹都列出来
hadoop fs -ls /
例如打印user目录
hadoop fs -ls /user
如何将本地文件提交到hadoop的inpput目录下去
hadoop fs -put xxx /input
(注意当前所在的位置pwd
)
如何将文件从hadoop上input文件目录下的xxx文件下载下来
hadoop fs -get input/xxx xxx
查看占用多少空间,使用多少命令
hadoop dfsadmin -report
(以下是hadoop 2.x 版本的HDFS命令行操作,大家可以对比一下不同)
- 同时上传多个文件到HDFS里面
hdfs dfs -appendToFile <localsrc> ... <dst>
- 查看文件内容
hdfs dfs -cat URI [URI ...]
- 修改文件所属组
hdfs dfs -chgrp [-R] GROUP URI [URI ...]
- 修改文件权限
hdfs dfs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]
- 修改文件所有者,文件所属组,其他用户的读、写、执行权限
hdfs dfs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
- 复制文件到hdfs
hdfs dfs -copyFromLocal <localsrc> URI
- 复制文件到本地
hdfs dfs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
- 统计文件及文件夹数目
hdfs dfs -count [-q] <paths>
- Hadoop HDFS 文件系统间的文件复制
hdfs dfs -cp [-f] URI [URI ...] <dest>
- 统计目录下的文件及大小
hdfs dfs -du [-s] [-h] URI [URI ...]
- 汇总目录下的文件总大小
hdfs dfs -dus <args>
- 清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除
hdfs dfs -expunge
- 下载文件到本地
hdfs dfs -get [-ignorecrc] [-crc] <src> <localdst>
- 查看ACL (访问权限组拥有者)
hdfs dfs -getfacl [-R] <path>
- 合并下载文件到本地
hdfs dfs -getmerge <src> <localdst> [addnl]
- 查看目录
hdfs dfs -ls <args>
- 循环列出目录、子目录及文件信息
hdfs dfs -lsr <args>
- 创建空白文件夹
hdfs dfs -mkdir [-p] <paths>
- 剪切文件到hdfs
dfs -moveFromLocal <localsrc> <dst>
- 剪切文件到本地
hdfs dfs -moveToLocal [-crc] <src> <dst>
- 剪切hdfs文件
hdfs dfs -mv URI [URI ...] <dest>
- 上传文件
hdfs dfs -put <localsrc> ... <dst>
- 删除文件/空白文件夹
hdfs dfs -rm [-skipTrash] URI [URI ...]
- 递归删除 删除文件及文件夹下的所有文件
hdfs dfs -rmr [-skipTrash] URI [URI ...]
hdfs dfs -setfacl [-R] [-b|-k -m|-x <acl_spec> <path>]|[--set <acl_spec> <path>]
Sets Access Control Lists (ACLs) of files and directories.
Options:
-b: Remove all but the base ACL entries. The entries for user, group and others are retained for compatibility with permission bits.
-k: Remove the default ACL.
-R: Apply operations to all files and directories recursively.
-m: Modify ACL. New entries are added to the ACL, and existing entries are retained.
-x: Remove specified ACL entries. Other ACL entries are retained.
–set: Fully replace the ACL, discarding all existing entries. The acl_spec must include entries for user, group, and others for compatibility with permission bits.
acl_spec: Comma separated list of ACL entries.
path: File or directory to modify.
Examples:
hdfs dfs -setfacl -m user:hadoop:rw- /file
hdfs dfs -setfacl -x user:hadoop /file
hdfs dfs -setfacl -b /file
hdfs dfs -setfacl -k /dir
hdfs dfs -setfacl --set user::rw-,user:hadoop:rw-,group::r--,other::r-- /file
hdfs dfs -setfacl -R -m user:hadoop:r-x /dir
hdfs dfs -setfacl -m default:user:hadoop:r-x /dir
Exit Code:
Returns 0 on success and non-zero on error.
- 修改副本数
hdfs dfs -setrep [-R] [-w] <numReplicas> <path>
- 显示文件统计信息
hdfs dfs -stat URI [URI ...]
- 查看文件尾部信息
hdfs dfs -tail [-f] URI
hdfs dfs -test -[ezd] URI
对PATH进行如下类型的检查:
-e PATH是否存在,如果PATH存在,返回0,否则返回1
-z 文件是否为空,如果长度为0,返回0,否则返回1
-d 是否为目录,如果PATH为目录,返回0,否则返回1
- 查看文件内容
hdfs dfs -text <src>
- 创建长度为0的空文件
hdfs dfs -touchz URI [URI ...]
总而言之,hadoop使用命令跟linux的命令是很相似的。
hadoop笔记之hdfs shell操作的更多相关文章
- HDFS shell操作及HDFS Java API编程
HDFS shell操作及HDFS Java API编程 1.熟悉Hadoop文件结构. 2.进行HDFS shell操作. 3.掌握通过Hadoop Java API对HDFS操作. 4.了解Had ...
- HBase学习笔记——配置及Shell操作
1.HBase的配置 还是以前配置的集群,见:http://www.cnblogs.com/DarrenChan/p/6493373.html 我们约定:weekend03和weekend04放HMa ...
- hadoop学习二:hadoop基本架构与shell操作
1.hadoop1.0与hadoop2.0的区别:
- hadoop笔记之hdfs
1.HDFS设计基础与目标 1.HDFS设计基础与目标 (1)硬件错误是常态,因此需要冗余. (2)流式数据访问.即数据批量读取而非随机读写,Hadoop擅长做的是数据分析而不是事务处理. (3)大规 ...
- 大数据Hadoop——HDFS Shell操作
一.查询目录下的文件 1.查询根目录下的文件 Hadoop fs -ls / 2.查询文件夹下的文件 Hadoop fs -ls /input 二.创建文件夹 hadoop fs -mkdir /文件 ...
- 对Hadoop分布式文件系统HDFS的操作实践
原文地址:https://dblab.xmu.edu.cn/blog/290-2/ Hadoop分布式文件系统(Hadoop Distributed File System,HDFS)是Hadoop核 ...
- Hadoop读书笔记(二)HDFS的shell操作
Hadoop读书笔记(一)Hadoop介绍:http://blog.csdn.net/caicongyang/article/details/39898629 1.shell操作 1.1全部的HDFS ...
- 吴裕雄--天生自然HADOOP操作实验学习笔记:hdfs简单的shell命令
实验目的 了解bin/hadoop脚本的原理 学会使用fs shell脚本进行基本操作 学习使用hadoop shell进行简单的统计计算 实验原理 1.hadoop的shell脚本 当hadoop集 ...
- HDFS的基本shell操作,hadoop fs操作命令
(1)分布式文件系统 随着数据量越来越多,在一个操作系统管辖的范围存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,因此迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管 ...
随机推荐
- 一致性hash
1,一致性hash函数选择 crc32(范围为0到2的32次方),超过最大值,需要求模 :md5,求得16进制数据,超过最大值,需要求模 : 2,对cache server的虚拟节点的某些唯一属性或者 ...
- 白话JAVA守护线程
OneCoder(苦逼Coder)原创,转载请务必注明出处: http://www.coderli.com/archives/daemon-thread-plain-words/ 关于“白话”:偶然想 ...
- php正则表达式匹配函数
<?php function show($var=null){ if(empty($var)) { echo 'null'; }else if(is_array($var) || is_obj ...
- JavaScript事件处理程序 学习笔记
我一直认为Javascript的特点就是在和用户交互的过程中可以进行一些操作,那么事件作为用户交互的主要部分就显得特别重要,今天先学习了JS事件处理程序的相关内容. 首先,要明白Javascript ...
- z-index解决弹出层遮罩层覆盖子div不能显示输出的问题
// 添加以下代码来进行测试: // ajax 发生错误,就会执行$('body').ajaxError(function(e, xhr, setting, text){ // e - even ...
- 替换Gravatar头像默认服务器
这几天Gravatar头像服务器应该集体被墙了,头像无法显示.兵来将挡,水来土掩,上有政策,下有对策,和谐社会靠大家,哈. 利用多说Gravatar头像中转服务器替代头像默认服务器. 将下面代码添加到 ...
- STOI补番队胡策
ROUND 1 第一轮是我出的. 比赛情况: #1 NanoApe 300 (完美AK) #2 && #3 swm_sxt / ccz 200 A.candy 这道题就是个nim游戏 ...
- MySQL操作类的封装(PHP)
<?php class mysql{ /** * 报错函数 * * @param string $error */ function err($error){ die("对不起,您的操 ...
- cocos2d-x box2d使用调试绘图
cocos2d-x box2d使用调试绘图 复制TestCpp的GLES-Render.h和GLES-Render.cpp过来. 添加一个成员变量: GLESDebugDraw *m_debugDra ...
- 自定义清除重复uses-permission申明的AS插件
分享一个我刚到天下布医工作时,写的一个android studio插件. 做安卓项目时,经常继承一些第三方sdk,这些sdk都会申请权限,导致AndroidManifest.xml中的uses-per ...