Hadoop HDFS的Shell操作实例
本文发表于本人博客。
我们知道HDFS是Hadoop的分布式文件系统,那既然是文件系统那最起码会有管理文件、文件夹之类的功能吧,这个类似我们的Windows操作系统一样的吧,创建、修改、删除、移动、复制、修改权限等这些操作。 那我们现在来看看hadoop下是怎么操作的。
先输入hadoop fs命令,会看到如下输出:
Usage: java FsShell
[-ls <path>]
[-lsr <path>]
[-du <path>]
[-dus <path>]
[-count[-q] <path>]
[-mv <src> <dst>]
[-cp <src> <dst>]
[-rm [-skipTrash] <path>]
[-rmr [-skipTrash] <path>]
[-expunge]
[-put <localsrc> ... <dst>]
[-copyFromLocal <localsrc> ... <dst>]
[-moveFromLocal <localsrc> ... <dst>]
[-get [-ignoreCrc] [-crc] <src> <localdst>]
[-getmerge <src> <localdst> [addnl]]
[-cat <src>]
[-text <src>]
[-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>]
[-moveToLocal [-crc] <src> <localdst>]
[-mkdir <path>]
[-setrep [-R] [-w] <rep> <path/file>]
[-touchz <path>]
[-test -[ezd] <path>]
[-stat [format] <path>]
[-tail [-f] <file>]
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]
[-chgrp [-R] GROUP PATH...]
[-help [cmd]]
这个显示了hadoop fs支持的命令,比如(启动hadoop服务)在终端输入:
hadoop fs -ls /
也可以输入:
hadoop fs -ls hdfs://hadoop-master:9000/
如果不知道具体使用那么我们可以使用最后的一个命令[-help [cmd]],比如查看ls命令帮助输入:
hadoop fs -help ls
那么就会输出便于我们查看帮助:
-ls <path>: List the contents that match the specified file pattern. If
path is not specified, the contents of /user/<currentUser>
will be listed. Directory entries are of the form
dirName (full path) <dir>
and file entries are of the form
fileName(full path) <r n> size
where n is the number of replicas specified for the file
and size is the size of the file, in bytes.
至于我们在shell下操作,我想醉常见的莫过于创建文件夹、上传文件、删除文件文件夹、修改权限、查看文件内容这几个了,下面我来一个个说。
创建文件夹输入:
hadoop fs -mkdir /data
就会在根目录创建一个data文件夹;
可以使用下面命令查看:
hadoop fs -ls /
输出:
Found 2 items
drwxr-xr-x - hadoop supergroup 0 2014-12-15 19:00 /data
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:26 /usr
这个格式很像linux下的shell哦,drwxr-xr-x开头的d代表的是目录,这个跟linux谁一样的了,第二个字符‘-’表示副本数,此时文件夹是没有的因为文件夹是逻辑结构组成的,只有文件才有值。具体说明可以参考hadoo fs -help ls。
现在上传一个文件至/data下,我们使用:
hadoop fs -put ./test.txt /data/
再使用下面命令查看:
hadoop fs -ls /data
输出:
Found 1 items
-rw-r--r-- 1 hadoop supergroup 33 2014-12-15 19:05 /data/test.txt
此时-rw-r--r--可以看出表示是文件,副本数1。
那下面我们来查看一下上传的内容是不是跟本地的一样,我们可以使用命令:
hadoop fs -text /data/test.txt
这里输出不在对比了。这时我们使用了新的命令-text。查看文件内容的命令,具体参考
hadoop fs -help text
现在我们对刚创建的/data文件夹进行权限修改,先看当前的权限:
Found 2 items
drwxr-xr-x - hadoop supergroup 0 2014-12-15 19:05 /data
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:26 /usr
现在我们执行下面命令,把/data文件夹已经起下面的所有文件夹文件度改为777:
hadoop fs -chmod -R 777 /data
再使用下面命令查看:
hadoop fs -lsr /
结果:
drwxrwxrwx - hadoop supergroup 0 2014-12-15 19:05 /data
-rw-rw-rw- 1 hadoop supergroup 33 2014-12-15 19:05 /data/test.txt
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:26 /usr
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:56 /usr/local
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:56 /usr/local/hadoop
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:56 /usr/local/hadoop/tmp
drwxr-xr-x - hadoop supergroup 0 2014-12-15 18:47 /usr/local/hadoop/tmp/mapred
drwx------ - hadoop supergroup 0 2014-12-15 18:47 /usr/local/hadoop/tmp/mapred/system
-rw------- 1 hadoop supergroup 4 2014-12-15 18:47 /usr/local/hadoop/tmp/mapred/system/jobtracker.info
这时候的/data的权限已经更改了,连其文件夹下面的文件也更改了!不过这里我注意到这个文本文件的话即时更改为777但是执行权限也没有,不知道为什么。但是在linux是rwx的!下面我们再使用命令看看:
hadoop fs -chmod -R a+x /data
再使用:
hadoop fs -lsr /
结果就这里不显示了,但是还是未更改文本文件的执行权限,还是一样!可能真的是无法更改吧!
-rw-rw-rw- 1 hadoop supergroup 33 2014-12-15 19:05 /data/test.txt
上面几个尝试了,感觉就跟linux一样了,简单有时在调试的时候可以执行命令查看下,即将结束那就把上面创建的文件夹删除吧,执行:
hadoop fs -rmr /data
当然还有这个命令:
hadoop fs -rm /data/test.txt
这里我就不说它们的区别的了,我想熟悉linxu命令的都应该知道了!
这次先到这里。坚持记录点点滴滴!
Hadoop HDFS的Shell操作实例的更多相关文章
- Hadoop开发第6期---HDFS的shell操作
一.HDFS的shell命令简介 我们都知道HDFS 是存取数据的分布式文件系统,那么对HDFS 的操作,就是文件系统的基本操作,比如文件的创建.修改.删除.修改权限等,文件夹的创建.删除.重命名等. ...
- 大数据:Hadoop(JDK安装、HDFS伪分布式环境搭建、HDFS 的shell操作)
所有的内容都来源与 Hadoop 官方文档 一.Hadoop 伪分布式安装步骤 1)JDK安装 解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app 添加到系 ...
- HDFS02 HDFS的Shell操作
HDFS的Shell操作(开发重点) 目录 HDFS的Shell操作(开发重点) 基本语法 常用命令 准备工作 上传 -moveFromLocal 剪切 -copyFromLocal 拷贝 -put ...
- Hadoop HDFS文件常用操作及注意事项
Hadoop HDFS文件常用操作及注意事项 1.Copy a file from the local file system to HDFS The srcFile variable needs t ...
- Hadoop HDFS的shell(命令行客户端)操作实例
HDFS的shell(命令行客户端)操作实例 3.2 常用命令参数介绍 -help 功能:输出这个命令参数手册 -ls 功能:显示目录信息 示例: hadoop fs ...
- Hadoop读书笔记(二)HDFS的shell操作
Hadoop读书笔记(一)Hadoop介绍:http://blog.csdn.net/caicongyang/article/details/39898629 1.shell操作 1.1全部的HDFS ...
- Hadoop(6)-HDFS的shell操作
1.基本语法 使用 hadoop fs 具体命令 或者 hdfs dfs 具体命令 hadoop命令的shell源码 hdfs命令的shell源码 由此可见,这两个命令最后都是执行的一个jav ...
- HDFS的shell操作
bin/hadoop命令操作: namenode -format 格式化文件系统 fs(缩写:FileSystem) 运行一个文件系统的用户客户端 bin/hadoop fs常用命令操作: -ls h ...
- HDFS基本shell操作
在客户端输入Hadoop fs,可以查看所有的,hadoop shell # -help [cmd] //显示命令的帮助信息,如: hadoop fs -help ls # -ls(r) <pa ...
随机推荐
- ionic调用数据接口(post、解决 payload 问题)
$http({method:'POST', url:apiUrl, headers:{'Content-Type': 'application/x-www-form-urlencoded; chars ...
- break、continue、return之间的区别与联系
今天在部署程序的时候,监控日志发现这个问题了.return的问题就这么总结哈. 在软件开发过程中,逻辑清晰是非常之重要的. 代码的规范也是非常重要的.往往细节决定成败.在编写代码的时候,一定要理解语言 ...
- mac 操作idea快捷键
http://blog.csdn.net/rainytooo/article/details/51469126 在mac下idea的常用快捷键如下,下面的快捷键都亲自试用,并有一些和eclipse对比 ...
- 导入google地图
一直报地图页面的 java.lang.incompatibleclasschangeerror 想来想去,应该是包不兼容的原因,原本以为,在 build.gradle 里面 compileSdkVer ...
- windows下配置VisualSVN Server服务器
下载安装文件: 服务端安装文件:VisualSVN-Server-1.6.2 客户端安装文件:TortoiseSVN-1.5.5.14361-win32-svn-1.5.4 上面是我使用的版本. 在V ...
- 《转》我眼中的C# 3.0
本文转载自Allen Lee's Magic 缘起 每次有新技术发布时,我们总能感受到两种截然不同的情绪:一种是恐惧和抵抗,伴随着这种情绪的还有诸如"C# 2.0用的挺好的,为什么要在C# ...
- shell ln
功能:ln命令为某一个文件在另外一个位置建立一个同步的链接.当我们需要在不同的目录,用到相同的文件时,我们不需要在每一个需要的目录下都放一个必须相同的文件,我们只要在某个固定的目录,放上该文件,然后在 ...
- Servlet 工程 web.xml 中的 servlet 和 servlet-mapping 标签 《转载》
摘录某个工程的 web.xml 文件片段: 访问顺序为1—>2—>3—>4,其中2和3的值必须相同. url-pattern 标签中的值是要在浏览器地址栏中输入的 url,可以自己命 ...
- 知道WCF的地址用工厂通道方式快速调用WCF
知道WCF的地址用工厂通道方式快速调用WCF 1 using System; 2 using System.ServiceModel; 3 using System.ServiceModel.D ...
- 【Android】Android背景选择器selector用法汇总
一.创建xml文件,位置:drawable/xxx.xml,同目录下记得要放相关图片 <?xml version="1.0" encoding="utf-8&quo ...