Hadoop 使用小命令(2)
一、查看一堆文件共有多少行
查看file1/file2目录下所有文件总共多少行
hadoop fs -text file1/file2/* | wc -l
二、正则表达式
hadoop fs -text file1/file2/* | grep ','
匹配file1/file2/*文件中含逗号','的内容。
二、deflate文件
1、查看:(hdfs处理之后一种压缩文件),可以采用hadoop fs -text +文件名查看
2、解压:(解压一个文件)解压Hadoop的file1/file2目录下file_a文件到本地file_b文件中:
hadoop fs -text file1/file2/file_a.deflate> file_b
(解压所有文件到本地一个文件)
hadoop fs -text file1/file2/*> file_b
三、从Hadoop上下载文件到本地当前目录下
【若报错:input/output,查看目录有没有写对,以及本地当前目录是否有权限写入,如果没有,修改文件权限】
hadoop fs -get hadoop_file1/file_2
四、检查文件存不存在test
test
使用方法:hadoop fs -test -[ezd] URI
选项:-e 检查文件是否存在。如果存在则返回0。-z 检查文件是否是0字节。如果是则返回0。-d 如果路径是个目录,则返回1,否则返回0。
示例:
hadoop fs -test -e filename
shell命令的返回值用 $? 表示;还需要执行 echo $?; 查看
五、统计目录下文件大小
-du 统计目录下文件大小 ; -du -s 汇总目录下文件大小,单位字节 ; -du -h ,显示目录下各个文件的大小。
-du -s -h /user/hive/warehouse/table_test
# 汇总该表所占据的存储空间,显示单位
六、两个集群之间的分布式拷贝:distcp
distcpfromlycc $REMOTE_DIR $HDFS_BASE_DIR
注意:lycc的远程路径是绝对路径,Hadoop 的hdfs路径也是绝对路径,不然会报什么不是挂载点错误
七、hadoop上命令行查看lzo、gz、bz文件
https://sukbeta.github.io/hadoop-lzo-gz-bz2/
HDFS上的文件可能是压缩的,所以用cat不能直接查看。hadoop上默认支持lzo、gz、bz2、snappy压缩格式。
我们用命令行查看HDFS上压缩文件,也是可以的。
lzo文件
- 查看 HDFS 上 lzo 文件的命令
hadoop fs -cat /Data/Logs/--/--22_log.lzo | lzop -dc | head - 或 hadoop fs -cat /Data/Logs/--/--22_log.lzo | lzop -dc | head - lzop 会接受输入流然后解压输出流给head显示第一行
gzip 文件
- 查看 HDFS 上 gzip 文件的命令
hadoop fs -cat /shining/temp.txt.gz | gzip -d
或
hadoop fs -cat /shining/temp.txt.gz | zcat
bz2 文件
- 查看 HDFS 上 bz2 文件的命令
hadoop fs -cat /temp/b.bz2 | bzip2 -d
text 命令
Hadoop text 命令可以查看HDFS上的文本、压缩文件
hadoop fs -text /temp/b.bz2 hadoop fs -text /temp/test_hive.txt.gz hadoop fs -text /temp/l.lzo hadoop fs -text /tmp/out1/part-r-
Hadoop 使用小命令(2)的更多相关文章
- 如何利用Hadoop存储小文件
**************************************************************************************************** ...
- Hadoop常见重要命令行操作及命令作用
关于Hadoop [root@master ~]# hadoop --help Usage: hadoop [--config confdir] COMMANDwhere COMMAND is one ...
- Hadoop 之Hbase命令
一.常用命令:(hbase shell 进入终端) 1.创建表: create 'users','user_id','address','info' 表users,有三个列族user_id,addre ...
- Hadoop之Storm命令
Hadoop之Storm命令 1.storm核心概念 stream--->一列火车 tuple--->一节车厢 数据--->乘客 spout--->始发站 bolt---> ...
- [转]hadoop hdfs常用命令
FROM : http://www.2cto.com/database/201303/198460.html hadoop hdfs常用命令 hadoop常用命令: hadoop fs 查看H ...
- Linux下提权常用小命令
有些新手朋友在拿到一个webshell后如果看到服务器是Linux或Unix操作系统的就直接放弃提权,认为Linux或Unix下的提权很难,不是大家能做的,其实Linux下的提权并没有很多人想象的那么 ...
- hadoop 安装、命令
hadoop安装步骤: 安装java 安装hadoop 下载地址:http://apache.claz.org/hadoop/common/ (说明:该网址current文件夹下,是最新版) hado ...
- 介绍hadoop中的hadoop和hdfs命令
有些hive安装文档提到了hdfs dfs -mkdir ,也就是说hdfs也是可以用的,但在2.8.0中已经不那么处理了,之所以还可以使用,是为了向下兼容. 本文简要介绍一下有关的命令,以便对had ...
- Hadoop的常用命令
注:hadoop的使用命令包含 hadoop fs 开头 or hdfs dfs开头 等多种形式来操作. 这里以hadoo fs的形式来介绍在这些命令 1.列出根目录下所有的目录或文件 hadoop ...
随机推荐
- Spring MVC-集成(Integration)-Hibernate验证器示例(转载实践)
以下内容翻译自:https://www.tutorialspoint.com/springmvc/springmvc_hibernate_validator.htm 说明:示例基于Spring MVC ...
- 经典左右布局demo
<!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8&qu ...
- UNIX环境高级编程之第3章:文件I/O
3.1 引言 文件I/O函数:打开文件,读文件,写文件 经常使用到五个函数:open, read, write, lseek, close. 本章描写叙述的函数都是:不带缓冲的I/O(unbuffer ...
- 民意调查Django实现(三)
我们接着第二小节的開始继续我们的旅程. 我们会继续Web-poll应用.而且将会专注于创建公共接口 - "Views". 哲学思想 一个视图是你的Django应用中的一个Web页面 ...
- C++ Web 编程(菜鸟教程)
C++ Web 编程(菜鸟教程) C++ Web 编程 什么是 CGI? 公共网关接口(CGI),是一套标准,定义了信息是如何在 Web 服务器和客户端脚本之间进行交换的. CGI 规范目前是由 NC ...
- 杂项-Java:EL表达式
ylbtech-杂项-Java:EL表达式 EL(Expression Language) 是为了使JSP写起来更加简单.表达式语言的灵感来自于 ECMAScript 和 XPath 表达式语言,它提 ...
- APP-Android:APK
ylbtech-APP-Android:APK APK是AndroidPackage的缩写,即Android安装包(apk).APK是类似Symbian Sis或Sisx的文件格式.通过将APK文件直 ...
- 在linux查看内存的大小
用free -m查看的结果: # free -m total used free shared buffers cached Mem: ...
- PCB 后台自动系统集成与邮件推送实现
在PCB行业中,工程系统是主要数据生产者,而这些数据不仅仅给自己系统使用呀,我们需要将数据传递到各系统,才达到各系统共同协作的目的. 这里以问答方式对实现方式进行讲解.呵呵呵! 后台自动集成问题解答: ...
- Human Gene Functions(dp)
http://poj.org/problem?id=1080 #include <stdio.h> #include <stdlib.h> #include <strin ...