hadoop之文件管理基本操作
# 格式化hdfs
hadoop namenode -format
# 查看hadoop下的文件夹
hadoop fs -ls
# 创建hdfs文件夹
hadoop fs -mkdir /user/input
# 将本地文件file.txt 复制到新建文件夹,file->hdfs
hadoop fs -put /user/wangbin/input/ip_data.txt wangbin
# 从hadoop复制到hadoop
# 从wangbin复制到wangbin
hadoop fs -put ip_list.txt /user/hadoop
# 从本地复制到hdfs
hadoop fs -copyFromLocal ip_data.txt /user/hadoop
# 从hdfs复制到本地
hadoop fs -copyToLocal sample.txt sample.txt
# 查看文件内容
hadoop fs -cat /user/output/outfile
# 查看顺序文件的内容
hadoop fs -text input/numbers.seq |head
# 从hdfs获取文件到本地,hdfs->file
hadoop fs -get /user/output/ /home/hadoop_tp/
# 更改所有人
hadoop fs -chown -R wangbin:wangbin /user/wangbin
# 删除含有文件的文件夹
hadoop fs -rmr output
# 并行复制文件或文件夹,以MapReduce作业实现,-overwrite 覆盖目标文件,-update 仅更新发生变化的部分 hadoop distcp ip_data.txt ip_datav2.txt
# 打包project为jar包,上传文件
export HADOOP_CLASSPATH=mapReduceDemoV1.jar
# 将hdfs上output目录下的多个文件合并成一个文件output-merge,并存储到本地,hdfs->file
hadoop fs -getmerge output output-merge
# 确定input存在,且output不存在,执行jar包
hadoop MaxTemperature sample.txt output
# 将本地文件追加到hdfs,file->hdfs
hadoop fs -appendToFile 1.txt 2.txt hdfs://cdh5/tmp/lxw1234.txt
# 将hdfs文件追加到hdfs
hadoop fs -cat hdfs://cdh5/tmp/lxw1234/*.txt | hadoop fs -appendToFile - hdfs://cdh5/tmp/hdfs_largefile.txt
#查看hadoop所有命令
hadoop fs
#显示该目录中每个文件或目录的大小
hadoop fs -du /tmp/logs/shtermuser/-.txt
#类似于du,PATH为目录时,会显示该目录的总大小
hadoop fs –dus PATH
#循环列出目录、子目录及文件信息
hadoop fs –lsr
#从HDFS文件系统删除test.txt文件,rm命令也可以删除空目录
hadoop fs –rm /user/sunlightcs/test.txt
#修改HDFS系统中/user/sunlightcs目录所属群组,选项-R递归执行,跟linux命令一样
hadoop fs –chgrp [-R] /user/sunlightcs
#修改HDFS系统中/user/sunlightcs目录拥有者,选项-R递归执行
hadoop fs –chown [-R] /user/sunlightcs
#修改HDFS系统中/user/sunlightcs目录权限,MODE可以为相应权限的3位数或+/-{rwx},选项-R递归执行
hadoop fs –chmod [-R] MODE /user/sunlightcs
#清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除
hadoop fs –expunge 对PATH进行如下类型的检查:
-e PATH是否存在,如果PATH存在,返回0,否则返回1
-z 文件是否为空,如果长度为0,返回0,否则返回1
-d 是否为目录,如果PATH为目录,返回0,否则返回1
hadoop fs –test –[ezd] PATH
echo $?获取返回值 #显示文件的内容,当文件为文本文件时,等同于cat,文件为压缩格式(gzip以及hadoop的二进制序列文件格式)时,会先解压缩
hadoop fs –text PATH 查看某个[ls]命令的帮助文档
hadoop fs –help ls
#移动文件,源目录可以有多个,目标只能是一个
hadoop fs -mv src dst
#统计hdfs对应路径下的目录个数,文件个数,文件总计大小
hadoop fs -count <hdfs path>
#创建一个0字节的空文件
hadoop fs -touchz pathname
#计算目录、文件个数和字节数
#hadoop fs -count path
#将单个src或多个srcs从本地文件系统附加到目标文件系统。 还从stdin读取输入并附加到目标文件系统。
hadoop fs -appendToFile localfile /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile1 localfile2 /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile hdfs://nn.example.com/hadoop/hadoopfile
#返回文件的校验信息
hadoop fs -checksum URI
#显示目录可用空间
hadoop fs -df path
#查找与指定表达式匹配的所有文件,并将选定的操作应用于它们。 如果未指定路径,则默认为当前工作目录。
hadoop fs -find / -name test -print
#显示文件和目录的访问控制列表(ACL)。 如果目录具有默认ACL,则getfacl还会显示默认ACL。
hadoop fs -getfacl [-R] <path>
#显示文件或目录的扩展属性名称和值(如果有)。
hadoop fs -getfattr [-R] -n name | -d [-e en] <path>
#以指定格式打印<path>中文件/目录的统计信息。
hadoop fs -stat [格式] <路径> ...
#将所有与指定文件模式匹配的文件截断为指定的长度。
hadoop fs -truncate [-w] <length> <paths>
hadoop之文件管理基本操作的更多相关文章
- Hadoop文件的基本操作
Hadoop提供了大量的API对文件系统中的文件进行操作,主要包括: (1)读取文件 (2)写文件 (3)读取文件属性 (4)列出文件 (5)删除文件 1、读取文件 以下示例中,将hdfs中的一个文件 ...
- Hadoop文件的基本操作 分类: A1_HADOOP 2014-12-05 11:36 392人阅读 评论(0) 收藏
Hadoop提供了大量的API对文件系统中的文件进行操作,主要包括: (1)读取文件 (2)写文件 (3)读取文件属性 (4)列出文件 (5)删除文件 1、读取文件 以下示例中,将hdfs中的一个文件 ...
- hadoop之hbase基本操作
hbase shell 进入hbase命令行 list 显示HBASE表 status 系统上运行的服务器的细节和系统的状态 version 返回HBase系统使用的版本 table_help 引导如 ...
- hadoop之hive基本操作
-- 清空表中的数据,保留表结构 truncate table tmp_userid; '); -- 搜索库或表支持正则表达式 show tables 'sa*'; show tables in ba ...
- hadoop 之 常用基本操作
HDFS 常用命令(hadoop fs.hadoop dfs.hdfs dfs): hadoop fs -ls 显示当前目录结构,-ls -R 递归显示目录结构 hadoop fs -mkdir 创建 ...
- C#中文件管理的运用(Twelfth Day)
又到了总结的时间了,今天在云和学院学习了文件管理的一些运用及复习昨天学的里氏转换.今天我就总结下昨天遗留下的问题以及今天所学的知识. 昨天遗留的问题 里氏转换(父类转子类) 例:在这里定义父类Peop ...
- php文件基本操作与文件管理功能
文件的基本操作 先来看一下PHP文件基础操作,请看强大注释 <body> <?php var_dump(filetype("./img/11.png")); // ...
- 【转帖】Hadoop — HDFS的概念、原理及基本操作
Hadoop — HDFS的概念.原理及基本操作 https://www.cnblogs.com/swordfall/p/8709025.html 分类: Hadoop undefined 1. HD ...
- [转] Hadoop入门系列(一)Window环境下搭建hadoop和hdfs的基本操作
转自:https://blog.csdn.net/qq_32938169/article/details/80209083 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载 ...
随机推荐
- sql 连接查询
什么是连接查询呢 概念:根据两个表或多个表的列之间的关系,从这些表中查询数据. 目的:实现多个表查询操作. 分类 首先划分一下,连接分为三种:内连接.外连接.交叉连接 内连接(INNER JOIN): ...
- 自己动手编写一个VS插件(六)
作者:朱金灿 来源:http://blog.csdn.net/clever101 在上篇中我们已经实现了创建和显示一个工具栏出来,它的效果图是这样的: 现在我们实现一些简单功能,具体就是单击按钮弹出一 ...
- 推荐5款实用的jQuery时间轴插件
1.使用CSS3和jQuery制作的水平时间轴 这是一个可以在PC和移动端表现非常棒的水平时间轴,它由上部水平滑块和下部时间点对应的内容区块,点击时间轴上的时间点,下部内容会滑动到对应的内容区块.使用 ...
- android4.4系统解决“ERRORcouldn't find native method”方法
android4.4系统解决"ERRORcouldn't find native method"方法 今天笔者在移植一个tv模块从android4.2到android4.4系统的设 ...
- 【STL】关联容器 — hashtable
C++ 11哈希表已被列入标准列.hashtable这是hash_set.hash_map.hash_multiset.hash_multimap的底层机制.即这四种容器中都包括一个hashtable ...
- 參数传递(引用,指针,值传递)C++11
C++中,函数的參数传递方式有值传递.地址传递.传地址有指针和引用方式. 在函数參数中,传地址的理由有: 1.使被调函数能够改动主调函数中的数据对象: 2.传地址能够降低数据拷贝,提高程序运行速度. ...
- react项目实践——(1)使用webpack创建项目
1. 新建文件夹,命名为项目名称——myapp,并打开myapp文件夹. mkdir webpack-demo && cd webpack-demo 2. 在./myapp中打开命令行 ...
- 辛星与您彻底解决CSS浮子(下一个)
上述博客文章,我们解释如何使用CSS浮子,这是一个看我们如何解释清除CSS浮子.其实CSS浮动是很清楚easy,只需要使用clear它财产,至于如何利用好它.很多人可能会表决雾,我是个新手的时候还经常 ...
- Swift是一个提供RESTful HTTP接口的对象存储系统,目的是为了提供一个和AWS S3竞争的服务
Swift是一个提供RESTful HTTP接口的对象存储系统,最初起源于Rackspace的Cloud Files,目的是为了提供一个和AWS S3竞争的服务. Swift于2010年开源,是Ope ...
- 【转载】如何使用docker部署c/c++程序
原文地址:https://blog.csdn.net/len_yue_mo_fu/article/details/80189035 Docker介绍 Docker是一个开源的容器引擎,它有助于更快地交 ...