注:hadoop的使用命令包含 hadoop fs 开头 or hdfs dfs开头 等多种形式来操作。 这里以hadoo fs的形式来介绍在这些命令

1.列出根目录下所有的目录或文件

hadoop fs -ls /

2.列出/user目录下的所有目录和文件

hadoop fs -ls /home

3.列出/user目录及其子目录下的所有文件

hadoop fs -ls -R /home

4.创建/soft目录

hadoop fs -mkdir /soft

5.创建多级目录

hadoop fs -mkdir -p /apps/wins/2020/01

6.将本地的word.jar文件上传到/word目录下

hadoop fs -put word.jar /word

7.下载word.jar文件到本地(先删除本地word.jar)

hadoop fs -get /word.jar

8.将/stu/students.txt文件拷贝到本地(先删除本地文件)

hadoop fs -copyToLocal /stu/students.txt

9.将word.txt文件拷贝到/word/input/目录

hadoop fs -copyFromLocal word.txt /word/input

10.将word.txt文件从本地移动到/word/input/目录下

hadoop fs -moveFromLocal word.txt /word/input

11.将/stu/students.txt拷贝一份为/stu/students.txt.bak

hadoop fs -cp /stu/students.txt /stu/students.txt.bak

12.将/word目录下的子目录或文件都拷贝到/logs目录

hadoop fs -cp /word /logs

13.将/word.txt文件重命名为/words.txt

hadoop fs -mv /word.txt /words.txt

14.将/words.txt文件移动到/word/input/目录下

hadoop fs -mv /words.txt /word/input/

15.将/logs目录以及子目录和文件都删除

hadoop fs -rm -r /logs

16.删除以"xbs-"开头的目录及其子目录

hadoop fs -rm -r /xbs-*

17.将/word/output2/目录下的a.txt文件删除

hadoop fs -rm /word/output2/a.txt

18.将/word/input/目录下面的所有文件都删除

hadoop fs -rm /word/input/*

19.查看HDFS集群的磁盘空间使用情况

hadoop fs -df –h

20.查看/word.txt文件的内容

hadoop fs -cat /word.txt

21.将zhao.txt文件中的内容添加到/word/input/word.txt文件中

hadoop fs -appendToFile zhao.txt /word/input/word.txt

22.动态查看/word/input/word.txt文件的内容

hadoop fs -tail -f /word/input/word.txt

23.统计/stu目录总大小

hadoop fs -du -s -h /stu

24.分别统计/stu目录下各个子目录(或文件)大小

hadoop fs -du -s -h /stu/*

25.运行jar包中的程序

hadoop jar word.jar com.hadoop.mr.WordCountDriver /word/input /out

26.查看hdfs集群状态

hdfs dfsadmin –report

Hadoop的常用命令的更多相关文章

  1. [转]hadoop hdfs常用命令

    FROM : http://www.2cto.com/database/201303/198460.html hadoop hdfs常用命令   hadoop常用命令:  hadoop fs  查看H ...

  2. hadoop fs 常用命令(1)

    Hadoop: https://blog.csdn.net/mulangren1988/article/details/54860924 Hadoop:1. Hadoop fs –fs [local ...

  3. Hadoop文件系统常用命令

    1.查看指定目录下内容 hadoop dfs –ls [文件目录] eg: hadoop dfs –ls /user/wangkai.pt 2.打开某个已存在文件 hadoop dfs –cat [f ...

  4. Hadoop环境常用命令

    用户可以通过dfsadmin -safemode value   来操作安全模式,参数value的说明如下: enter - 进入安全模式 leave - 强制NameNode离开安全模式 get - ...

  5. Hadoop HDFS常用命令

    1.查看hdfs文件目录 hadoop fs -ls / 2.上传文件 hadoop fs -put 文件路径 目标路径 在浏览器查看:namenodeIP:50070 3.下载文件 hadoop f ...

  6. Hadoop记录-Hadoop shell常用命令

  7. 【Hadoop篇】--Hadoop常用命令总结

    一.前述 分享一篇hadoop的常用命令的总结,将常用的Hadoop命令总结如下. 二.具体 1.启动hadoop所有进程start-all.sh等价于start-dfs.sh + start-yar ...

  8. Hadoop常用命令总结

    一.前述 分享一篇hadoop的常用命令的总结,将常用的Hadoop命令总结如下. 二.具体 1.启动hadoop所有进程start-all.sh等价于start-dfs.sh + start-yar ...

  9. 大数据之路week06--day07(Hadoop常用命令)

    一.前述 分享一篇hadoop的常用命令的总结,将常用的Hadoop命令总结如下. 二.具体 1.启动hadoop所有进程start-all.sh等价于start-dfs.sh + start-yar ...

随机推荐

  1. c++派生类中构造函数和析构函数执行顺序、判断对象类型、抽象类、虚函数

    一. 代码: 1 #include<stdio.h> 2 #include<string.h> 3 #include<algorithm> 4 #include&l ...

  2. Milk Patterns POJ - 3261 后缀数组

    Farmer John has noticed that the quality of milk given by his cows varies from day to day. On furthe ...

  3. Centos7 搭建Nginx+rtmp+hls直播推流服务器

    1 准备工具 使用yum安装git [root~]# yum -y install git 下载nginx-rtmp-module,官方github地址 // 通过git clone 的方式下载到服务 ...

  4. 网络之一次http请求的完整过程

    关于网络的知识平时可能真正用的比较少,但是有一些点还是需要总结的: 完成一次http请求要大致可以分为7个步骤: 一.TCP三次握手 第一次握手:建立连接.客户端发送连接请求报文段,将SYN位置为1, ...

  5. 一些CTF题目--20/9/3

    1. 看源码 POST方法.Extract覆盖. 直接url ?参数不行,因为POST参数不在URL上,GET参数才在 Burpsuite抓包,改成  pass=1&thepassword_1 ...

  6. 一些简单的SQL语句

    简单的SQL入门 一,简介 1,  一个数据库包含一个或多个表,表包含带有数据的记录(行) 2,  SQL对大小写不敏感,语句的分号看具体情况 二,语法 1,  数据操作语言:DML a)       ...

  7. acm 快速傅里叶变换的理解

    A(x)=A4[0](x*x)+x*A4[1](x*x);x=1,w,w*w,w*w*wwi means w^in=4;w=w[4]result shuould bey[0]=A4[0](1*1)+1 ...

  8. 记一次 Billu_b0x渗透

    目录: 0x01 寻找ip 1.这边我们是使用的nmap来寻找我们的靶机IP地址,开始Ip是1,结束是254,153是我kali的ip,所以158就是我们的靶机的ip地址了. 2. 查看端口服务 这边 ...

  9. Roman Numerals All In One

    Roman Numerals All In One 罗马数字 refs https://www.mathsisfun.com/roman-numerals.html https://www.maths ...

  10. 使用 js 实现十大排序算法: 计数排序

    使用 js 实现十大排序算法: 计数排序 计数排序 refs xgqfrms 2012-2020 www.cnblogs.com 发布文章使用:只允许注册用户才可以访问!