hadoop命令分为2级,在linux命令行中输入hadoop,会提示输入规则

Usage: hadoop [--config confdir] COMMAND
where COMMAND is one of:
namenode -format format the DFS filesystem
#这个命令用于格式化DFS系统:hadoop namenode -formate
secondarynamenode run the DFS secondary namenode
#运行第二个namenode
namenode run the DFS namenode
#运行DFS的namenode
datanode run a DFS datanode
#运行DFS的datanode
dfsadmin run a DFS admin client
#运行一个DFS的admin客户端
mradmin run a Map-Reduce admin client
#运行一个map-reduce文件系统的检查工具
fsck run a DFS filesystem checking utility
#运行一个DFS文件系统的检查工具
fs run a generic filesystem user client
#这个是daoop文件的系统的一级命令,这个非常常见!!!稍后详细讲解这个命令:例如hadoop fs -ls /
balancer run a cluster balancing utility
#作用于让各个datanode之间的数据平衡,例如:sh $HADOOP_HOME/bin/start-balancer.sh –t 15% oiv apply the offline fsimage viewer to an fsimage
#将fsimage文件的内容转储到指定文件中以便于阅读,oiv支持三种输出处理器,分别为Ls、XML和FileDistribution,通过选项-p指定
fetchdt fetch a delegation token from the NameNode
#运行一个代理的namenode
jobtracker run the MapReduce job Tracker node
#运行一个MapReduce的taskTracker节点
pipes run a Pipes job
#运行一个pipes作业
tasktracker run a MapReduce task Tracker node
#运行一个MapReduce的taskTracker节点
historyserver run job history servers as a standalone daemon
#运行历史服务作为一个单独的线程
job manipulate MapReduce jobs
#处理mapReduce作业,这个命令可以查看提交的mapreduce状态,杀掉不需要的job
queue get information regarding JobQueues
#队列管理,在后续版本中这个命名取消了
version print the version
#打印haoop版本
jar <jar> run a jar file
#运行一个jar包,比如mapreduce可以通过hadoop-streaming-1.2.1.jar进行开发
distcp <srcurl> <desturl> copy file or directories recursively
#distcp一般用于在两个HDFS集群中传输数据。如果集群在Hadoop的同一版本上运行,就适合使用hdfs方案:
 hadoop distcp hdfs://namenode1/foo hdfs://namenode2/bar
distcp2 <srcurl> <desturl> DistCp version
archive -archiveName NAME -p <parent path> <src>* <dest> create a hadoop archive
classpath prints the class path needed to get the
Hadoop jar and the required libraries
daemonlog get/set the log level for each daemon
or
CLASSNAME run the class named CLASSNAME
Most commands print help when invoked w/o parameters.

2.随时更新,用到一个更新一个:

格式化集群命令,这个命令一般在第一次启动集群时使用,注意,再次启动时候不能使用

hadoop namenode -formate

hdfs文件系统常见的命令:这些命令与linux系统命令非常类似:

[root@master /root]$ hadoop fs
Usage: java FsShell
[-ls <path>]#显示某个目录下的所有文件夹或者文件,与linux的ls命令类似
hadoop fs -ls /
[-lsr <path>]#以全路径的方式展示当前目录下及当前目录下所有子目录的全部文件,与linux系统下tree命令类似
hadoop fs -lsr /
[-du <path>]#显示目录下所有子目录或者文件所占空间(逻辑空间),与linux命令du类似(注意子目录)
hadoop fs -du /
[-dus <path>]#显示该目录所占空间(逻辑空间),与linux的du命令类似(输入目录,)
Hadoop fs -dus /
[-count[-q] <path>]#显示某目录占用的实际空间,其输出结果对应含义如下:
hadoop fs -count -q /
2147483647      2147483623            none             inf           16            8             811543 hdfs://192.168.121.10:9000/
           [-mv <src> <dst>]#与linux命令mv类似,重命名一个目录或者文件
hadoop fs -mv /mapreduce/out /mapreduce/Out2
[-cp <src> <dst>]#与linux命令cp复制,复制一个文件或者目录
hadoop fs -cp /mapreduce/out /
[-rm [-skipTrash] <path>]#删除某个文件 -skipTrash避免进入回收站而直接删除,在core-site.xml中可以配置启动防止误删机制
hadoop fs -rm /lalalala/_logs/history/job_201804021019_0008_1522767221715_root_streamjob9109570129325496092.jar
[-rmr [-skipTrash] <path>]递归删除文件夹及其内部所有文件,
-skipTrash避免进入回收站而直接删除,在core-site.xml中可以配置启动防止误删机制
hadoop fs -rmr /lalalala
[-expunge]#清空回收站
hadoop fs -expunge
[-put <localsrc> ... <dst>]#将文件上传至HDFS的某个目录中,
hadoop fs -put a.txt /mapreduce
[-copyFromLocal <localsrc> ... <dst>]#
[-moveFromLocal <localsrc> ... <dst>]
[-get [-ignoreCrc] [-crc] <src> <localdst>]
[-getmerge <src> <localdst> [addnl]]
[-cat <src>]
[-text <src>]
[-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>]
[-moveToLocal [-crc] <src> <localdst>]
[-mkdir <path>]
[-setrep [-R] [-w] <rep> <path/file>]
[-touchz <path>]
[-test -[ezd] <path>]
[-stat [format] <path>]
[-tail [-f] <file>]
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]
[-chgrp [-R] GROUP PATH...]
[-help [cmd]
]

hadoop常用命令详细解释的更多相关文章

  1. Linux学习笔记15——GDB 命令详细解释【转】

    GDB 命令详细解释 Linux中包含有一个很有用的调试工具--gdb(GNU Debuger),它可以用来调试C和C++程序,功能不亚于Windows下的许多图形界面的调试工具. 和所有常用的调试工 ...

  2. Hadoop常用命令及基本概念

    HADOOP 是什么? 分布式计算开源框架,其核心组件为:HDFS.MAPREDUCE.YARN Hadoop各个功能模块的理解 1. HDFS模块 HDFS负责大数据的存储,通过将大文件分块后进行分 ...

  3. 【Hadoop篇】--Hadoop常用命令总结

    一.前述 分享一篇hadoop的常用命令的总结,将常用的Hadoop命令总结如下. 二.具体 1.启动hadoop所有进程start-all.sh等价于start-dfs.sh + start-yar ...

  4. Hadoop常用命令总结

    一.前述 分享一篇hadoop的常用命令的总结,将常用的Hadoop命令总结如下. 二.具体 1.启动hadoop所有进程start-all.sh等价于start-dfs.sh + start-yar ...

  5. 大数据之路week06--day07(Hadoop常用命令)

    一.前述 分享一篇hadoop的常用命令的总结,将常用的Hadoop命令总结如下. 二.具体 1.启动hadoop所有进程start-all.sh等价于start-dfs.sh + start-yar ...

  6. Mysql常用命令 详细整理版

    Mysql常用命令 show databases; 显示数据库 create database name; 创建数据库 use databasename; 选择数据库 drop database na ...

  7. Linux 操作系统下 VI 编辑器常用命令详细介绍

    一.Vi 简介 vi是unix世界中最通用的全屏编辑器,linux中是用的是vi的加强版vim,vim同vi完全兼容,vi就是"visual interface"的缩写.它可以执行 ...

  8. Hadoop常用命令及范例

    hadoop中的zookeeper,hdfs,以及hive,hbase都是hadoop的组件,要学会熟练掌握相关的命令及其使用规则,下面就是一些常用命令及对hbase和hive的操作语句,同时也列出了 ...

  9. Hadoop常用命令介绍

    本文主要介绍 Hadoop 常用的命令. test命令 用于检测文件或目录是否存在,判断文件或目录大小. -test -[defsz] <path> : Answer various qu ...

随机推荐

  1. 【二】JConsole、VisualVM

    监控工具 jconsole.exe 只有10几k,真正的代码是包装在tools.jar中. 双击[本地线程]:sun.tools.jconsole.JConsole: 内存的线在上下起伏,证明是[垃圾 ...

  2. daemon_init函数:调用该函数把普通进程转变为守护进程

    #include <unistd.h> #include <syslog.h> #include <fcntl.h> #include <signal.h&g ...

  3. tensorflow faster rann

    github 上大神的代码 https://github.com/endernewton/tf-faster-rcnn.git 在自己跑的过程中的问题: 1. 数据集的问题: 作者实现了 voc,co ...

  4. 双系统中卸载Ubuntu后又efi系统分区删除方法

    参考:https://blog.csdn.net/qq_28057541/article/details/51723914 首先 window键(窗口键) + R ,然后输入 Diskpart 打开命 ...

  5. matplotlib-2D绘图库学习目录

    matplotlib的安装和 允许中文及几种字体 散点图 直线和点 子图 点的形状 条形图 堆叠条形图 直方图 颜色和样式字符串 饼状图  画多个图  画网格 线的形状  图例  坐标轴  画注释   ...

  6. JavaScript之Ajax Util

    ajax(即:Asynchronous JavaScript and XML(异步的 JavaScript 和 XML))经常在用,却经常忽略了底层的实现机制,今日写个小工具,大家也可拿去使用,如果写 ...

  7. linux如何查看端口号被哪个进程占用

    1.lsof -i:端口号 lsof(list open files) 2.netstat -tunlp |grep 端口号 t:tcp u:udp n:拒绝显示别名 l:仅显示listen的服务状态 ...

  8. json 的类型

    json靠双引号与单引号, 区分是NUMBER 还是 STRING

  9. 安装Vmware并破解

    1. 先下载Vmware安装包 链接:http://pan.baidu.com/s/1hsjCKgk 密码:c1o6 2. 解压缩 3. 运行VMware-workstation-full-10.0. ...

  10. 添加日志(配置spring)---Java_web

    一.配置日志--以下三部 1.配置web.xml;  2.配置 log4j.properties;  3.配置jar包 以下是文件目录 二.配置 web.xml (注意:下面的classpath即lo ...