1. Hadoop
(1).HDFS:
启动HDFS:start-dfs.sh
关闭HDFS:stop-dfs.sh
格式化NameNode:hdfs namenode -format
查看文件系统状态:hdfs dfsadmin -report
创建目录:hdfs dfs -mkdir /path/to/directory
上传本地文件到HDFS:hdfs dfs -put /path/to/local/file /path/to/hdfs/directory
下载HDFS文件到本地:hdfs dfs -get /path/to/hdfs/file /path/to/local/directory
查看HDFS文件内容:hdfs dfs -cat /path/to/hdfs/file
删除HDFS文件:hdfs dfs -rm /path/to/hdfs/file

(2). YARN:
启动YARN:start-yarn.sh
关闭YARN:stop-yarn.sh
查看YARN节点状态:yarn node -list
查看YARN应用程序状态:yarn application -list
提交YARN应用程序:yarn jar /path/to/app.jar com.example.Application arg1 arg2
杀死YARN应用程序:yarn application -kill application_id

(3). MapReduce:
提交MapReduce作业:hadoop jar /path/to/job.jar com.example.Job input_path output_path
查看MapReduce作业状态:mapred job -list
杀死MapReduce作业:mapred job -kill job_id

2. Hive:
启动Hive服务:hive --service hiveserver2
关闭Hive服务:hive --service hiveserver2 --stop
连接到Hive服务:beeline -u jdbc:hive2://localhost:10000
查看Hive表列表:show tables;
创建Hive表:create table table_name (column1 type1, column2 type2, …)
插入数据到Hive表:insert into table table_name values (value1, value2, …)
查询Hive表数据:select * from table_name
删除Hive表:drop table table_name

3. Spark
启动Spark集群:start-all.sh
关闭Spark集群:stop-all.sh
启动Spark Shell:spark-shell
提交Spark应用程序:spark-submit --class com.example.Application /path/to/app.jar arg1 arg2
查看Spark应用程序状态:spark-submit --status application_id
杀死Spark应用程序:spark-submit --kill application_id

4. ZooKeeper:
启动ZooKeeper:zkServer.sh start
关闭ZooKeeper:zkServer.sh stop
连接到ZooKeeper客户端:zkCli.sh -server localhost:2181
创建ZooKeeper节点:create /path/to/node data
获取ZooKeeper节点数据:get /path/to/node
更新ZooKeeper节点数据:set /path/to/node new_data
删除ZooKeeper节点:delete /path/to/node

5.Flink
(1).启动和停止Flink集群
启动Flink集群:./bin/start-cluster.sh
停止Flink集群:./bin/stop-cluster.sh
(2).提交和取消作业
提交作业:./bin/flink run <path/to/job.jar>
取消作业:./bin/flink cancel
(3).查看作业和任务状态
查看作业列表:./bin/flink list
查看作业状态:./bin/flink list -r
查看任务状态:./bin/flink list -t
(4).查看作业日志
查看作业日志:./bin/flink log
(5).告诉Flink任务已完成: ./bin/flink advance
(6).查看Flink配置:./bin/flink run -m : <path/to/job.jar>
(7).查看Flink Web UI
Flink Web UI默认端口为8081,通过浏览器访问即可: http://IP:8081

6.Flume
(1).启动Flume Agent
启动Flume Agent需要使用flume-ng命令,以及指定配置文件的路径。例如:
$ flume-ng agent --conf-file /path/to/flume.conf --name agent-name
#这里的`/path/to/flume.conf`为Flume Agent的配置文件路径,`agent-name`为Flume Agent的名称。

(2).停止Flume Agent
停止Flume Agent需要使用kill命令,以及指定Flume Agent的进程ID。例如:
$ ps -ef |grep Flume
$ kill -9 pid
#这里的`pid`为Flume Agent的进程ID,可以使用ps命令查看: 。

(3).查看Flume Agent的状态
查看Flume Agent的状态需要使用flume-ng命令,以及指定Flume Agent的名称和命令。例如:
$ flume-ng agent --name agent-name --status
#这里的`agent-name`为Flume Agent的名称,`--status`为查看状态的命令。

(4).查看Flume Agent的日志
查看Flume Agent的日志需要使用tail命令,以及指定Flume Agent的日志文件路径。例如:
$ tail -f /path/to/flume.log
#这里的`/path/to/flume.log`为Flume Agent的日志文件路径。

(5).测试Flume Agent的配置是否正确
测试Flume Agent的配置是否正确需要使用flume-ng命令,以及指定配置文件的路径和命令。例如:
$ flume-ng agent --conf-file /path/to/flume.conf --name agent-name --conf-test
#这里的`/path/to/flume.conf`为Flume Agent的配置文件路径,`agent-name`为Flume Agent的名称,`--conf-test`为测试配置的命令。

(6).查看Flume Agent的帮助信息
查看Flume Agent的帮助信息需要使用flume-ng命令,以及指定命令。例如:
$ flume-ng help
#这里的`help`为查看帮助信息的命令。

Hadoop集群常用组件的命令的更多相关文章

  1. Hadoop集群常用的shell命令

    Hadoop集群常用的shell命令 Hadoop集群常用的shell命令 查看Hadoop版本 hadoop -version 启动HDFS start-dfs.sh 启动YARN start-ya ...

  2. hadoop记录-hadoop集群日常运维命令

    hadoop集群日常运维命令 #1.namenode hadoop namenode -format #格式化,慎用 su hdfs hadoop-daemon.sh start namenode h ...

  3. (转)hadoop 集群常用端口

    转载于:https://www.cnblogs.com/liying123/p/7097806.html hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于 ...

  4. Hadoop入门 集群常用知识与常用脚本总结

    目录 集群常用知识与常用脚本总结 集群启动/停止方式 1 各个模块分开启动/停止(常用) 2 各个服务组件逐一启动/停止 编写Hadoop集群常用脚本 1 Hadoop集群启停脚本myhadoop.s ...

  5. Hadoop详解(02)Hadoop集群运行环境搭建

    Hadoop详解(02)Hadoop集群运行环境搭建 虚拟机环境准备 虚拟机节点数:3台 操作系统版本:CentOS-7.6-x86-1810 虚拟机 内存4G,硬盘99G IP地址分配 192.16 ...

  6. Hadoop 集群常见错误

    这里将自己在初识hadoop过程中遇到的一些错误做一个简单总结: (一)启动hadoop集群时易出现的错误: 错误现象:java.net.NoRouteToHostException: No rout ...

  7. 高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南

    原文:http://my.oschina.net/wstone/blog/365010#OSC_h3_13 (WJW)高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南 [X] ...

  8. 解决hadoop 集群启动常见错误办法

    hadoop 集群常见错误解决办法 hadoop 集群常见错误解决办法: (一)启动Hadoop集群时易出现的错误: 1.   错误现象:Java.NET.NoRouteToHostException ...

  9. hadoop 集群常见错误解决办法

    hadoop 集群常见错误解决办法 hadoop 集群常见错误解决办法: (一)启动Hadoop集群时易出现的错误: 1.   错误现象:Java.NET.NoRouteToHostException ...

  10. Hadoop集群-HDFS集群中大数据运维常用的命令总结

    Hadoop集群-HDFS集群中大数据运维常用的命令总结 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本篇博客会简单涉及到滚动编辑,融合镜像文件,目录的空间配额等运维操作简介.话 ...

随机推荐

  1. 简单实现el-dialog的拖拽功能

    首先还是要明确几个概念,这里通过修改css并截图给大家介绍下,理解了这几个概念,代码写起来会得心应手许多. clientWidth,clientHeight scrollWidth,scrollHei ...

  2. C#设计模式08——桥接模式的写法

    什么是C#桥接模式?桥接模式是一种结构型设计模式,它可以将抽象部分与实现部分分离,使它们可以独立地变化.这种模式通过将实现细节从抽象类中分离出来,从而让它们可以根据需要独立变化. 为什么要使用C#桥接 ...

  3. jmeter+badboy软件安装与使用

    目录: 一.软件下载安装 1.软件下载 2.安装过程 3.安装完成后界面,默认是已经开启录制模式 二.操作使用 1.访问sougou 2.搜索:mrwhite2020 3.选择导出jmx格式 4.使用 ...

  4. React报错之Property does not exist on type 'JSX.IntrinsicElements'

    正文从这开始~ 总览 当组件名称以小写字母开头时,会导致"Property does not exist on type 'JSX.IntrinsicElements'"错误.为了 ...

  5. [转帖]使用 TiUP 扩容缩容 TiDB 集群

    https://docs.pingcap.com/zh/tidb/stable/scale-tidb-using-tiup TiDB 集群可以在不中断线上服务的情况下进行扩容和缩容. 本文介绍如何使用 ...

  6. 【转帖】【漏洞提示】MySQL8.0.29因重大bug官网已下架

    前阵子,MySQL官网已经将 MySQL 8.0.29版本下架.据悉下架原因是由于MySQL 8.0.29 存在关于InnoDB解释器的重大Bug.而最新版本 8.0.30及以上的版本已修复此漏洞.各 ...

  7. [转帖]拜托!面试请不要再问我Spring Cloud底层原理

    https://www.cnblogs.com/jajian/p/9973555.html 概述# 毫无疑问,Spring Cloud是目前微服务架构领域的翘楚,无数的书籍博客都在讲解这个技术.不过大 ...

  8. [转帖]【JVM】字节码执行引擎

    引入 class文件就是字节码文件,是由虚拟机执行的文件.也就是java语言和C & C++语言的区别就是,整个编译执行过程多了一个虚拟机这一步.这个在 类文件结构 中已经解释.上一节讲了虚拟 ...

  9. [专贴]在软件测试中UT,IT,ST,UAT分别是什么意思?

    在软件测试中UT,IT,ST,UAT分别是什么意思? https://zhidao.baidu.com/question/205450063884417205.html     UT(Unit Tes ...

  10. add_argument()方法基本参数使用

    selenium做web自动化时我们想要通过get打开一个页面之前就设置好一些基本参数,需要 通过add_argument()方法来设置,下面以一个简单的不展示窗口为例. option = webdr ...