1.1.启动集群

sbin/start-dfs.sh
注:这个启动脚本是通过ssh对多个节点的namenode、datanode、journalnode以及zkfc进程进行批量启动的。

1.2.启动NameNode

sbin/hadoop-daemon.sh start namenode
1.3.启动DataNode

sbin/hadoop-daemon.sh start datanode
1.4. 启动 MR的HistoryServer

sbin/mr-jobhistory-daemon.sh start historyserver

1.4.停止集群

sbin/stop-dfs.sh
1.5.停止单个进程

sbin/hadoop-daemon.sh stop zkfc
sbin/hadoop-daemon.sh stop journalnode
sbin/hadoop-daemon.sh stop datanode
sbin/hadoop-daemon.sh stop namenode
参考:http://www.cnblogs.com/jun1019/p/6266615.html

2. Yarn (v 2.7.3)

2.1.启动集群

sbin/start-yarn.sh
注:start-yarn.sh启动脚本只在本地启动一个ResourceManager进程,而3台机器上的nodemanager都是通过ssh的方式启动的。

2.2.启动ResouceMananger

sbin/yarn-daemon.sh start resourcemanager
2.3.启动NodeManager

sbin/yarn-daemon.sh start nodemanager
2.3.启动JobHistoryServer

sbin/yarn-daemon.sh start historyserver
2.4.停止集群

sbin/stop-yarn.sh
2.5.停止单个节点

sbin/yarn-daemon.sh stop resourcemanager
sbin/yarn-daemon.sh stop nodemanager
参考:http://www.cnblogs.com/jun1019/p/6266615.html

3. Zookeeper (v 3.4.5)

3.1.启动集群

bin/zkServer.sh start
3.2.启动单个节点

bin/zkServer.sh start
3.3.启动客户端

bin/zkCli.sh -server master:2181

4.Kafka (v 2.10-0.10.1.1)

4.1.启动集群

bin/kafka-server-start.sh -daemon config/server.properties
4.2.启动单个节点

bin/kafka-server-start.sh -daemon config/server.properties
4.3.创建Topic

bin/kafka-topics.sh --create --zookeeper master:2181 --replication-factor 1 --partitions 1 --topic test
4.4.列出Topic

bin/kafka-topics.sh --list --zookeeper master:2181
4.5.生产数据

bin/kafka-console-producer.sh --broker-list master:9092 --topic test
4.6.读取数据

bin/kafka-console-consumer.sh --zookeeper master:2181 --topic test --from-beginning

5.Hbase (v 1.2.4)

5.1.启动/停止集群

bin/start-hbase.sh
bin/stop-hbase.sh
5.2. 启动/停止HMaster

bin/hbase-daemon.sh start master
bin/hbase-daemon.sh stop master
5.3. 启动/停止HRegionServer

bin/hbase-daemon.sh start regionserver
bin/hbase-daemon.sh stop regionserver
5.2.启动Shell

bin/hbase shell

6.Spark (v 2.1.0-bin-hadoop2.7)

6.1.启动程序

6.1.1. 本地

bin/spark-shell --master local
6.1.2.Standalone

bin/spark-shell --master spark://master:7077
6.1.3. Yarn Client

bin/spark-shell --master yarn-client
6.1.4. Yarn Cluster

bin/spark-shell --master yarn-cluster
7. Flume

7.1启动Agent

bin/flume-ng agent -n LogAgent -c conf -f conf/logagent.properties -Dflume.root.logger=DEBUG,console

8.Sqoop

8.1.导入

sqoop import \
--connect jdbc:mysql://mysql.example.com/sqoop \
--username sqoop \
--password sqoop \
--table cities
8.2.导出

复制代码
sqoop export \
--connect jdbc:mysql://mysql.example.com/sqoop \
--username sqoop \
--password sqoop \
--table cities \
--export-dir cities
复制代码

9.Hive

9.1 启动metastore

nohup hive --service metastore >> /home/zkpk/apache-hive-2.1.1-bin/metastore.log 2>&1 &
9.2 启动Hive server

nohup hive --service hiveserver2 >> /home/zkpk/apache-hive-2.1.1-bin/hiveserver.log 2>&1 &
9.2. 启动Shell

hive -h <host> -p <port>
beeline
!connect jdbc:hive2://master:10000
10. Mysql

10.1.启动Shell

mysql -u<user> -p<password>

---------------------------------------------------------------

5).启动storm集群:

[hadoop@bgs-5p173-wangwenting storm]$ cd /opt/storm/bin
[hadoop@bgs-5p173-wangwenting bin]$ nohup ./storm nimbus &
[hadoop@bgs-5p173-wangwenting bin]$ nohup ./storm ui &
b.再在bgs-5p174-wangwenting,bgs-5p175-wangwenting机器上启动supervisor
[hadoop@bgs-5p174-wangwenting bin]$ nohup ./storm supervisor &
[hadoop@bgs-5p175-wangwenting bin]$ nohup ./storm supervisor &

hadoop大数据组件启动的更多相关文章

  1. 单机,伪分布式,完全分布式-----搭建Hadoop大数据平台

    Hadoop大数据——随着计算机技术的发展,互联网的普及,信息的积累已经到了一个非常庞大的地步,信息的增长也在不断的加快.信息更是爆炸性增长,收集,检索,统计这些信息越发困难,必须使用新的技术来解决这 ...

  2. hadoop大数据技术架构详解

    大数据的时代已经来了,信息的爆炸式增长使得越来越多的行业面临这大量数据需要存储和分析的挑战.Hadoop作为一个开源的分布式并行处理平台,以其高拓展.高效率.高可靠等优点越来越受到欢迎.这同时也带动了 ...

  3. 【HADOOP】| 环境搭建:从零开始搭建hadoop大数据平台(单机/伪分布式)-下

    因篇幅过长,故分为两节,上节主要说明hadoop运行环境和必须的基础软件,包括VMware虚拟机软件的说明安装.Xmanager5管理软件以及CentOS操作系统的安装和基本网络配置.具体请参看: [ ...

  4. Hadoop大数据部署

    Hadoop大数据部署 一. 系统环境配置: 1. 关闭防火墙,selinux 关闭防火墙: systemctl stop firewalld systemctl disable firewalld ...

  5. (第1篇)什么是hadoop大数据?我又为什么要写这篇文章?

    摘要: hadoop是什么?hadoop是如何发展起来的?怎样才能正确安装hadoop环境? 这些天,有很多人咨询我大数据相关的一些信息,觉得大数据再未来会是一个朝阳行业,希望能尽早学会.入行,借这个 ...

  6. hadoop大数据平台安全基础知识入门

    概述 以 Hortonworks Data Platform (HDP) 平台为例 ,hadoop大数据平台的安全机制包括以下两个方面: 身份认证 即核实一个使用者的真实身份,一个使用者来使用大数据引 ...

  7. 超人学院Hadoop大数据资源分享

    超人学院Hadoop大数据资源分享 http://bbs.superwu.cn/forum.php?mod=viewthread&tid=770&extra=page%3D1 很多其它 ...

  8. 超人学院Hadoop大数据技术资源分享

    超人学院Hadoop大数据技术资源分享 http://bbs.superwu.cn/forum.php?mod=viewthread&tid=807&fromuid=645 很多其它精 ...

  9. 超人学院Hadoop大数据资源共享

    超人学院Hadoop大数据资源共享-----数据结构与算法(java解密版) http://yunpan.cn/cw5avckz8fByJ   訪问password b0f8 很多其它精彩内容请关注: ...

随机推荐

  1. django+channels+dephne实现websockrt部署

    当你的django项目中使用channels增加了websocket功能的时候,在使用runserver命令启动时,既可以访问http请求,又可以访问websocket请求.但是当你使用uWSGI+n ...

  2. PyQt(Python+Qt)学习随笔:print标准输出sys.stdout以及stderr重定向QTextBrowser等图形界面对象

    专栏:Python基础教程目录 专栏:使用PyQt开发图形界面Python应用 专栏:PyQt入门学习 老猿Python博文目录 <在Python实现print标准输出sys.stdout.st ...

  3. 第十三章、Designer中的按钮Buttons组件详解

    老猿Python博文目录 专栏:使用PyQt开发图形界面Python应用 老猿Python博客地址 一.引言 Qt Designer中的Buttons部件包括Push Button(常规按钮.一般称按 ...

  4. PyQt(Python+Qt)学习随笔:Qt中的部分类型QString、QList和指针、引用在PyQt中的实现方式

    老猿Python博文目录 老猿Python博客地址 在我们查阅Qt的文档资料时,可以看到Qt中的链表使用的是QList,字符串使用的是QString,但老猿在测试时发现这两个类型PyQt不支持,无法找 ...

  5. PyQt(Python+Qt)学习随笔:Qt Designer中Action的信号

    Action与菜单和工具栏挂接后,只是实现了相关的关联关系,但并不能执行响应操作,真正的响应操作是通过Action的信号与对应槽函数连接实现的. Action提供了4种信号: changed()信号: ...

  6. PyQt(Python+Qt)学习随笔:formLayout的layoutFieldGrowthPolicy属性

    Qt Designer的表单布局(formLayout)中,layoutFieldGrowthPolicy用于控制表单布局中输入部件大小的增长方式.如图: 该字段实际与QFormLayout类的Fie ...

  7. Day6 Scrum 冲刺博客

    一.站立式会议# 1. 会议照片 2. 工作进度+燃尽图  团队成员 昨日完成工作  今日工作计划 遇到的困难  周梓波  将方块旋转变形  添加键盘监听事件  不熟悉监听事件的操作  纪昂学  左右 ...

  8. Vue 的父组件和子组件生命周期钩子执行顺序是什么

    加载渲染过程父beforeCreate->父created->父beforeMount->子beforeCreate->子created->子beforeMount-&g ...

  9. STL—— 容器(vector)数据插入insert()方法 的返回值

    vector 容器下的 insert() 方法拥有返回值,由于insert() 方法拥有4种重载函数,他的返回值不尽相同. 第一种,插入单个元素后的返回值: 1 #include <iostre ...

  10. 安全声明标记语言SAML2.0初探

    目录 简介 SAML的构成 SAML的优势 SAML是怎么工作的 SP redirect request; IdP POST response SP POST Request; IdP POST Re ...