Spark安装部署| 运行模式
1. Spark概述
一种基于内存的快速、通用、可扩展的大数据分析引擎;
内置模块:
Spark Core(封装了rdd、任务调度、内存管理、错误恢复、与存储系统交互);
Spark SQL(处理结构化数据)、
Spark Streaming(对实时数据进行流式计算) 、
Spark Mlib(机器学习程序库包括分类、回归、聚合、协同过滤等)、
Spark GraghX(图计算);
独立调度器、Yarn、Mesos
特点:
快( 基于内存(而MR是基于磁盘)、多线程模型(而mapReduce是基于多进程的,每个MR都是独立的JVM进程)、可进行迭代计算(而hadoop需要多个mr串行) )、
易用(支持java、scala、python等的API,支持超过80多种算法,支持交互式的 Python 和 Scala 的 shell,可方便地在shell中使用spark集群来验证解决问题,而不像以前需要打包上传验证)、
通用(spark提供了统一解决方案,可用于批处理、交互式查询(spark sql)\ 实时流式处理(spark streaming)\机器学习和图计算,可在同一应用中无缝使用)
兼容性(与其他开源产品的融合,如hadoop的yarn、Mesos、HDFS、Hbase等);
http://spark.apache.org/ 文档查看地址 https://spark.apache.org/docs/2.1.1/
集群角色
Master和Workers
1)Master
Spark特有资源调度系统的Leader。掌管着整个集群的资源信息,类似于Yarn框架中的ResourceManager,主要功能:
(1)监听Worker,看Worker是否正常工作;
(2)Master对Worker、Application等的管理(接收worker的注册并管理所有的worker,接收client提交的application,(FIFO)调度等待的application并向worker提交)。
2)Worker
Spark特有资源调度系统的Slave,有多个。每个Slave掌管着所在节点的资源信息,类似于Yarn框架中的NodeManager,主要功能:
(1)通过RegisterWorker注册到Master;
(2)定时发送心跳给Master;
(3)根据master发送的application配置进程环境,并启动StandaloneExecutorBackend(执行Task所需的临时进程)
Driver和Executor
1)Driver(驱动器)
Spark的驱动器是执行开发程序中的main方法的进程。它负责开发人员编写的用来创建SparkContext、创建RDD,以及进行RDD的转化操作和行动操作代码的执行。如果你是用spark shell,那么当你启动Spark shell的时候,系统后台自启了一个Spark驱动器程序,就是在Spark shell中预加载的一个叫作 sc的SparkContext对象。如果驱动器程序终止,那么Spark应用也就结束了。主要负责:
(1)把用户程序转为任务
(2)跟踪Executor的运行状况
(3)为执行器节点调度任务
(4)UI展示应用运行状况
2)Executor(执行器)
Spark Executor是一个工作进程,负责在 Spark 作业中运行任务,任务间相互独立。Spark 应用启动时,Executor节点被同时启动,并且始终伴随着整个 Spark 应用的生命周期而存在。如果有Executor节点发生了故障或崩溃,Spark 应用也可以继续执行,会将出错节点上的任务调度到其他Executor节点上继续运行。主要负责:
(1)负责运行组成 Spark 应用的任务,并将状态信息返回给驱动器进程;
(2)通过自身的块管理器(Block Manager)为用户程序中要求缓存的RDD提供内存式存储。RDD是直接缓存在Executor进程内的,因此任务可以在运行时充分利用缓存数据加速运算。
总结:Master和Worker是Spark的守护进程,即Spark在特定模式下正常运行所必须的进程。Driver和Executor是临时进程,当有具体任务提交到Spark集群才会开启的进程。
1. Local模式-本地单机
Linux中查看有多少核数:
[kris@hadoop101 ~]$ cat /proc/cpuinfo
...
[kris@hadoop101 ~]$ cat /proc/cpuinfo | grep 'processor' | wc -l
Local模式
在一台计算机,可以设置Master; (提交任务时需要指定--master)Local模式又分为:
① Local所有计算都运行在一个线程中(单节点单线程),没有任何并行计算;
②Local[K] ,如local[4]即运行4个Worker线程(单机也可以并行有多个线程),可指定几个线程来运行计算,通常CPU有几个Core就执行几个线程,最大化利用cpu的计算能力;
③Local[*], 直接帮你安装Cpu最多Cores来设置线程数,这种是默认的;
bin/spark-submit \ //提供任务的命令
--class org.apache.spark.examples.SparkPi \ //指定运行jar的主类
--master //它有默认值是local[*] =>spark://host:port, mesos://host:port, yarn, or local.
--executor-memory 1G \ //指定每个executor可用内存
--total-executor-cores \ 指定executor总核数
./examples/jars/spark-examples_2.-2.1..jar \ \\jar包
//main方法中的args参数 ./bin/spark-submit 回车可查看所有的参数
[kris@hadoop101 spark-local]$ bin/spark-shell
Spark context Web UI available at http://192.168.1.101:4040
Spark context available as 'sc' (master = local[*], app id = local-). ##spark core的入口sc
Spark session available as 'spark'. ##它是spark sql程序的入口
再起一个spark-shell会报错:
spark sql也有一个默认的元数据也是存在derby数据库里边
Failed to start database 'metastore_db' with class loader org.apache.spark.sql.hive.client.IsolatedClientLoader$$anon$@63e5b8aa, see the next exception for details.
Caused by: org.apache.derby.iapi.error.StandardException: Another instance of Derby may have already booted the datab 查看页面:hadoop101: scala> sc.textFile("./wc.txt").flatMap(_.split(" ")).map((_,)).reduceByKey(_+_).collect
res0: Array[(String, Int)] = Array((Hello,), (smile,), (java,), (world,), (kris,)) 提交任务(或者开启spark-shell)的时候会有driver和executor进程,Local模式下它被封装到了SparkSubmit中
提交任务分析
driver和executor是干活的;
① Client提交任务--->②起一个Driver ---> ③注册应用程序,申请资源--资源管理者有 (Master(Standalone模式)、ResourceManage(yarn模式))----->④拿到资源后去其他节点启动Executor----> ⑤Executor会反向注册给Driver汇报;
⑥(把提交的jar包做任务切分,把任务发给具体执行的节点Executor)--->Driver会进行初始化sc、任务划分、任务调度 <===>Executor具体执行任务(负责具体执行任务、textFile、flatMap、map...)
⑦ Driver把任务发到Executor不一定会执行,有可能资源cpu或内存不够了或者executor挂了,spark会有一个容错机制,某一个挂了可转移到其他的Executor;
最后任务跑完了,Driver会向资源管理者申请注销(Executor也会注销)
数据流程
textFile("input"):读取本地文件input文件夹数据;
flatMap(_.split(" ")):压平操作,按照空格分割符将一行数据映射成一个个单词;
map((_,1)):对每一个元素操作,将单词映射为元组;
reduceByKey(_+_):按照key将值进行聚合,相加;
collect:将数据收集到Driver端展示。
2. Standalone模式--完全分布式
概述
构建一个由Master+Slave构成的Spark集群,Spark运行在集群中;它的调度器是其实就是Master
提交任务时需要有一个客户端Client,Master和Worker是守护进程它们是资源管理系统,提交任务(运行spark-shell或者spark-submit)之前它们就已经启动了;
①提交--->起Driver就是初始化SparkContext,然后启动Executor时需要资源;②向Master申请资源(即注册),启动ExecutorBackend
启动Executor---->反向注册给Driver汇报信息;
③ Driver划分切分任务把Task发送给Executor,如果Executor会有一个容错机制,Executor运行时会给Driver发送报告Task运行状态直至结束;
④最后任务运行完之后driver向master申请注销,Executor也会注销掉;
不一定非要在Client中起Driver(SparkContext),cluster模式,具体在哪个节点起sc由Master决定,随机的在worker节点上选择一个一个;
Driver在哪个节点起的原因:driver和executor之间是有通讯,每个 executor都要向driver汇报信息,互相通讯(消耗内存、资源+cpu数); 所有的executor节点都去跟driver做通讯,客户端的压力就会特别大;
Client是本地调试用,输入之后马上能看到输入的结果;
1)修改slave文件,添加work节点:
[kris@hadoop101 conf]$ vim slaves
hadoop101
hadoop102
hadoop103
2)修改spark-env.sh文件,添加如下配置:
在高可用集群需把下面内容这给注释掉:
#SPARK_MASTER_HOST=hadoop101
#SPARK_MASTER_PORT=7077
[kris@hadoop101 conf]$ vim spark-env.sh
export JAVA_HOME=/opt/module/jdk1..0_144 ##如果遇到JAVA_HOME not set异常时可配置
SPARK_MASTER_HOST=hadoop101
SPARK_MASTER_PORT=7077
#配置历史服务
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080
-Dspark.history.retainedApplications=
-Dspark.history.fs.logDirectory=hdfs://hadoop101:9000/directory"
#配置高可用
export SPARK_DAEMON_JAVA_OPTS="
-Dspark.deploy.recoveryMode=ZOOKEEPER
-Dspark.deploy.zookeeper.url=hadoop101,hadoop102,hadoop103
-Dspark.deploy.zookeeper.dir=/spark"
3)修改spark-default.conf文件,开启Log:
[kris@hadoop101 conf]$ vi spark-defaults.conf
spark.eventLog.enabled true
spark.eventLog.dir hdfs://hadoop101:9000/directory
注意:HDFS上的目录需要提前存在。 hadoop fs -mkdir /directory
4) 分发spark包 分发的原因,因为这种模式下的资源调度是master和worker,各个节点需要自己去启进程;
[kris@hadoop101 module]$ xsync spark/spark-standalone
5)启动
② [kris@hadoop101 spark]$ sbin/start-all.sh
网页查看Master:hadoop101:8080
可看到Status:ALIVE;Memory in use 等信息 高可用集群的启动,要① 先启动zookeeper;
在hadoop102上(也可以是其他节点)单独启动master节点
[kris@hadoop102 spark]$ sbin/start-master.sh 启动历史服务之前要先启动 ③ start-dfs.sh
sbin/start-history-server.sh --->HistoryServer 查看历史服务hadoop101:18080
官方求PI案例
##运行之前上边的① ② ③步都要启动其他; 默认的是client模式
[kris@hadoop101 spark]$ bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://hadoop101:7077 \
--executor-memory 1G \
--total-executor-cores 2 \
./examples/jars/spark-examples_2.11-2.1.1.jar \
100
===>>
Pi is roughly 3.1417439141743913
启动spark shell
/opt/module/spark/bin/spark-shell \
--master spark://hadoop101:7077 \
--executor-memory 1g \
--total-executor-cores
只要提交了任务就可以看到driver和executor,driver被封装在了SparkSubmit里边;CoarseGrainedExecutorBackend就是启动的executor
提交任务提交给哪个executor都是有可能的
执行WordCount程序
scala>sc.textFile("./wc.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect
res0: Array[(String, Int)] = Array((Hello,2), (World,1), (java,2), (sbase,1), (spark,2), (Hi,1))
[kris@hadoop101 ~]$ jpsall
-------hadoop101-------
DataNode
Master
Worker
CoarseGrainedExecutorBackend
Jps
SparkSubmit
NameNode
QuorumPeerMain
-------hadoop102-------
CoarseGrainedExecutorBackend
QuorumPeerMain
Jps
DataNode
Worker
-------hadoop103-------
SecondaryNameNode
DataNode
QuorumPeerMain
Worker
Jps
在Standalone--cluster模式下
[kris@hadoop101 spark-standalone]$ bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://hadoop101:7077 \
--deploy-mode cluster \
--executor-memory 1G \
--total-executor-cores \
./examples/jars/spark-examples_2.-2.1..jar \ 任务未执行完时的进程:
[kris@hadoop101 spark-standalone]$ jpsall
-------hadoop101-------
CoarseGrainedExecutorBackend
HistoryServer
NameNode
Master
Jps
Worker
DataNode
-------hadoop102-------
CoarseGrainedExecutorBackend
DataNode
9911 Worker
Jps
-------hadoop103-------
DataNode
Worker
SecondaryNameNode
Jps
DriverWrapper ##cluster 模式下的Driver 任务执行完的进程:
[kris@hadoop101 spark-standalone]$ jpsall
-------hadoop101-------
HistoryServer
NameNode
Master
Worker
Jps
DataNode
-------hadoop102-------
DataNode
Worker
Jps
-------hadoop103-------
Jps
DataNode
Worker
SecondaryNameNode
spark-shell的 spark HA集群访问,前提是另外一个Master启起来了;
/opt/module/spark/bin/spark-shell \
--master spark://hadoop101:7077,hadoop102:7077 \
--executor-memory 1g \
--total-executor-cores
把其中ACTIVE状态节点的kill掉,另外一个Master的状态将从standby模式--->active状态;
可验证下:
scala>sc.textFile("./wc.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect
res0: Array[(String, Int)] = Array((Hello,2), (World,1), (java,2), (sbase,1), (spark,2), (Hi,1))
提交任务时:
--deploy-mode DEPLOY_MODE Whether to launch the driver program locally ("client") or
on one of the worker machines inside the cluster ("cluster")
(Default: client).
client和cluster的区别:
SparkContext的位置不同(也就是运行Driver的位置不一样),由Master决定,随机的在其他节点初始化一个sc
Driver和Executor之间会有通信,通信需要消耗资源内存cpu等,所有的executor去和客户端(如果是client模式,Driver是启在Client上的)去通信,
客户端的压力会非常大,如果有大量的executor再加上提交多个任务就启动多个Driver,那么Client单点就挂掉被拖垮;
cluster模式,每次提交任务时的sc的位置分散在不同节点上,分担了压力,
Client本地调试时候用,可以看到输出的结果,如可看到打印的π
--deploy-mode DEPLOY_MODE Whether to launch the driver program locally ("client") or
on one of the worker machines inside the cluster ("cluster")
(Default: client).
--executor-cores NUM Number of cores per executor. (Default: in YARN mode,
or all available cores on the worker in standalone mode) bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://hadoop101:7077 \
--deploy-mode cluster \
--executor-memory 1G \
--total-executor-cores \ ##总的是2,默认1个cores/executor--->推导出有2/1个executor;可控制executor的数量;
./examples/jars/spark-examples_2.-2.1..jar \ cluster模式下,driver叫DriverWrapper
3. Yarn模式
概述
之前的standalone模式,是自己Master和worker管理资源,分发是为了在各个节点启进程;yarn模式资源由RM、NM来管理
Spark客户端直接连接Yarn,不需要额外构建Spark集群。有yarn-client和yarn-cluster两种模式,主要区别在于:Driver程序的运行节点。
yarn-client:Driver程序运行在客户端,适用于交互、调试,希望立即看到app的输出;
yarn-cluster:Driver程序运行在由RM(ResourceManager)启动的AM(APPMaster)适用于生产环境。分担压力不会拖垮某个节点;
提交任务之前,客户端Client、ResourceManager、NodeManager都是要启动好的;
提交任务,App Submit; RM选择一个NM启动AM,AM来启动Driver(即初始化sc),yarn的cluster模式SparkAppMaster(用来申请资源,启动driver)和SparkContext在一个进程里边;
AM(SparkAppMaster)向RM申请启动Executor;(默认情况下一个节点启一个executor这样子负载比较均衡,也可以启两个),executor也是有个反向注册的过程;
切分分配任务,同时executor上报集群状况;跑完之后申请注销;
安装使用
1)修改hadoop配置文件yarn-site.xml,添加如下内容:
[kris@hadoop101 hadoop]$ vim yarn-site.xml
<!--是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
<!--是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
2)配置历史服务JobHistoryServer| 配置日志查看功能
修改spark-env.sh,添加如下配置:
[kris@hadoop101 conf]$ vim spark-env.sh
export JAVA_HOME=/opt/module/jdk1..0_144
YARN_CONF_DIR=/opt/module/hadoop-2.7./etc/hadoop # 配置JobHistoryServer 注意:HDFS上的目录需要提前存在。
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080
-Dspark.history.retainedApplications=
-Dspark.history.fs.logDirectory=hdfs://hadoop101:9000/directory"
从这里看到历史日志:http://hadoop102:8088/cluster点击直接跳转到spark中 http://hadoop101:18080/history/application_1554294467331_0001/jobs/
[kris@hadoop101 conf]$ vim spark-defaults.conf
#修改spark-default.conf文件,开启Log:
spark.eventLog.enabled true
spark.eventLog.dir hdfs://hadoop101:9000/directory
# 日志查看
spark.yarn.historyServer.address=hadoop101:
spark.history.ui.port=
提交任务到Yarn执行
[kris@hadoop101 spark-yarn]$ bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode client \
./examples/jars/spark-examples_2.-2.1..jar \
[kris@hadoop101 spark-yarn]$ bin/spark-shell --master yarn ##shell只能用client模式启动,默认的也是这种模式;
Spark context Web UI available at http://192.168.1.101:4040
Spark context available as 'sc' (master = yarn, app id = application_1554290192113_0004).
Spark session available as 'spark'. -------hadoop101-------
NodeManager
DataNode
SparkSubmit ##Driver还是被封装到这里边的
Jps
QuorumPeerMain
NameNode
-------hadoop102-------
CoarseGrainedExecutorBackend
Jps
DataNode
NodeManager
QuorumPeerMain
ResourceManager
ExecutorLauncher #Executor启动器,就是AppMaster,Cluster模式,AM和sc在一个进程里边的,这种模式AM的任务是:既可以申请资源又可以做任务切分和调度;
Client模式它们就不在一个进程了,由RM随机选择一个节点来启动AM,这种模式它的作用仅仅是用来申请资源去启动Executor;
-------hadoop103-------
DataNode
CoarseGrainedExecutorBackend
Jps
NodeManager
QuorumPeerMain
SecondaryNameNode
yarn--cluster模式
[kris@hadoop101 spark-yarn]$ bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn --deploy-mode cluster ./examples/jars/spark-examples_2.11-2.1.1.jar 在任务未完成之前的进程:
[kris@hadoop101 spark-yarn]$ jpsall
-------hadoop101-------
13328 SparkSubmit
12146 NodeManager
13706 CoarseGrainedExecutorBackend
12555 NameNode
12702 DataNode
13951 Jps
-------hadoop102-------
6864 ResourceManager
8101 Jps
7403 DataNode
6990 NodeManager
-------hadoop103-------
7984 ApplicationMaster ## Yarn-Cluster模式下SparkAppMaster和Sparkcontext即Driver是在一个进程的
8432 Jps
7560 SecondaryNameNode
8158 CoarseGrainedExecutorBackend
7230 NodeManager
7438 DataNode 任务完成之后的进程:
[kris@hadoop101 spark-yarn]$ jpsall
-------hadoop101-------
12146 NodeManager
12555 NameNode
12702 DataNode
14031 Jps
-------hadoop102-------
6864 ResourceManager
8153 Jps
7403 DataNode
6990 NodeManager
-------hadoop103-------
7560 SecondaryNameNode
8537 Jps
7230 NodeManager
7438 DataNode
[kris@hadoop101 spark-yarn]$ sbin/start-history-server.sh ##开启历史服务
提交任务到Yarn执行
[kris@hadoop101 spark-yarn]$ bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode client \
./examples/jars/spark-examples_2.-2.1..jar \
Mesos模式
Spark客户端直接连接Mesos;不需要额外构建Spark集群。国内应用比较少,更多的是运用yarn调度。
几种模式对比
package com.atguigu.spark
import org.apache.spark.{SparkConf, SparkContext}
object WordCount {
def main(args: Array[String]): Unit = {
//1.创建SparkConf并设置App名称
val conf = new SparkConf().setAppName("WordCount")
//2.创建SparkContext,该对象是提交Spark App的入口
val context = new SparkContext(conf)
//3.使用sc创建RDD并执行相应的transformation和action
context.textFile(args(0)).flatMap(_.split(" ")).map((_, 1)).reduceByKey(_+_, 1).sortBy(_._2, false).saveAsTextFile(args(1))
//4.关闭连接
context.stop()
}
}
/wc.txt必须在HDFS上有这个文件
[kris@hadoop101 spark-yarn]$ hadoop fs -put wc.txt /
[kris@hadoop101 spark-yarn]$ bin/spark-submit --class com.atguigu.spark.WordCount --master yarn --deploy-mode client /opt/module/spark/spark-yarn/WordCount.jar /wc.txt /out 结果:
(Hello,)
(smile,)
(kris,)
(alex,)
(hi,)
Spark安装部署| 运行模式的更多相关文章
- centos7 安装部署运行 Redis5
原文:centos7 安装部署运行 Redis5 Redis5 下载与解压(官网: https://redis.io/download ) 下载命令:wget http://download.redi ...
- spark集群运行模式
spark的集中运行模式 Local .Standalone.Yarn 关闭防火墙:systemctl stop firewalld.service 重启网络服务:systemctl restart ...
- Spark安装部署(local和standalone模式)
Spark运行的4中模式: Local Standalone Yarn Mesos 一.安装spark前期准备 1.安装java $ sudo tar -zxvf jdk-7u67-linux-x64 ...
- Spark 安装部署与快速上手
Spark 介绍 核心概念 Spark 是 UC Berkeley AMP lab 开发的一个集群计算的框架,类似于 Hadoop,但有很多的区别. 最大的优化是让计算任务的中间结果可以存储在内存中, ...
- spark学习(基础篇)--(第三节)Spark几种运行模式
spark应用执行机制分析 前段时间一直在编写指标代码,一直采用的是--deploy-mode client方式开发测试,因此执行没遇到什么问题,但是放到生产上采用--master yarn-clus ...
- 大话Spark(2)-Spark on Yarn运行模式
Spark On Yarn 有两种运行模式: Yarn - Cluster Yarn - Client 他们的主要区别是: Cluster: Spark的Driver在App Master主进程内运行 ...
- Spark安装部署
原创文章,转载请注明: 转载自www.cnblogs.com/tovin/p/3820979.html 一.系统环境配置 参照http://www.cnblogs.com/tovin/p/381890 ...
- Spark on YARN运行模式(图文详解)
不多说,直接上干货! 请移步 Spark on YARN简介与运行wordcount(master.slave1和slave2)(博主推荐) Spark on YARN模式的安装(spark-1.6. ...
- 安装部署Apache Hadoop (本地模式和伪分布式)
本节内容: Hadoop版本 安装部署Hadoop 一.Hadoop版本 1. Hadoop版本种类 目前Hadoop发行版非常多,有华为发行版.Intel发行版.Cloudera发行版(CDH)等, ...
随机推荐
- PHP——判断是否为加密协议https
前言 就是一个封装的方法,用来判断域名前面是加http还是https 代码 function is_ssl() { if(isset($_SERVER['HTTPS']) && ('1 ...
- AVL树探秘
本文首发于我的公众号 Linux云计算网络(id: cloud_dev) ,专注于干货分享,号内有 10T 书籍和视频资源,后台回复 「1024」 即可领取,欢迎大家关注,二维码文末可以扫. 一.AV ...
- [测试篇]MarkDown之代码块行号+折叠图片
对比测试代码编号 $(function(){ $('pre code').each(function(){ texts = $(this).text().replace(/&(?!#?[a-z ...
- ☆ [WC2006] 水管局长 「LCT动态维护最小生成树」
题目类型:\(LCT\)动态维护最小生成树 传送门:>Here< 题意:给出一张简单无向图,要求找到两点间的一条路径,使其最长边最小.同时有删边操作 解题思路 两点间路径的最长边最小,也就 ...
- 【linux】linux系统中常见配置文件说明
1.配置文件/proc/sys/fs/file-nr 里文件里显示三个数字 [root@localhost logs]# cat /proc/sys/fs/file-nr 已分配文件句柄的数目 已使用 ...
- 第四十篇-private,public,protected的区别
1.public: public表明该数据成员.成员函数是对所有用户开放的,所有用户都可以直接进行调用 2.private: private表示私有,私有的意思就是除了class自己之外,任何人都不可 ...
- 常用js方法整理(个人)
开头总要有点废话 今天想了下,还是分享下自己平时积累的一些实用性较高的js方法,供大家指点和评价.本想分篇介绍,发现有点画蛇添足.整理了下也没多少拿得出手的方法,自然有一些是网上看到的个人觉得很有实用 ...
- 应用调试(四)系统调用SWI
目录 应用调试(四)系统调用SWI 系统调用 SWI代码片段分析 分析sys_write 构造sys_hello 应用程序调用SWI 嵌入汇编语法 测试APP 参考 title: 应用调试(四)系统调 ...
- GO语言系列(五)- 结构体和接口
结构体(Struct) Go中struct的特点 1. 用来自定义复杂数据结构 2. struct里面可以包含多个字段(属性) 3. struct类型可以定义方法,注意和函数的区分 4. struct ...
- Kubenetes 资源清单定义入门
Kubernetes 常用资源 资源 对象 工作负载型资源对象(workload): Pod Replicaset ReplicationController Deployments Stat ...