【Scala】利用akka实现Spark启动通信
思路分析
1.首先启动master,然后依次启动worker
2.启动worker时,向master发送注册信息(使用case class封装注册信息——workerID,memory,cores)
3.接收注册信息,保存注册的worker信息,返回注册成功的消息
4.worker需要定时向master发送心跳信息,这么做的目的是报活
5.master需要定时进行心跳超时检测,剔除心跳超时的worker
步骤
一、创建maven工程,导包
<properties>
<maven.compiler.source>1.8</maven.compiler.source>
<maven.compiler.target>1.8</maven.compiler.target>
<encoding>UTF-8</encoding>
<scala.version>2.11.8</scala.version>
<scala.compat.version>2.11</scala.compat.version>
</properties>
<dependencies>
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
<version>${scala.version}</version>
</dependency>
<dependency>
<groupId>com.typesafe.akka</groupId>
<artifactId>akka-actor_2.11</artifactId>
<version>2.3.14</version>
</dependency>
<dependency>
<groupId>com.typesafe.akka</groupId>
<artifactId>akka-remote_2.11</artifactId>
<version>2.3.14</version>
</dependency>
</dependencies>
<build>
<sourceDirectory>src/main/scala</sourceDirectory>
<testSourceDirectory>src/test/scala</testSourceDirectory>
<plugins>
<!-- 限制jdk的编译版本插件 -->
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<version>3.0</version>
<configuration>
<source>1.8</source>
<target>1.8</target>
<encoding>UTF-8</encoding>
</configuration>
</plugin>
<plugin>
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<version>3.2.2</version>
<executions>
<execution>
<goals>
<goal>compile</goal>
<goal>testCompile</goal>
</goals>
<configuration>
<args>
<arg>-dependencyfile</arg>
<arg>${project.build.directory}/.scala_dependencies</arg>
</args>
</configuration>
</execution>
</executions>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-shade-plugin</artifactId>
<version>2.4.3</version>
<executions>
<execution>
<phase>package</phase>
<goals>
<goal>shade</goal>
</goals>
<configuration>
<filters>
<filter>
<artifact>*:*</artifact>
<excludes>
<exclude>META-INF/*.SF</exclude>
<exclude>META-INF/*.DSA</exclude>
<exclude>META-INF/*.RSA</exclude>
</excludes>
</filter>
</filters>
<transformers>
<transformer implementation="org.apache.maven.plugins.shade.resource.AppendingTransformer">
<resource>reference.conf</resource>
</transformer>
<transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer">
<mainClass></mainClass>
</transformer>
</transformers>
</configuration>
</execution>
</executions>
</plugin>
</plugins>
</build>
二、master进程代码开发
import akka.actor.{Actor, ActorRef, ActorSystem, Props}
import com.typesafe.config.{Config, ConfigFactory}
import scala.collection.mutable
import scala.collection.mutable.ArrayBuffer
import scala.concurrent.duration._
//todo 利用akka实现spark通信---master端
class Master extends Actor {
//定义数据结构map 保存worker注册信息 k:workerId v:workerInfo
private val workerInfoMap = new mutable.HashMap[String, WorkerInfo]()
//定义数据结构保存worker信息,便于后续业务根据worker资源排序 (可选项)
private val workerInfoArray = new ArrayBuffer[WorkerInfo]()
override def preStart(): Unit = {
//在初始化中完成首次心跳超时检查,后续间隔指定的时间检查
//todo 记得导包
import context.dispatcher
context.system.scheduler.schedule(0 millis,12000 millis,self,CheckTimeOut)
}
//用receive方法持续不断接收处理akka actor的消息
override def receive: Receive = {
//用于接收注册信息
case RegisterMessage(workerId,memory,cores) => {
//判断worker是否注册
if (!workerInfoMap.contains(workerId)){
//如果未注册
val workerInfo = new WorkerInfo(workerId, memory, cores)
workerInfoMap.put(workerId,workerInfo)
workerInfoArray += workerInfo
//注册成功 返回注册成功信息
sender ! RegisterSuccess(s"$workerId,congratulations!You successfully login!")
}
}
//用于接收worker心跳信息
case HeartBeatMessage(workerId) =>{
//判断workerId是否注册,如果注册 更新上次心跳时间
if (workerInfoMap.contains(workerId)){
//把当前系统的时间更新为worker上次心跳的时间
val nowTime: Long = System.currentTimeMillis()
val info: WorkerInfo = workerInfoMap(workerId)
info.lastHeartBeatTime = nowTime
}
}
//用于心跳超时检查
case CheckTimeOut =>
//如何判断心跳超时?
//当前时间 - 上次心跳时间(10s) > 10 如果没有网络波动应该是这样
//如果要考虑网络波动,则可以 当前时间 - 上次心跳时间(10s) > 10
val outTimeWorker: ArrayBuffer[WorkerInfo] = workerInfoArray.filter(x => System.currentTimeMillis() - x.lastHeartBeatTime > 12000)
//遍历超时worker并剔除
for (w <- outTimeWorker){
val workerId = w.workerId
workerInfoMap.remove(workerId)
workerInfoArray -= w
//打印超时的workId
println(s"$workerId 已超时")
}
//打印当前存活的workerId数
println(s"当前存活的worker个数是 ${workerInfoArray.size}")
//worker排序
println(workerInfoArray.sortBy(x => x.memory).reverse)
}
}
object Master {
def main(args: Array[String]): Unit = {
//master host
val host = args(0)
//master port
val port = args(1)
//创建config需要解析的字符串
val configStr: String =
s"""
|akka.actor.provider = "akka.remote.RemoteActorRefProvider"
|akka.remote.netty.tcp.hostname = "$host"
|akka.remote.netty.tcp.port = "$port"
|""".stripMargin
//创建ActorSystem需要的config
val config: Config = ConfigFactory.parseString(configStr)
//创建ActorSystem
val masterActorSystem: ActorSystem = ActorSystem.create("masterActorSystem", config)
//创建masterActor
val master: ActorRef = masterActorSystem.actorOf(Props(new Master), "masterActor")
}
}
三、worker进程代码开发
import java.util.UUID
import akka.actor.{Actor, ActorRef, ActorSelection, ActorSystem, Props}
import com.typesafe.config.{Config, ConfigFactory}
import scala.concurrent.duration._
//todo 利用akka实现spark通信---worker端
class Worker(memory: Int,cores: Int) extends Actor {
var master: ActorSelection = _
//workerID
val workerId = UUID.randomUUID().toString
override def preStart(): Unit = {
//引用master (协议、masterActorSystem、ip、端口号、actorMaster、actor层级)
master = context.actorSelection("akka.tcp://masterActorSystem@192.168.0.108:12323/user/masterActor")
//给master发送注册信息 使用case class封装
master ! RegisterMessage(workerId,memory,cores)
}
override def receive: Receive = {
//接收master返回的注册成功信息
case RegisterSuccess(msg) => {
println(msg)
//注册成功,立即开始首次心跳,以后间隔指定的时间进行心跳
//需要四个参数,心跳开始时间、心跳间隔时间、发给谁、发送信息
//定时的消息只能发送给自己
//todo 记得导包
import context.dispatcher
context.system.scheduler.schedule(0 millis,10000 millis,self,HeartBeat)
}
//接收心跳提醒,完成真正的心跳动作
case HeartBeat => {
master ! HeartBeatMessage(workerId)
}
}
}
object Worker{
def main(args: Array[String]): Unit = {
//worker host
val host = args(0)
//worker port
val port = args(1)
//worker memory
val memory = args(2).toInt
//worker cores
val cores = args(3).toInt
//创建config要解析的字符串
val configStr: String =
s"""
|akka.actor.provider = "akka.remote.RemoteActorRefProvider"
|akka.remote.netty.tcp.hostname = "$host"
|akka.remote.netty.tcp.port = "$port"
|
|""".stripMargin
//创建ActorSystem需要的configuration
val config: Config = ConfigFactory.parseString(configStr)
//创建ActorSystem
val workerActorSystem: ActorSystem = ActorSystem.create("workerActorSystem", config)
//创建workerActor
val worker: ActorRef = workerActorSystem.actorOf(Props(new Worker(memory,cores)), "workerActor")
}
}
【Scala】利用akka实现Spark启动通信的更多相关文章
- Scala进阶之路-Spark底层通信小案例
Scala进阶之路-Spark底层通信小案例 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.Spark Master和worker通信过程简介 1>.Worker会向ma ...
- 【Scala】利用Akka的actor编程模型,实现2个进程间的通信
文章目录 步骤 一.创建maven工程,导入jar包 二.master进程代码开发 三.worker进程代码开发 四.控制台结果 步骤 一.创建maven工程,导入jar包 <propertie ...
- Spark --- 启动、运行、关闭过程
// scalastyle:off println package org.apache.spark.examples import scala.math.random import org.apac ...
- spark 启动job的流程分析
从WordCount開始分析 编写一个样例程序 编写一个从HDFS中读取并计算wordcount的样例程序: packageorg.apache.spark.examples importorg.ap ...
- Scala进阶之路-Spark本地模式搭建
Scala进阶之路-Spark本地模式搭建 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.Spark简介 1>.Spark的产生背景 传统式的Hadoop缺点主要有以下两 ...
- Spark:利用Eclipse构建Spark集成开发环境
前一篇文章“Apache Spark学习:将Spark部署到Hadoop 2.2.0上”介绍了如何使用Maven编译生成可直接运行在Hadoop 2.2.0上的Spark jar包,而本文则在此基础上 ...
- Scala进阶之路-Spark独立模式(Standalone)集群部署
Scala进阶之路-Spark独立模式(Standalone)集群部署 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 我们知道Hadoop解决了大数据的存储和计算,存储使用HDFS ...
- Scala使用Akka模拟RPC机制代码
上代码: 另一个版本(自己加注释):http://www.cnblogs.com/DreamDrive/p/6740440.html RemoteMessage.scala trait Remote ...
- 使用IDEA打包scala程序并在spark中运行
一.首先配置ssh无秘钥登陆, 先使用这条命令:ssh-keygen,然后敲三下回车: 然后使用cd .ssh进入 .ssh这个隐藏文件夹: 再创建一个文件夹authorized_keys,使用命令t ...
随机推荐
- Salesforce学习 | 系统管理员Admin如何添加用户
作为世界排名第一的CRM云计算软件,不管的是500强还是中小企业,越来越多的公司都选择使用Salesforce来分享客户信息,管理和开发具有更高收益的客户关系.Salesforce Administr ...
- Python-气象-大气科学-可视化绘图系列(二)——利用basemap叠加地图,并添加白化效果(代码+示例)
本文为原创链接: https:////www.cnblogs.com/zhanling/p/12193031.html 白化单图代码: import numpy as np import xarray ...
- Python语言-selenium webdriver操作记录汇总
1.控制浏览器大小 set_window_size() 设置浏览器大小 该方法有两个参数,第一个参数是宽,第二个是高 maximize_window() 设置浏览器全屏显示,无参数 chrome谷歌浏 ...
- Java 14 来势汹汹,这回让空指针无处遁形!!
上篇:Java 14 之模式匹配,非常赞的一个新特性! 相信在坐的每一位 Java 程序员都遇到过空指针异常: NullPointerException(NPE),不甚其烦. 栈长之前也分享几篇避免空 ...
- api_DZFPKJ & api_DZFPCX(get_AES_url代码优化)
通过AES加密网站的接口来传值,不需要手动加密字符串后复制过来传值. #coding:utf-8 import requests import re def get_aes_url(key, text ...
- linq 高集成化数据访问技术
一: 新建名为linq的项目 创建 linq 1 在项目里添加文件夹 App_Code; 2 在文件夹(App_Code) 添加 名为db的 Linq To Sql 类 :一个Linq T ...
- shiro:集成Spring(四)
基于[加密及密码比对器(三)]项目改造 引入相关依赖环境 shiro-spring已经包含 shiro-core和shiro-web 所以这两个依赖可以删掉 <!--shiro继承spring依 ...
- Deepin15.11-mysql5.7安装与配置
目录 1.卸载 2.换源 3.安装mysql-5.7并修改密码 4.修改mysql中字符编码 deepin系统中,默认的系统源,使用apt-get install mysql-server会自动拉取m ...
- 我们常听到的WAL到底是什么
什么是 WAL WAL(Write Ahead Log)预写日志,是数据库系统中常见的一种手段,用于保证数据操作的原子性和持久性. 在计算机科学中,预写式日志(Write-ahead logging, ...
- 一些软件的 Basic Auth 行为
一个 WBEM 在2003年的bug I'm trying to access the WBEM service of the CIMOM on the ESX Server 3i and all m ...