1.构建master的actor

package SparkRPC

import akka.actor.{Actor, ActorSystem, Props}
import com.typesafe.config.ConfigFactory

import scala.collection.mutable

/**
* Created by hqs on 2018/1/24.
* 1.启动master,启动worker
* 2.worker启动后连接master,发送注册消息(封装起来)
* 3.master受到注册消息并保存,返回注册成功消息给worker
* 4.worker启动一个定时任务,发送心跳给master(先发送给自己,在发送给master)
* 5.master接收心跳消息,更新保存的心跳信息
*
* 6.master主动启动一个定时任务,检查心跳时间是否超过设定值,若超过,则删除worker的注册信息。
*/
class Master extends Actor {

private val workerMp: mutable.HashMap[String, WorkerInfo] = new mutable.HashMap[String, WorkerInfo]()

override def preStart(): Unit = {
//启动定时任务去检查是否有死去的worker
import scala.concurrent.duration._
import context.dispatcher
context.system.scheduler.schedule(0 second, 15 second, self, CheckWorker)
}

override def receive: Receive = {
case "start" => println("master start...")
//接收并注册,返回成功消息。
case Register2Master(workerId, cores, memory) => {
workerMp(workerId) = new WorkerInfo(cores, memory)
println(s"add a worker,workerId = ${workerId}")
println(s"now total workers = ${workerMp.size}")
sender() ! RegisSuccess
}
//接收心跳,更新信息
case HeartBeat(workerId) => {
if (workerMp.contains(workerId)) {
workerMp(workerId).lastloginTime = System.currentTimeMillis()
}
}
case CheckWorker => {
//过滤出已经超时的worker,大于两个心跳认为超时。
val deadWorkers = workerMp.filter({
mp => {
System.currentTimeMillis() - mp._2.lastloginTime > 20 * 1000
}
})
//用一个map来减去另外一个map
workerMp --= deadWorkers.map(mp => mp._1)
println(s"now total workers = ${workerMp.size}")
}
}
}

object Master {

val MASTER_ACS_NAME = "master_acs_name"
val MASTER_AC_NAME = "master_ac_name"

def main(args: Array[String]): Unit = {

if (args.length != 2) {
println("Master <masterIp,masterPort>")
sys.exit()
}

val Array(masterIp, masterPort) = args
val str =
s"""
|akka.actor.provider = "akka.remote.RemoteActorRefProvider"
|akka.remote.netty.tcp.hostname = "${masterIp}"
|akka.remote.netty.tcp.port = "${masterPort}"
""".stripMargin
val conf = ConfigFactory.parseString(str)
val acs: ActorSystem = ActorSystem.create(MASTER_ACS_NAME, conf)
val masterRef = acs.actorOf(Props(new Master), MASTER_AC_NAME)

masterRef ! "start"

}
}

2.构建worker的actor

package SparkRPC

import java.util.UUID

import akka.actor.{Actor, ActorSelection, ActorSystem, Props}
import com.typesafe.config.ConfigFactory

/**
* Created by hqs on 2018/1/24.
*/
class Worker(val masterIp:String,val masterPort:Int,val cores:Int,val memory:Int) extends Actor{
val workerId = UUID.randomUUID().toString
var masSele: ActorSelection = null
//注册worker信息
override def preStart(): Unit = {
//取得master的路径
val path = s"akka.tcp://${Master.MASTER_ACS_NAME}@${masterIp}:${masterPort}/user/${Master.MASTER_AC_NAME}"
masSele = context.actorSelection(path)
masSele ! Register2Master(workerId,cores,memory)
}

override def receive: Receive = {
case "start" => println("worker starting")
//发送定时心跳信息
case RegisSuccess => {
println("success start scheduler")
/**
* initialDelay: FiniteDuration, 延迟时间 延迟启动定时任务的时间
* interval: FiniteDuration, 间隔时间 每隔多长时间
* receiver: ActorRef, 信息发给谁 接收方
* message: Any 发送的信息 封装成case class
*/
//导入时间单位,启动定时任务。
import scala.concurrent.duration._
import context.dispatcher
context.system.scheduler.schedule(0 second,10 second,self,SendHeartBeat)
}
case SendHeartBeat => {
masSele ! HeartBeat(workerId)
println("worker 向 master 发送心跳信息...")
}
}
}
object Worker{

val WORKER_ACS_NAME = "worker_acs_name"
val WORKER_AC_NAME = "worker_ac_name"
def main(args: Array[String]): Unit = {

if(args.length != 6){
println("Worker <masterIp,masterPort,workerIp,workerPort,cores,memory>")
sys.exit()
}
val Array(masterIp,masterPort,workerIp,workerPort,cores,memory) = args

val str =
s"""
|akka.actor.provider = "akka.remote.RemoteActorRefProvider"
|akka.remote.netty.tcp.hostname = "${workerIp}"
|akka.remote.netty.tcp.port = "${workerPort}"
""".stripMargin
val conf = ConfigFactory.parseString(str)
val acs = ActorSystem.create(WORKER_ACS_NAME,conf)
val scRef = acs.actorOf(Props(new Worker(masterIp,masterPort.toInt,cores.toInt,memory.toInt)),WORKER_AC_NAME)

scRef ! "start"
}
}

3.master与worker的消息传递封装

package SparkRPC

/**
* Created by hqs on 2018/1/27.
*/
class Message {

}
//worker发送注册消息
case class Register2Master(workerId:String,cores:Int,memory:Int)
//master返回注册成功的消息
case object RegisSuccess
//发送心跳给自己
case object SendHeartBeat
//发送心跳给master
case class HeartBeat(workerId:String)
//master定时检查worker存活状态
case object CheckWorker

4.总结:master与worker依赖于akka的actor来实现通信。会产生定时心跳任务,检查超时的worker。

Spark中master与worker的进程RPC通信实现的更多相关文章

  1. 【原】Spark中Master源码分析(二)

    继续上一篇的内容.上一篇的内容为: Spark中Master源码分析(一) http://www.cnblogs.com/yourarebest/p/5312965.html 4.receive方法, ...

  2. <spark> error:启动spark后查看进程,进程中master和worker进程冲突

    启动hadoop再启动spark后jps,发现master进程和worker进程同时存在,调试了半天配置文件. 测试发现,当我关闭hadoop后 worker进程还是存在, 但是,当我再关闭spark ...

  3. 【原】Spark中Master源码分析(一)

    Master作为集群的Manager,对于集群的健壮运行发挥着十分重要的作用.下面,我们一起了解一下Master是听从Client(Leader)的号召,如何管理好Worker的吧. 1.家当(静态属 ...

  4. Spark技术内幕:Client,Master和Worker 通信源码解析

    http://blog.csdn.net/anzhsoft/article/details/30802603 Spark的Cluster Manager可以有几种部署模式: Standlone Mes ...

  5. Spark技术内幕:Client,Master和Worker 通信源代码解析

    Spark的Cluster Manager能够有几种部署模式: Standlone Mesos YARN EC2 Local 在向集群提交计算任务后,系统的运算模型就是Driver Program定义 ...

  6. 【原】 Spark中Worker源码分析(一)

    Worker作为对于Spark集群的健壮运行起着举足轻重的作用,作为Master的奴隶,每15s向Master告诉自己还活着,一旦主人(Master>有了任务(Application),立马交给 ...

  7. 【原】 Spark中Worker源码分析(二)

    继续前一篇的内容.前一篇内容为: Spark中Worker源码分析(一)http://www.cnblogs.com/yourarebest/p/5300202.html 4.receive方法, r ...

  8. Spark分析之Master、Worker以及Application三者之间如何建立连接

    Master.preStart(){ webUi.bind() context.system.scheduler.schedule( millis, WORKER_TIMEOUT millis, se ...

  9. Spark 中的 RPC 的几个类

    Spark 中 RPC 部分的涉及了几个类,有点晕,在此记录一下 1. RpcEndpoint: RPC的一个端点.给定了相应消息的触发函数.保证  `onStart`, `receive` and ...

随机推荐

  1. docker-compose安装redis-sentinel集群(1主+2副+2哨兵)

    前提:本试验环境已经提前安装了docker和docker-compose 说明:本次部署是单机伪集群,想要部署真正的集群,需要将秒个主件拆分到各个机器上去部署,只修改ip地址 1.下载redis的相关 ...

  2. Linux连不上校园网怎么办?

    原本,在我们学校我只要连上WiFi打开浏览器, 它就会自动重定向到校园网登录的界面.但是今天浏览器并没有自己打开登录页面,一直在加载.于是我想直接登录路由器,在地址栏输入192.168.0.1,结果它 ...

  3. Mysql主从复制读写分离

    一.前言:为什么MySQL要做主从复制(读写分离)?通俗来讲,如果对数据库的读和写都在同一个数据库服务器中操作,业务系统性能会降低.为了提升业务系统性能,优化用户体验,可以通过做主从复制(读写分离)来 ...

  4. Latex 模版生成会议论文 不显示Keywords,而是显示 Index Terms- ,改成Keywords 方法

    一. 不管显示何种内容,TEX 文件都是 \begin{IEEEKeywords} 关键词1.关键词2,..... \end{IEEEKeywords} 其中:模版文件 IEEETran.cls存在下 ...

  5. 调用redis的时候二维码不断刷新的排查

    一.背景和现象. 项目是PHP开发的,点击登录的时候就根据随机数生成了二维码,缓存在了redis.用户用微信扫描了二维码分析出需要请求的链接,然后微信浏览器就请求了服务器,服务器通过了随机数认证.正当 ...

  6. 【设计经验】1、Verilog中如何规范的处理inout信号

    在FPGA的设计过程中,有时候会遇到双向信号(既能作为输出,也能作为输入的信号叫双向信号).比如,IIC总线中的SDA信号就是一个双向信号,QSPI Flash的四线操作的时候四根信号线均为双向信号. ...

  7. Android开发 - 掌握ConstraintLayout(二)介绍

    介绍 发布时间 ConstraintLayout是在2016的Google I/O大会上发布的,经过这么长时间的更新,现在已经非常稳定. 支持Android 2.3(API 9)+ 目前的Androi ...

  8. 基于DobboX的SOA服务集群搭建

    本人第一次发博客,有什么不对的地方希望各位批评指正,我就不把文章copy过来了,直接上有道笔记的链接,希望各位喜欢. 第一部分: 准备工作 第二部分: dubbox的安装和使用 第三部分: RESTf ...

  9. Java学习笔记52(网络编程:UDP协议案例)

    InetAddress类: 表示互联网中的IP地址,示例: package demo; import java.net.InetAddress; import java.net.UnknownHost ...

  10. SQL-1--语句分类