Slithice 基于 集群 的 自动容错 Slithice容错概述: Slithice 支持 非集群 的 独立服务端: 支持 基于 中央服务器 的 集群服务端: 支持 基于 自定义配置 的 集群服务端: 在容错方面, 独立服务端 不支持 容错:出现错误,就得不到正确结果: 中央服务器 或 自定义配置 的 集群,是支持容错的:一台服务端执行异常,会自动转交 另外服务端 执行 —— 直到 所有可供调度的 服务端 全部错误,才会返回 错误信息: 自动容错原理: 在 <004 Slithice 集群分…
Slithice 服务器集群 概述 Slithice是做什么的 Slithice 是一个 跨平台 的 分布式架构 框架: 旨在简化 分布式开发 的开发难度,节省 开发成本 和 后期维护成本: 并提供 稳定 的分布式容错机制: 其 界面化的集群配置,一体式开发&分布式发布,插件覆盖,容错调度 是 Slithice 最大的亮点: Slithice 提供 任意 程序集,任意命名空间,任意类名 的 扩展,包括: 配置数据获取方式的扩展(从 什么地方 找寻 服务器配置数据): 调度方式的扩展(比如WCF,…
Slithice 集群分布式(多个客户端,基于中央服务器的多个集群服务端) 案例Demo展示: 集群架构图 如下: 如上图,上图 展示了 这个集群 的 结构: >一个中央服务器(可以有多个),负责 为 所有 集群成员服务端 或者 客户端 提供 配置数据: >对外 暴露的 成员服务端 有 两个Socket服务端,两个WebService服务端: >两个 WCF服务端 不对外暴露,客户端 也不会从 中央服务器 得到 这两个WCF服务端的存在: >客户端 从 中央服务器 得知,自己可以调…
Slithice 集群配置工具 的使用 Slithice集群配置工具 主界面 在测试 Slithice 的 Demo 中,我配置了 7个服务端: 一个 WCF 的 中央服务端: 两个 WCF 的 成员服务端(私有 – 前面有一个棕色皮包的图标): 两个 Socket 的 成员服务端: 两个 WebService 的 成员服务端: Slithice集群配置工具 配置界面 我们看到的是 WebService_002 的 配置 >蓝色区域 里面的 是 当前服务端 自己可以处理的 Action: >红…
Slithice 最简分布式(多个客户端,一个独立服务端) 案例Demo 展示: 我们搭建一个 可以 独立运行 的 服务端:然后 多个客户端 并发链接 这个 服务端 完成 分布式逻辑: 服务器 独立运行,并不依赖 集群 的力量: 配置文件如何写: >服务端配置文件和代码: >客户端配置文件和代码: >服务端 启动 一个 Socket 服务,这个服务 是可以 自己写的 —— 并不一定 非得使用 Slithice 的 服务端代码: >客户端 testTransfer 对象 就具备 了…
Slithice 后期改进 和 Slithice可能存在的BUG Slithice 可能存在的 BUG: >Slithice 暂时 没有 对 循环调度 进行控制:不正确的 配置 可能导致 调度死循环: >Slithice 因为 一些 历史遗留,留下了 些许 不用被执行的 代码: >Slithice 部分 系统错误 的 返回值 可能不规范: >Slithice 没有做 安全验证: Slithice 后期改进: >Slithice 的 部分代码 可能 有 部分不规范的地方,但是不…
  目标架构如上图   一.硬件评估 cpu主频,核数推荐CPU核数与磁盘数的比例在12:12以上Instance上执行时只能利用一个CPU核资源进行计算,推荐高主频 内存容量 网络带宽重分布操作 Raid性能条带宽度设置回写特性 二.操作系统   1.在SUSE或者RedHat上使用xfs(操作系统使用ext3)    在Solaris上使用zfs(操作系统使用ufs) 2.系统包 出现如下界面,按照下面的说明进行勾选,之后一直[Next]到开始安装. -->[Desktop Environm…
005 Laura.SqlForever历史遗留 的 架构思想缺陷 我们 比较一下 Laura.WinFramework 和 Laura.XtraFramework 的差异: Laura.WinFramework:              导航菜单: >导航栏+右键菜单(MenuStripItemBase) >工具栏(ToolStripItemBase) 子窗体(ChildForm) >系统子窗体(MainChildForm) >文档子窗体(DocumentForm) 插件覆盖设…
目前阿里云云原生产品家族已经支持多集群管理功能,允许使用阿里云容器服务Kubernetes(简称ACK)控制台或kubectl命令接入.统一纳管其他公有云.客户IDC自建K8s集群,集中管理部署K8s工作负载:并可以针对工作负载流量统一管理,支持服务就近访问.故障转移能力.本文重点介绍如何使用ACK控制台来接入一个外部Kubernetes集群,无论这个集群是否提供公网访问能力,或者该集群是来自其他公有云提供商,亦或是用户IDC自定义集群. 前提条件 您需要开通容器服务.弹性伸缩(ESS)服务和访…
在上一篇文章<搭建高可用MongoDB集群(一)——配置MongoDB> 提到了几个问题还没有解决. 主节点挂了能否自动切换连接?目前需要手工切换. 主节点的读写压力过大如何解决? 从节点每个上面的数据都是对数据库全量拷贝,从节点压力会不会过大? 数据压力大到机器支撑不了的时候能否做到自动扩展? 这篇文章看完这些问题就可以搞定了.NoSQL的产生就是为了解决大数据量.高扩展性.高性能.灵活数据模型.高可用性.但是光通过主从模式的架构远远达不到上面几点,由此MongoDB设计了副本集和分片的功能…