第1章 如何设计一款永不重复的高性能分布式发号器

1. 为什么不直接采用UUID?

虽然UUID能够保证唯一性,但无法满足业务系统需要的很多其他特性,比如时间粗略有序性、可反解和可制造性(说人话,就是分布式ID需要体现根据时间递增的特点,并且从ID串中能解析出一定的业务含义),同时UUID比较长,占空间大,性能较差。

2. 那基于数据库来实现呢?

即通过调整自增字段或者数据库sequence的步长来确保跨数据库的ID的唯一性,但这种方案强依赖于数据库。

实现方案,可见我:重构 - 分布式ID设计方案

3. 分布式ID的基本需求

(1)全局唯一

分布式系统保证唯一的一个悲观策略是使用锁或者分布式锁,但是这样会大大降低性能。因此利用时间的有序性,并且在时间的某个单元下采用自增序列,来达到全局唯一。

(2)粗略有序

UUID最大的问题是无序。

(3)可反解

即能从ID串能看出一定的业务含义,比如什么时候产生的,跟哪些业务功能模块相关的。

(4)可制造

不依赖发号器(如果系统崩了),也能通过一定的规律来手工处理数据。

(5)高性能

产生一个新业务,就要生成一个新ID,所以对性能要求非常高。ID的生成取决于网络I/O和CPU的性能,网络I/O一般不是瓶颈。

(6)高可用

发号器应该是满足HA的集群,同时拥有重试机制。在极端情况下,还要有本地的容错方案。

4. 如何保证性能需求?

在项目初期提出性能需求,在项目进行中做性能测试来验证。

5. 获取分布式ID的几种方法

(1)REST方法

提供一个HTTP接口来获取

(2)RPC服务化方法

服务化模式通过Dubbo导出RPC服务

(3)嵌入方法

将发号器服务嵌入到业务项目中,并且提供JVM进程内的本地服务

第2章 可灵活扩展的消息队列框架的设计与实现

1. 背景介绍

消息队列多应用于异步处理、模块之间的解耦和高并发系统的削峰等场景中。

2. 线程模型

(1)同步线程模型

客户端为每个消费者流使用一个线程,每个线程负责从Kafka队列里消费消息,并且在同一个线程里处理业务。

(2)异步线程模型

客户端为每个消费者流使用一个线程,每个线程负责从Kafka队列里消费消息,并且传递消费得到的消息到后端的异步线程池中,在异步线程池中处理业务。

而后端的异步业务线程池又可细分为:

1> 所有消费者流共享线程池

此种模式可以创建更少的线程池对象,节省些许内存

2> 每个流独享线程池

使用不同的异步业务线程池来处理不同的流里面的消息,互相隔离、互相独立、不互相影响。比如,区分普通用户的消息,和VIP用户的消息,这样可以在不同业务线程池中来处理。

3. 异常处理

对于在消息处理过程中产生的业务异常,当前在业务处理的上层捕捉了Throwable,在专用的错误恢复日志中记录了出错的信息,后续可根据错误恢复日志人工处理错误消息,也可重做或者清洗数据。也可考虑采用Listener体系,对异常处理采用监听者模式来实现异常处理器的可插拔等。

4. 优雅关机

通过注册JVM退出钩子进行优雅关机。

=========================继续看下篇==========================

=================================请看上篇======================================

第3章 轻量级的数据库分库分表架构与框架

1. 分库分表的定义

(1)垂直拆分

根据业务的维度,将原来的一个库(表)拆分为多个库(表),每个库(表)与原有的结构不同。

这种方式除了用于分解单库单表的压力,也用于实现冷热分离。

1》在Mysql中,冷数据查询较多,更新较少,适合用MyISAM引擎,而热数据更新比较频繁,适合使用InnoDB存储引擎

2》对读多写少的冷数据可配置更多的从库来化解大量查询请求的压力对于热数据,可以使用多个主库构建分库分表的结构

3》对于一些特殊的活跃数据或者热点数据,也可以考虑使用Memcache、Redis之类的缓存,等累计到一定的量后再更新数据库。例如,在记录微博点赞数量的业务中,点赞数量被存储在缓存中,每增加1000个点赞,才写一次数据。

(2)水平拆分

根据分片(sharding)算法,将一个库(表)拆分为多个库(表),每个库(表)依旧保留原有的结构。

切分的维度有:

1》按哈希切片

好处是数据切片比较均匀,对数据压力分散的效果较好,缺点是数据分散后,对于查询需求需要进行聚合处理

2》按时间切片

适用于有明显时间特点的数据

2. 分库分表的三种实现方案

(1)客户端分片

使用分库分表的数据库的应用层直接操作分片逻辑,分片规则需要在同一个应用的多个节点间进行同步,每个应用层都嵌入一个操作切片的逻辑实现(分片规则)。一般是Jar包的形式。

(2)代理分片

在应用层和数据库层增加一个代理层,把分片的路由规则配置在代理层,代理层对外提供与JDBC兼容的接口给应用层。我们公司正在用这样的框架:Mycat。

(3)支持事务的分布式数据库

将可伸缩的特点和分布式事务的实现包装到分布式数据库内部实现,对使用者透明。例如:OceanBase、TiDB等产品。

3. 分布式事务

解决方案有三种:两阶段提交协议、最大努力保证模式、事务补偿机制。

第4章 缓存的本质和缓存使用的优秀实践

通过缓存和消息队列来化解海量的读请求和写请求对后端数据库服务造成的压力。

1. 伪共享

是指在多个线程同时读写同一个缓存行的不同变量时,尽管这些变量之间没有任何关系,但是在多个线程之间仍然需要同步,从而导致性能下降的情况。

2. JVM对象的内存模型

1》所有的Java对象都有8字节的对象头,前4个字节用来保存对象的哈希码和锁的状态,前3个字节用来存储哈希码,最后一个字节用来存储锁的状态,一旦对象上锁,这4个字节都会被拿出对象外,并用指针进行链接;剩下的4个字节用来存储对象所属类的引用。每个对象的大小都会对齐到8字节的倍数,不够8字节的部分需要填充。

2》为了保证效率,Java编译器在编译Java对象时,会通过字段类型对Java对象的字段进行排序。在任意字段之间通过填充长整型的变量,把热点变量隔离在不同的缓存行中,通过减少伪同步,在多核心CPU中能够极大地提高效率。

3》著名的无锁队列Disruptor通过解决伪共享的问题来提高效率,它通过在RingBuffer的游标和BatchEventProcessor的序列变量之后填充变量,并使之与64字节大小的缓存行对齐,来解决伪竞争的问题。

3. 常用的分布式缓存:Redis、Memcached、Tair

https://www.cnblogs.com/chenyangjava/p/8986383.html

阿里P8架构师谈:分布式缓存的应用场景、选型比较、问题和挑战

高并发环境下,例如典型的淘宝双11秒杀,几分钟内上亿的用户涌入淘宝,这个时候如果访问不加拦截,让大量的读写请求涌向数据库,由于磁盘的处理速度与内存显然不在一个量级,服务器马上就要宕机。

作者:优知学院来源:今日头条|2018-08-07 10:04
 

高并发环境下,例如典型的淘宝双11秒杀,几分钟内上亿的用户涌入淘宝,这个时候如果访问不加拦截,让大量的读写请求涌向数据库,由于磁盘的处理速度与内存显然不在一个量级,服务器马上就要宕机。从减轻数据库的压力和提高系统响应速度两个角度来考虑,都会在数据库之前加一层缓存,访问压力越大的,在缓存之前就开始CDN拦截图片等访问请求。

并且由于最早的单台机器的内存资源以及承载能力有限,如果大量使用本地缓存,也会使相同的数据被不同的节点存储多份,对内存资源造成较大的浪费,因此,才催生出了分布式缓存。

 

分布式缓存应用场景

  1. 页面缓存.用来缓存Web 页面的内容片段,包括HTML、CSS 和图片等;
  2. 应用对象缓存.缓存系统作为ORM 框架的二级缓存对外提供服务,目的是减轻数据库的负载压力,加速应用访问;
  3. 解决分布式Web部署的session同步问题,状态缓存.缓存包括Session 会话状态及应用横向扩展时的状态数据等,这类数据一般是难以恢复的,对可用性要求较高,多应用于高可用集群。
  4. 并行处理.通常涉及大量中间计算结果需要共享;
  5. 云计算领域提供分布式缓存服务。

分布式缓存比较:Memcache VS Redis

1、Redis不仅仅支持简单的k/v类型的数据,同时还提供list,set,zset,hash等数据结构的存储。而memcache只支持简单数据类型,需要客户端自己处理复杂对象

2、Redis支持数据的持久化,可以将内存中的数据保持在磁盘中,重启的时候可以再次加载进行使用(PS:持久化在rdb、aof)。

3、由于Memcache没有持久化机制,因此宕机所有缓存数据失效。Redis配置为持久化,宕机重启后,将自动加载宕机时刻的数据到缓存系统中。具有更好的灾备机制。

4、Memcache可以使用Magent在客户端进行一致性hash做分布式。Redis支持在服务器端做分布式(PS:Twemproxy/Codis/Redis-cluster多种分布式实现方式)

5、Memcached的简单限制就是键(key)和Value的限制。***键长为250个字符。可以接受的储存数据不能超过1MB(可修改配置文件变大),因为这是典型slab 的***值,不适合虚拟机使用。而Redis的Key长度支持到512k。

6、Redis使用的是单线程模型,保证了数据按顺序提交。Memcache需要使用cas保证数据一致性。CAS(Check and Set)是一个确保并发一致性的机制,属于“乐观锁”范畴;原理很简单:拿版本号,操作,对比版本号,如果一致就操作,不一致就放弃任何操作

cpu利用。由于Redis只使用单核,而Memcached可以使用多核,所以平均每一个核上Redis在存储小数据时比Memcached性能更 高。而在100k以上的数据中,Memcached性能要高于Redis 。

7、memcache内存管理:使用Slab Allocation。原理相当简单,预先分配一系列大小固定的组,然后根据数据大小选择最合适的块存储。避免了内存碎片。(缺点:不能变长,浪费了一定空间)memcached默认情况下下一个slab的***值为前一个的1.25倍。

8、redis内存管理: Redis通过定义一个数组来记录所有的内存分配情况, Redis采用的是包装的malloc/free,相较于Memcached的内存 管理方法来说,要简单很多。由于malloc 首先以链表的方式搜索已管理的内存中可用的空间分配,导致内存碎片比较多。

分布式缓存选型总结

其实对于企业选型Memcache、Redis而言,更多还是应该看业务使用场景(因为Memcache、Redis两者都具有足够高的性能和稳定性)。假若业务场景需要用到持久化缓存功能、或者支持多种数据结构的缓存功能,那么Redis则是***选择。

(PS:Redis集群解决方式也优于Memcache,Memcache在客户端一致性hash的集群解决方案,Redis采用无中心的服务器端集群解决方案)

综上所述:为了让缓存系统能够支持更多的业务场景,选择Redis会更优。

分布式缓存的常见问题和挑战

1.缓存雪崩

缓存雪崩我们可以简单的理解为:由于原有缓存失效,新缓存未到期间(例如:我们设置缓存时采用了相同的过期时间,在同一时刻出现大面积的缓存过期),所有原本应该访问缓存的请求都去查询数据库了,而对数据库CPU和内存造成巨大压力,严重的会造成数据库宕机。从而形成一系列连锁反应,造成整个系统崩溃。

2.缓存穿透

缓存穿透是指用户查询数据,在数据库没有,自然在缓存中也不会有。这样就导致用户查询的时候,在缓存中找不到,每次都要去数据库再查询一遍,然后返回空(相当于进行了两次无用的查询)。这样请求就绕过缓存直接查数据库,这也是经常提的缓存***率问题。

3.缓存预热

缓存预热这个应该是一个比较常见的概念,相信很多小伙伴都应该可以很容易的理解,缓存预热就是系统上线后,将相关的缓存数据直接加载到缓存系统。这样就可以避免在用户请求的时候,先查询数据库,然后再将数据缓存的问题!用户直接查询事先被预热的缓存数据!

4.缓存更新

除了缓存服务器自带的缓存失效策略之外,我们还可以根据具体的业务需求进行自定义的缓存淘汰,常见的策略有两种:

(1)定时去清理过期的缓存;

(2)当有用户请求过来时,再判断这个请求所用到的缓存是否过期,过期的话就去底层系统得到新数据并更新缓存。

两者各有优劣,***种的缺点是维护大量缓存的key是比较麻烦的,第二种的缺点就是每次用户请求过来都要判断缓存失效,逻辑相对比较复杂!具体用哪种方案,大家可以根据自己的应用场景来权衡。

5.缓存降级

当访问量剧增、服务出现问题(如响应时间慢或不响应)或非核心服务影响到核心流程的性能时,仍然需要保证服务还是可用的,即使是有损服务。系统可以根据一些关键数据进行自动降级,也可以配置开关实现人工降级。

降级的最终目的是保证核心服务可用,即使是有损的。而且有些服务是无法降级的(如加入购物车、结算)。

在进行降级之前要对系统进行梳理,看看系统是不是可以丢卒保帅;从而梳理出哪些必须誓死保护,哪些可降级;比如可以参考日志级别设置预案:

(1)一般:比如有些服务偶尔因为网络抖动或者服务正在上线而超时,可以自动降级;

(2)警告:有些服务在一段时间内成功率有波动(如在95~100%之间),可以自动降级或人工降级,并发送告警;

(3)错误:比如可用率低于90%,或者数据库连接池被打爆了,或者访问量突然猛增到系统能承受的***阀值,此时可以根据情况自动降级或者人工降级;

(4)严重错误:比如因为特殊原因数据错误了,此时需要紧急人工降级。

 
   

还是《吊打面试官》系列讲得好

4. 缓存穿透、缓存并发和缓存雪崩

(1)缓存穿透

指的是使用不存在的key进行大量的高并发查询,这导致缓存无法命中,每次请求都要穿透到后端数据库系统进行查询,使数据库压力过大,甚至使数据库服务被压死。

通常将空值缓存起来,再次接收到同样的查询请求时,若命中缓存并且值为空,就会直接返回,不会透传到数据库,避免缓存穿透。

但有时恶意攻击者会猜到这种方案,每次都会使用不同的参数来查询,这是需要我们对输入的参数进行过滤。

(2)缓存并发

通常发生在高并发的场景下,当一个缓存key过期时,因为访问这个缓存key的请求量过大,多个请求同时发现缓存过期,因此多个请求会同时访问数据库来查询最新数据,并且会写缓存,这样会造成应用和数据库的负载增加,性能降低。

有3种方式解决:

1》分布式锁

2》本地锁

3》软过期

就是不使用缓存服务提供的过期时间,而是业务层在数据中存储过期时间信息,由业务程序判断是否过期并更新。

(3)缓存雪崩

指缓存服务器重启或者大量缓存集中在某一个时间段内失效,给后端数据库造成瞬时的负载升高的压力。

通常是对不同的数据使用不同的失效时间。

5. 缓存设计的优秀实践(好好看看)

(1)核心业务和非核心业务使用不同的缓存实例,从物理上进行隔离。

(2)缓存的超时时间的设置是很重要的。给个数字,希望是100毫秒以内。

(3)所有的缓存实例都需要添加监控,需要对慢查询、大对象、内存使用情况做可靠的监控。

(4)通过规范来限制各个应用使用的key有唯一的前缀。

(5)任何缓存的key都必须设定缓存失效时间,且失效时间不能集中在某一点。

(6)通常情况下,读的顺序是先缓存,后数据库;写的顺序是先数据库,后缓存。

(7)在使用缓存时,一定要有降级处理,尤其是对关键的业务环节。常见的方案是在数据库层次预留足够的容量。

(8)如果有大量的键值对要保存,则请使用字符串键的数据库类型,并对每个键都设置过期时间,请不要在哈希键内部存储一个没有边界的集合数据。

====================================继续看下篇===============================================

==================================请看上篇========================================

第5章 大数据利器之Elasticsearch

1. Lucene

底层是基于Lucene实现的,其基于倒排表的设计原理,采用了分段的存储模式,使它在读写时几乎完全避免了锁的出现,大大提升了读写性能

2. 分段存储

(1)在删除文件时,Lucene在索引文件下新增了一个.del的文件,用于专门存储被删除的数据id。

(2)为了提升写的性能,Lucene并没有每新增一条数据就增加一个段,而是采用延迟写的策略,每当有新增的数据时,就将其先写入内存中,然后批量写入磁盘中。

所以Lucene或Elasticsearch并不能称为实时的搜索引擎,只能被称为准实时的搜索引擎。

3. 段合并策略

当索引中段的数量太多时,不仅会严重消耗服务器的资源,还会影响检索的性能。所以必须定期进行段合并操作。

Lucene段合并的思路:根据段的大小先将段进行分组,再将属于同一组的段进行合并。Lucene会在段的大小达到一定的规模,或者段里面的数据量达到一定条数时,不会再进行合并。

4. Lucene相似度打分

最经典的两个文本相似度算法:基于向量空间模型的算法和基于概率的算法(BM25)

5. 3C和脑裂

(1)共识性(Consensus)

在分布式系统中的所有节点必须对给定的数据或者节点的状态达成共识。

(2)并发(Concurrency)

写请求在发送到主分片时,同时会以并行的形式发送到备份分片,但是这些请求的送达时间可能是无序的。在这种情况下,Elasticsearch用乐观并发控制来保证新版本的数据不会被旧版本的数据覆盖。

(3)一致性(Consistency)

Elasticsearch集群保证写一致性的方式是在写入前先检查有多少个分片可供写入,如果达到写入条件,则进行写操作,否则,Elasticsearch会等待更多的分片出现,默认为一分钟。

(4)脑裂

在Elasticsearch集群中主节点通过ping命令来检查集群中的其他节点是否处于可用状态,同时非主节点也会通过ping命令来检查主节点是否处于可用状态。

6. 性能调优

(1)写优化

批量提交、优化存储设备、合理使用段合并、减少refresh的次数(为了提高写的性能,采用的是延迟写入的策略,即将要写入的数据先写到内存中,当延时超过1秒(默认)时,会触发一次refresh,refresh会把内存中的数据以段的形式刷新到操作系统的文件缓存系统中)、减少flush的次数、减少副本的数量

(2)读优化

避免大结果集和深翻、选择合适的路由、SearchType、定期删除

7. Elasticsearch堆内存的分配

(1)最好不要超过物理内存的50%

(2)堆内存的大小最好不要超过32GB

Java使用内存指针压缩技术来解决这个问题。

第6章 全面揭秘分布式定时任务

1. 怎么让某一个定时任务在一个触发时刻上仅有一台服务器在执行?

(1)只在一台服务器上执行

但这样有明显缺陷:单点风险和资源分布不均衡。

(2)通过配置参数分散运行

比如创建一个配置项,指定该台服务器需要执行的定时任务类名,这样可以在部署服务时手动分散定时任务到不同的服务器上。

(3)通过全局“锁”互斥执行

可使用ZooKeeper、Redis或者数据库(依靠唯一索引)等方式。

2. TBSchedule

(1)简介

是阿里开源的分布式调度框架,可以使批量的动态变化的任务被动态地分配到多个机器的JVM中并行执行,而且有失效转移等优点。

(2) TBSchedule的动态可伸缩原理

TBSchedule在硬件主机与工作处理器之间又抽象出一个调度服务器层IStrategyTask,通过这个调度服务器层完成解耦。工作处理器ScheduleProcessor是真正负责具体任务处理的,工作处理器内部以多线程的方式并行进行任务处理,与调度服务器是一对一的关系。调度服务器依赖当前可以使用的主机数量进行自定义分配或均匀分配。

(3) TBSchedule的分片机制

TBSchedule可以将批量任务进行分片,分片的逻辑由 TBSchedule使用方根据具体业务自行定义,一个分片对应一个调度处理器,但一个调度处理器可对应多个任务分片,进而由调度处理器对应的工作处理器进行并发处理。

3. Elastic-Job

(1)简介

Elastic-Job是当当网开源的分布式调度解决方案,支持任务分片功能,能充分利用资源。

(2)Elastic-Job分为Elastic-Job-Lite和Elastic-Job-Cloud组成

Elastic-Job-Lite被定位为轻量级无中心化解决方案,通过Jar包的形式提供分布式任务的协调服务。而Elastic-Job-Cloud使用Mesos+Docker的解决方案,额外提供资源治理、应用分发及进程隔离等服务。

(3)任务分片

1》目的在于将一个任务分散到不同的机器上执行,既可以解决单机计算能力有限的问题,也能减少部分任务失败对整体系统的影响。开发者需要自行处理分片项与真实数据的对应关系,同时要注意任务失败重试的幂等性。

2》通常将分片项设置为大于服务器的数量,最好是大于服务器倍数的数量,作业将会合理地利用分布式资源,动态地分配分片项。

=============================继续看下篇=======================================

=========================请看上篇================================

第7章 RPC服务的发展历程和对比分析

1. RPC采用客户端/服务端模式,请求程序就是一个客户端,服务提供程序就是一个服务端。

RPC是构建在语言级之上的,是跨语言的,它在OSI七层模型中介于会话层和表示层之间。

2. RPC实现透明的远程过程调用的重点

就是创建客户存根(client stub),存根(stub)就像代理(agent)模式里的代理(agent),在生成代理代码后,代理的代码就能与远程服务端通信了,通信的过程都由RPC框架实现,而调用者就像调用本地代码一样方便。在客户端看来,存根函数就像普通的本地函数一样,但实际上包含了通过网络发送和接收消息的代码。

(1)客户端存根的方法会将参数打包并封装成一个或多个网络消息体并发送到服务端。将参数封装到网络消息中的过程被称为编码(encode),它会将所有数据序列化为字节数组格式。

(2)服务端存根(server stub)接收客户端发送的消息,并对参数消息进行编码(decode),通常它会将参数从标准的网络格式转换成特定的语言格式。

(3)服务端存根在将该返回值进行编码并序列化后,通过一个或多个网络消息发送给客户端。

3. 在使用RMI的JVM中,Java支持两种操作:标记脏数据和清理。当对象仍在使用时,本地JVM会定期向服务器的JVM发送一个标记脏数据的调用。标记脏数据基于服务器给定的时间间隔定期重新发送心跳信息。当客户端没有更多的本地引用远程对象时,会发送一个清理的调用给服务器。

第8章 Dubbo实战及源码分析

1. Dubbo的三大类配置

(1)服务发现类:表示该配置项用于服务的注册与发现,目的是让消费者找到提供者。

(2)服务治理类:表示该配置项用于治理服务间的关系,或为开发测试提供便利条件。

(3)性能调优类:表示该配置项用于调优性能,不同的选项会对性能产生不同的影响。

2. 由服务提供者设置超时,因为服务提供者更清楚一个方法需要执行多久。

3.

(1)如果服务需要预热的时机,比如初始化缓存、等待相关资源就位等,就可以使用delay属性进行服务延迟暴露。

(2)如果一个服务的并发量过大,超出了服务器的承受能力 --- 使用executes属性控制并发。

(3)客户端进行并发控制,通过actives属性限制。

4. 服务隔离

是为了在系统发生故障时限定传播范围和影响范围,从而保证只有出问题的服务不可用,其他服务还是正常的。

隔离一般有线程隔离、进程隔离、读写隔离、集群隔离和机房隔离,而Dubbo还提供了分组隔离,即使用group属性分组。

5. Dubbo中的异步调用时基于NIO的非阻塞机制实现的。

在远程调用的过程中如果出现异常或者需要回调,则可以使用Dubbo的事件通知机制。

6. Dubbo支持的协议

Dubbo协议 --- 通信数据包小、并发高的服务

Hessian协议 --- 传输数据大且提供者比消费者数量多的服务

HTTP或Hessian协议 --- 对于外部与内部进行通信的场景,若想要穿透防火墙的限制

7. Dubbo协议的使用注意事项

(1)在实际情况下消费者的数据比提供者的数量更多

(2)不能传大的数据包

(3)推荐使用异步单一长连接方式

长连接可以减少连接握手验证等,并且使用异步I/O,可以复用线程池,防止出现C10K问题。

8. Dubbo的I/O线程模型

Dubbo的服务提供者主要有两种线程池类型:一种是I/O处理线程池;另一种是业务调度线程池。

Dubbo默认配置无限制大小的CachedThreadPool线程池,这意味着它对所有服务的请求都不会拒绝,但是Dubbo限制了I/O线程数,默认是核数+1。

9. 服务熔断与服务降级

(1)服务熔断

是一种保护措施,一般用于防止在软件系统中由于某些原因使服务出现了过载现象,从而造成整个系统发生故障。

(2)服务降级

是在服务器压力剧增的情况下,根据当前的业务情况及流量对一些服务和页面有策略地进行降级,以释放服务器资源并保证核心任务的正常运行。

10. Dubbo是通过JDK的ShutdownHook来完成优雅停机的。

11. 线上问题排查(此处敲敲黑板)

(1)发现问题

1》系统层面的监控

对系统的CPU利用率、系统负载、内存使用情况、网络I/O负载、磁盘负载、I/O等待、交换区的使用、线程数及打开的文件句柄数等

2》应用层面的监控

对服务接口的响应时间、吞吐量、调用频次、接口成功率及接口的波动率

3》资源层的监控

对数据库(负载、慢SQL、连接数)、缓存(连接数、占用内存、吞吐量、响应时间)和消息队列(响应时间、吞吐量、负载、积压情况)的监控

(2)定位问题

考虑如下问题:

1》问题系统最近是否进行了上线?

2》依赖的基础平台和资源是否进行了上线或者升级?

3》依赖的系统最近是否进行了上线?

4》运营人员是否在系统里做过运营变更?

5》网络是否有波动?

6》最近的业务是否上量?

7》服务的使用方是否有促销活动?

(3)解决问题

每个系统都会对各种严重情况设计止损和降级开关,因此在发生严重问题时先使用止损策略,在恢复问题后再定位和解决问题。解决问题要以定位问题为基础,必须清晰地定位问题产生的根本原因,再提出解决问题的有效方案,切记在没有明确原因之前,不要使用各种可能的方法来尝试修复问题,这样可能导致还没有解决这个问题又引出另一个问题。

(4)消除影响

首先,找运维看日志。

其次,保存现场并恢复现场。在JVM中保存现场快照通常包括保存当前运行线程的快照和保存JVM内存堆栈快照。

12. SPI(Service Provider Interface)

是Java提供的一种服务加载方式,可以避免在Java代码中写死服务提供者,而是通过SPI服务加载机制进行服务的注册和发现,实现多个模块的解耦。

第9章 高性能网络中间件

1. 在OSI中,每一层都使用下一层的协议和服务。每一层的数据包都包含自己的一个包头,这个包头包含本层定义的典型信息如IP地址、TCP端口号,以及本层服务需要的信息如IP分片信息、TCP的流量控制信息等。

因为TCP层的数据包是在IP层的数据包内增加了自己的TCP头,所以在IP层看来,任意一个TCP包都是一个普通的IP包。

2. TCP的核心还是接收序号和确认序号,通过它们可以在中途有数据丢失的情况下,通过返回ACK的序号进行重发。

3. 在应用层进行失效转移、降级、备份方案、重试等操作。
————————————————



zz《可伸缩服务架构 框架与中间件》综合的更多相关文章

  1. zz《分布式服务架构 原理、设计与实战》综合

    这书以分布式微服务系统为主线,讲解了微服务架构设计.分布式一致性.性能优化等内容,并介绍了与微服务系统紧密联系的日志系统.全局调用链.容器化等. 还是一样,每一章摘抄一些自己觉得有用的内容,归纳整理, ...

  2. 避免重复提交?分布式服务的幂等性设计! 架构文摘 今天 点击蓝色“架构文摘”关注我哟 加个“星标”,每天上午 09:25,干货推送! 来源:https://www.cnblogs.com/QG-whz/p/10372458.html 作者:melonstreet

    避免重复提交?分布式服务的幂等性设计! 架构文摘  今天 点击蓝色"架构文摘"关注我哟    加个"星标",每天上午 09:25,干货推送!      来源:h ...

  3. Java[2] 分布式服务架构之java远程调用技术浅析(转http://www.uml.org.cn/zjjs/201208011.asp)

    转自:http://www.uml.org.cn/zjjs/201208011.asp 在分布式服务框架中,一个最基础的问题就是远程服务是怎么通讯的,在Java领域中有很多可实现远程通讯的技术,例如: ...

  4. 理解serverless无服务架构原理(一)

    阅读目录 一:什么是serverless无服务? 二:与传统模式架构区别? 三:serverless优缺点? 四:使用serverless的应用场景有哪些? 回到顶部 一:什么是serverless无 ...

  5. 一.把传统服务做成dubbo分布式服务架构的步骤

    1.把传统服务按照一定原则(根据项目的业务逻辑和场景)拆分成多个服务(主要服务是服务提供者和服务消费者,服务提供者或服务消费者的公共部分也可以拆分成其他服务,如公共DAO.公共工具类.公共实体,公共w ...

  6. 分布式服务框架介绍:最成熟的开源NIO框架Netty

    尽管JDK提供了丰富的NIO类库,网上也有很多NIO学习例程,但是直接使用Java NIO类库想要开发出稳定可靠的通信框架却并非易事,原因如下: 1)NIO的类库和API繁杂,使用麻烦,你需要熟练掌握 ...

  7. 003-读书笔记-企业IT架构转型之道-阿里巴巴中台战略思想与架构实战-分布式服务框架的选择

    3.1.淘宝平台“服务化”历程 大约2007年,淘宝500人团队,维护一个war包,200多个功能模块. 1)项目团队协同成本高,业务响应越来越慢 2)应用复杂度超出人的认知负载. 3)错误难于隔离[ ...

  8. 微服务架构 | 5.2 基于 Sentinel 的服务限流及熔断

    目录 前言 1. Sentinel 基础知识 1.1 Sentinel 的特性 1.2 Sentinel 的组成 1.3 Sentinel 控制台上的 9 个功能 1.4 Sentinel 工作原理 ...

  9. WeText项目:一个基于.NET实现的DDD、CQRS与微服务架构的演示案例

    最近出于工作需要,了解了一下微服务架构(Microservice Architecture,MSA).我经过两周业余时间的努力,凭着自己对微服务架构的理解,从无到有,基于.NET打造了一个演示微服务架 ...

随机推荐

  1. docker搭建kafka环境&&Golang生产和消费

    docker 搭建kafka环境 version: '2' services: zk1: image: confluentinc/cp-zookeeper:latest hostname: zk1 c ...

  2. networkx生成网络的子网计算

    当我们用networkx生成网络时,节点之间的关系是随机的,很多时候我们生成的一个网络,存在不止一个子网,也就是说任意两个节点之间不一定连通 当我们想生成一个任意两点都能连通的网络时,就需要去判断生成 ...

  3. transaction事务案例--银行转账

    1)dao层 package cn.spring.transaction.dao; public interface MoneyDao { //加钱的方法 void addMoney(double m ...

  4. Struts2框架和SpringMvc框架的区别

    Struts2框架和SpringMvc框架的区别 一.拦截机制的不同 Struts2是类级别的拦截,每次请求就会创建一个Action,和Spring整合时Struts2的ActionBean注入作用域 ...

  5. IT兄弟连 Java语法教程 流程控制语句 控制循环结构3

    使用continue忽略本次循环剩下的语句 continue的功能和break有点类似,区别是continue只是忽略本次循环剩下的语句,接着开始下一次循环,并不会终止循环:而break则是完全终止循 ...

  6. PostgreSQL 12 YUM安装

    目录 1.创建postgres用户 2.查看操作系统版本 3.配置yum源(对应CentOS 6) 4.安装客户端包 5.安装服务器端包 6.初始化数据库和设置自启动服务 7.postgres用户的b ...

  7. 关于C#异常的处理

    关于异常,从我们一开始写代码的时候就开始伴随着我们,只不过那时还没入门,脑子里并没有产生意识这就是异常.异常:程序运行期间发生错误,异常对象: 将程序发生的各种错误封装成对象曾记得第一次面试的时候,面 ...

  8. C# Mutex to make sure only one unique application instance started

    static void MutexDemo2() { string assName = Assembly.GetEntryAssembly().FullName; bool createdNew; u ...

  9. 在Vue中使用i18n 国际化遇到 Uncaught TypeError: Cannot assign to read only property 'exports' of object '#<Object>'

    最近用Vue在搭建前端框架,在引用i18n时,运行的时候报错:Uncaught TypeError: Cannot assign to read only property 'exports' of ...

  10. python基础(12):函数(二)

    1. 函数参数 之前我们说过了传参,如果我们需要给⼀个函数传参,⽽参数⼜是不确定的,或者我给⼀个函数传很多参数,我的形参就要写很多,很⿇烦,怎么办呢,我们可以考虑使⽤动态参数. 形参的第三种: 动态参 ...