详解Twitter开源分布式自增ID算法snowflake,附演算验证过程

2017年01月22日 14:44:40

url: http://blog.csdn.net/li396864285/article/details/54668031

1.snowflake简介

互联网快速发展的今天,分布式应用系统已经见怪不怪,在分布式系统中,我们需要各种各样的ID,既然是ID那么必然是要保证全局唯一,除此之外,不同当业务还需要不同的特性,比如像并发巨大的业务要求ID生成效率高,吞吐大;比如某些银行类业务,需要按每日日期制定交易流水号;又比如我们希望用户的ID是随机的,无序的,纯数字的,且位数长度是小于10位的。等等,不同的业务场景需要的ID特性各不一样,于是,衍生了各种ID生成器,但大多数利用数据库控制ID的生成,性能受数据库并发能力限制,那么有没有一款不需要依赖任何中间件(如数据库,分布式缓存服务等)的ID生成器呢?本着取之于开源,用之于开源的原则,今天,特此介绍Twitter开源的一款分布式自增ID算法snowflake,并附上算法原理推导和演算过程!

snowflake算法是一款本地生成的(ID生成过程不依赖任何中间件,无网络通信),保证ID全局唯一,并且ID总体有序递增,性能每秒生成300w+。

2.snowflake算法原理

snowflake生产的ID二进制结构表示如下(每部分用-分开):

0 - 00000000 00000000 00000000 00000000 00000000 0 - 00000 - 00000 - 00000000 0000

第一位未使用,接下来的41位为毫秒级时间(41位的长度可以使用69年,从1970-01-01
08:00:00),然后是5位datacenterId(最大支持2^5=32个,二进制表示从00000-11111,也即是十进制0-31),和5位workerId(最大支持2^5=32个,原理同datacenterId),所以datacenterId*workerId最多支持部署1024个节点,最后12位是毫秒内的计数(12位的计数顺序号支持每个节点每毫秒产生2^12=4096个ID序号).

所有位数加起来共64位,恰好是一个Long型(转换为字符串长度为18).

单台机器实例,通过时间戳保证前41位是唯一的,分布式系统多台机器实例下,通过对每个机器实例分配不同的datacenterId和workerId避免中间的10位碰撞。最后12位每毫秒从0递增生产ID,再提一次:每毫秒最多生成4096个ID,每秒可达4096000个。理论上,只要CPU计算能力足够,单机每秒可生产400多万个,实测300w+,效率之高由此可见。

(该节改编自:http://www.cnblogs.com/relucent/p/4955340.html)

3.snowflake算法源码(java版)

[java] view
plain
 copy
  1. @ToString
  2. @Slf4j
  3. public class SnowflakeIdFactory {
  4. private final long twepoch = 1288834974657L;
  5. private final long workerIdBits = 5L;
  6. private final long datacenterIdBits = 5L;
  7. private final long maxWorkerId = -1L ^ (-1L << workerIdBits);
  8. private final long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);
  9. private final long sequenceBits = 12L;
  10. private final long workerIdShift = sequenceBits;
  11. private final long datacenterIdShift = sequenceBits + workerIdBits;
  12. private final long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;
  13. private final long sequenceMask = -1L ^ (-1L << sequenceBits);
  14. private long workerId;
  15. private long datacenterId;
  16. private long sequence = 0L;
  17. private long lastTimestamp = -1L;
  18. public SnowflakeIdFactory(long workerId, long datacenterId) {
  19. if (workerId > maxWorkerId || workerId < 0) {
  20. throw new IllegalArgumentException(String.format("worker Id can't be greater than %d or less than 0", maxWorkerId));
  21. }
  22. if (datacenterId > maxDatacenterId || datacenterId < 0) {
  23. throw new IllegalArgumentException(String.format("datacenter Id can't be greater than %d or less than 0", maxDatacenterId));
  24. }
  25. this.workerId = workerId;
  26. this.datacenterId = datacenterId;
  27. }
  28. public synchronized long nextId() {
  29. long timestamp = timeGen();
  30. if (timestamp < lastTimestamp) {
  31. //服务器时钟被调整了,ID生成器停止服务.
  32. throw new RuntimeException(String.format("Clock moved backwards.  Refusing to generate id for %d milliseconds", lastTimestamp - timestamp));
  33. }
  34. if (lastTimestamp == timestamp) {
  35. sequence = (sequence + 1) & sequenceMask;
  36. if (sequence == 0) {
  37. timestamp = tilNextMillis(lastTimestamp);
  38. }
  39. } else {
  40. sequence = 0L;
  41. }
  42. lastTimestamp = timestamp;
  43. return ((timestamp - twepoch) << timestampLeftShift) | (datacenterId << datacenterIdShift) | (workerId << workerIdShift) | sequence;
  44. }
  45. protected long tilNextMillis(long lastTimestamp) {
  46. long timestamp = timeGen();
  47. while (timestamp <= lastTimestamp) {
  48. timestamp = timeGen();
  49. }
  50. return timestamp;
  51. }
  52. protected long timeGen() {
  53. return System.currentTimeMillis();
  54. }
  55. public static void testProductIdByMoreThread(int dataCenterId, int workerId, int n) throws InterruptedException {
  56. List<Thread> tlist = new ArrayList<>();
  57. Set<Long> setAll = new HashSet<>();
  58. CountDownLatch cdLatch = new CountDownLatch(10);
  59. long start = System.currentTimeMillis();
  60. int threadNo = dataCenterId;
  61. Map<String,SnowflakeIdFactory> idFactories = new HashMap<>();
  62. for(int i=0;i<10;i++){
  63. //用线程名称做map key.
  64. idFactories.put("snowflake"+i,new SnowflakeIdFactory(workerId, threadNo++));
  65. }
  66. for(int i=0;i<10;i++){
  67. Thread temp =new Thread(new Runnable() {
  68. @Override
  69. public void run() {
  70. Set<Long> setId = new HashSet<>();
  71. SnowflakeIdFactory idWorker = idFactories.get(Thread.currentThread().getName());
  72. for(int j=0;j<n;j++){
  73. setId.add(idWorker.nextId());
  74. }
  75. synchronized (setAll){
  76. setAll.addAll(setId);
  77. log.info("{}生产了{}个id,并成功加入到setAll中.",Thread.currentThread().getName(),n);
  78. }
  79. cdLatch.countDown();
  80. }
  81. },"snowflake"+i);
  82. tlist.add(temp);
  83. }
  84. for(int j=0;j<10;j++){
  85. tlist.get(j).start();
  86. }
  87. cdLatch.await();
  88. long end1 = System.currentTimeMillis() - start;
  89. log.info("共耗时:{}毫秒,预期应该生产{}个id, 实际合并总计生成ID个数:{}",end1,10*n,setAll.size());
  90. }
  91. public static void testProductId(int dataCenterId, int workerId, int n){
  92. SnowflakeIdFactory idWorker = new SnowflakeIdFactory(workerId, dataCenterId);
  93. SnowflakeIdFactory idWorker2 = new SnowflakeIdFactory(workerId+1, dataCenterId);
  94. Set<Long> setOne = new HashSet<>();
  95. Set<Long> setTow = new HashSet<>();
  96. long start = System.currentTimeMillis();
  97. for (int i = 0; i < n; i++) {
  98. setOne.add(idWorker.nextId());//加入set
  99. }
  100. long end1 = System.currentTimeMillis() - start;
  101. log.info("第一批ID预计生成{}个,实际生成{}个<<<<*>>>>共耗时:{}",n,setOne.size(),end1);
  102. for (int i = 0; i < n; i++) {
  103. setTow.add(idWorker2.nextId());//加入set
  104. }
  105. long end2 = System.currentTimeMillis() - start;
  106. log.info("第二批ID预计生成{}个,实际生成{}个<<<<*>>>>共耗时:{}",n,setTow.size(),end2);
  107. setOne.addAll(setTow);
  108. log.info("合并总计生成ID个数:{}",setOne.size());
  109. }
  110. public static void testPerSecondProductIdNums(){
  111. SnowflakeIdFactory idWorker = new SnowflakeIdFactory(1, 2);
  112. long start = System.currentTimeMillis();
  113. int count = 0;
  114. for (int i = 0; System.currentTimeMillis()-start<1000; i++,count=i) {
  115. /**  测试方法一: 此用法纯粹的生产ID,每秒生产ID个数为300w+ */
  116. idWorker.nextId();
  117. /**  测试方法二: 在log中打印,同时获取ID,此用法生产ID的能力受限于log.error()的吞吐能力.
  118. * 每秒徘徊在10万左右. */
  119. //log.error("{}",idWorker.nextId());
  120. }
  121. long end = System.currentTimeMillis()-start;
  122. System.out.println(end);
  123. System.out.println(count);
  124. }
  125. public static void main(String[] args) {
  126. /** case1: 测试每秒生产id个数?
  127. *   结论: 每秒生产id个数300w+ */
  128. //testPerSecondProductIdNums();
  129. /** case2: 单线程-测试多个生产者同时生产N个id,验证id是否有重复?
  130. *   结论: 验证通过,没有重复. */
  131. //testProductId(1,2,10000);//验证通过!
  132. //testProductId(1,2,20000);//验证通过!
  133. /** case3: 多线程-测试多个生产者同时生产N个id, 全部id在全局范围内是否会重复?
  134. *   结论: 验证通过,没有重复. */
  135. try {
  136. testProductIdByMoreThread(1,2,100000);//单机测试此场景,性能损失至少折半!
  137. } catch (InterruptedException e) {
  138. e.printStackTrace();
  139. }
  140. }
  141. }

测试用例:

/** case1: 测试每秒生产id个数?
* 结论: 每秒生产id个数300w+ */
//testPerSecondProductIdNums(); /** case2: 单线程-测试多个生产者同时生产N个id,验证id是否有重复?
* 结论: 验证通过,没有重复. */
//testProductId(1,2,10000);//验证通过!
//testProductId(1,2,20000);//验证通过! /** case3: 多线程-测试多个生产者同时生产N个id, 全部id在全局范围内是否会重复?
* 结论: 验证通过,没有重复. */
try {
testProductIdByMoreThread(1,2,100000);//单机测试此场景,性能损失至少折半!
} catch (InterruptedException e) {
e.printStackTrace();
}

4.snowflake算法推导和演算过程

说明:

演算使用的对象实例:SnowflakeIdFactory idWorker = new SnowflakeIdFactory(1, 2);

运行时数据workerId=1,datacenterId=2,分别表示机器实例的生产者编号,数据中心编号;

sequence=0表示每毫秒生产ID从0开始计数递增;

以下演算基于时间戳=1482394743339时刻进行推导。

一句话描述:以下演算模拟了1482394743339这一毫秒时刻,workerId=1,datacenterId=2的id生成器,生产第一个id的过程。

(图片原创,转载请注明出处,画图不易,谢谢!)

end!

参考

https://github.com/twitter/snowflake

http://www.cnblogs.com/relucent/p/4955340.html

Twitter Snowflake算法详解

2016年10月09日 19:48:56

url: http://blog.csdn.net/yangding_/article/details/52768906

一、简介

Twitter Snowflake算法是用来在分布式场景下生成唯一ID的。

举个栗子:我们有10台分布式MySql服务器,我们的系统每秒能生成10W条数据插入到这10台机器里,现在我们需要为每一条数据生成一个全局唯一的ID, 并且这些 ID 有大致的顺序。

二、算法图解



如图:最后生成的ID是一个long类型,long占64bit,符号位占1位,剩下63位,我们将这63位拆分成4段,就可以表示:某一毫秒内的某一集群内的某一机器的第几个ID。

有人会问:为什么时间戳要占41位?sequence要占12位?而其他两个要各占5位? 

答:这是根据具体需求来分的,你也可以自己再去将这63为重新拆分。例如:sequence占12位就可以在同一毫秒内的同一集群的同一机器上同时有2^12 - 1 个线程。

三、快快上码


  1. public class IdWorker {
  2. protected static final Logger LOG = LoggerFactory.getLogger(IdWorker.class);
  3. private long workerId;
  4. private long datacenterId;
  5. private long sequence = 0L;
  6. private long twepoch = 1288834974657L;
  7. private long workerIdBits = 5L;
  8. private long datacenterIdBits = 5L;
  9. private long maxWorkerId = -1L ^ (-1L << workerIdBits);
  10. private long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);
  11. private long sequenceBits = 12L;
  12. private long workerIdShift = sequenceBits;
  13. private long datacenterIdShift = sequenceBits + workerIdBits;
  14. private long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;
  15. private long sequenceMask = -1L ^ (-1L << sequenceBits);
  16. private long lastTimestamp = -1L;
  17. public IdWorker(long workerId, long datacenterId) {
  18. // sanity check for workerId
  19. if (workerId > maxWorkerId || workerId < 0) {
  20. throw new IllegalArgumentException(String.format("worker Id can't be greater than %d or less than 0", maxWorkerId));
  21. }
  22. if (datacenterId > maxDatacenterId || datacenterId < 0) {
  23. throw new IllegalArgumentException(String.format("datacenter Id can't be greater than %d or less than 0", maxDatacenterId));
  24. }
  25. this.workerId = workerId;
  26. this.datacenterId = datacenterId;
  27. LOG.info(String.format("worker starting. timestamp left shift %d, datacenter id bits %d, worker id bits %d, sequence bits %d, workerid %d", timestampLeftShift, datacenterIdBits, workerIdBits, sequenceBits, workerId));
  28. }
  29. public synchronized long nextId() {
  30. long timestamp = timeGen();
  31. if (timestamp < lastTimestamp) {
  32. LOG.error(String.format("clock is moving backwards. Rejecting requests until %d.", lastTimestamp));
  33. throw new RuntimeException(String.format("Clock moved backwards. Refusing to generate id for %d milliseconds", lastTimestamp - timestamp));
  34. }
  35. if (lastTimestamp == timestamp) {
  36. sequence = (sequence + 1) & sequenceMask;
  37. if (sequence == 0) {
  38. timestamp = tilNextMillis(lastTimestamp);
  39. }
  40. } else {
  41. sequence = 0L;
  42. }
  43. lastTimestamp = timestamp;
  44. return ((timestamp - twepoch) << timestampLeftShift) | (datacenterId << datacenterIdShift) | (workerId << workerIdShift) | sequence;
  45. }
  46. protected long tilNextMillis(long lastTimestamp) {
  47. long timestamp = timeGen();
  48. while (timestamp <= lastTimestamp) {
  49. timestamp = timeGen();
  50. }
  51. return timestamp;
  52. }
  53. protected long timeGen() {
  54. return System.currentTimeMillis();
  55. }
  56. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70

四、Q&A

问题1:twepoch 为什么要等于1288834974657L 而不等于其他数? 

答: 1288834974657 是 (Thu, 04 Nov 2010 01:42:54 GMT) 这一时刻到1970-01-01 00:00:00时刻所经过的毫秒数。41位字节作为时间戳数值的话,大约68年就会用完,假如你2010年1月1日开始开发系统,如果不减去2010年1月1日的时间戳,那么白白浪费40年的时间戳啊!所有减去twepoch 可以让系统在41位字节作为时间戳的情况下的运行时间更长。1288834974657L可能就是该项目开始成立的时间。

问题2:类似这种long maxWorkerId = -1L ^ (-1L << workerIdBits);操作是什么意思? 

答: -1L ^ (-1L << n)表示占n个bit的数字的最大值是多少。举个栗子:-1L ^ (-1L << 2)等于10进制的3 ,即二进制的11表示十进制3。

注意:计算机存放数字都是存放数字的补码,正数的原码、补码、反码都一样,负数的补码是其反码加一。符号位做取反操作时不变,做逻辑与、或、非、异或操作时要参与运算。

再来个栗子: 

-1L原码 : 1000 0001 

-1L反码 : 1111 1110 

-1L补码 : 1111 1111 

-1L<<5 : 1110 0000 

1111 1111 ^ 1110 0000 : 0001 1111 

0001 1111是正数,所以补码、反码、原码都一样,所以0001 1111是31

问题3:((timestamp - twepoch) << timestampLeftShift) | (datacenterId << datacenterIdShift) | (workerId << workerIdShift) | sequence是什么意思? 

答:我只发图不说话 

详解Twitter开源分布式自增ID算法snowflake(附演算验证过程)的更多相关文章

  1. Twitter的分布式自增ID算法snowflake

    snowflake 分布式场景下获取自增id git:https://github.com/twitter/snowflake 解读: http://www.cnblogs.com/relucent/ ...

  2. Twitter的分布式自增ID算法snowflake(雪花算法) - C#版

    概述 分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的.有些时候我们希望能使用一种简 ...

  3. Twitter的分布式自增ID算法snowflake (Java版)

    概述 分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的. 有些时候我们希望能使用一种 ...

  4. 分布式自增ID算法-Snowflake详解

    1.Snowflake简介 互联网快速发展的今天,分布式应用系统已经见怪不怪,在分布式系统中,我们需要各种各样的ID,既然是ID那么必然是要保证全局唯一,除此之外,不同当业务还需要不同的特性,比如像并 ...

  5. Twitter分布式自增ID算法snowflake原理解析

    以JAVA为例 Twitter分布式自增ID算法snowflake,生成的是Long类型的id,一个Long类型占8个字节,每个字节占8比特,也就是说一个Long类型占64个比特(0和1). 那么一个 ...

  6. Twitter分布式自增ID算法snowflake原理解析(Long类型)

    Twitter分布式自增ID算法snowflake,生成的是Long类型的id,一个Long类型占8个字节,每个字节占8比特,也就是说一个Long类型占64个比特(0和1). 那么一个Long类型的6 ...

  7. 基于.NET Standard的分布式自增ID算法--Snowflake

    概述 本篇文章主要讲述分布式ID生成算法中最出名的Snowflake算法.搞.NET开发的,数据库主键最常见的就是int类型的自增主键和GUID类型的uniqueidentifier. 那么为何还要引 ...

  8. C# 分布式自增ID算法snowflake(雪花算法)

    概述 分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的.有些时候我们希望能使用一种简 ...

  9. 分布式自增ID算法snowflake (Java版)

    概述 分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的. 有些时候我们希望能使用一种 ...

随机推荐

  1. xml转dict

    xml转dict 最开始的时候一直是按格式比较严谨的XML格式进行的转换,所以一般只需要考虑两种情况就可以了,即各个节点或者子节点全相同或者全不同,全相同按list处理,全不同按dict处理,这么一想 ...

  2. Message相关函数对比

      SendMessage PostMessage  过程类型 同步过程:等待其他程序处理消息完了之后才返回,继续执行 异步过程:只把消息放入队列,不管其他程序是否处理都返回,然后继续执行 返回值 表 ...

  3. easyui加载json菜单的相关代码

    /** * 取菜单数据 */ $(function getmenujson() { $.ajax({ type: "GET", cache: false, url: "/ ...

  4. JS原型和原型链(3)

    构造函数创建对象: function Person() { } var person = new Person(); person.name = 'Kevin'; console.log(person ...

  5. springboot logback 配置 通配符不行就这样

    <?xml version="1.0" encoding="UTF-8"?><configuration> <property n ...

  6. Jmeter的JDBC请求执行多条SQL语句

    注:有mysqlconnector/j 3.1.1以上版本才支持执行多条sql语句 1.     下载jdbc驱动为了连接Mysql数据库,还需要有个jdbc驱动:mysql-connector-ja ...

  7. kibana使用日志时间进行排序

    kibana默认的是按照客户端的采集时间(@timestamp)进行排序,这往往不是我们所需要的,我们需要的是对日志实际时间进行排序,要解决这个问题,有很多种方法,可以在elasticsearch建立 ...

  8. [hadoop](2) MapReducer:Distributed Cache

    前言 本章主要内容是讲述hadoop的分布式缓存的使用,通过分布式缓存可以将一些需要共享的数据在各个集群中共享. 准备工作 数据集:ufo-60000条记录,这个数据集有一系列包含下列字段的UFO目击 ...

  9. 阿里云数据库导出-本地mysql导入

    因阿里云数据库标准访问模式不支持外网接入 因此导出一份到本地,注意选择编码为utf8 mysql 命令行用source导入有utf8编码的sql文件时导入的数据有乱码解决办法 set names ut ...

  10. mongodb用户创建及权限控制

    转载 2017年03月30日 12:36:15 2169 摘要: MongoDB 3.0 安全权限访问控制,在添加用户上面3.0版本和之前的版本有很大的区别,这里就说明下3.0的添加用户的方法. 环境 ...