[转载] 应用于负载均衡的一致性哈希及java实现
转载自http://blog.csdn.net/haitao111313/article/details/7537799
这几天看了几遍一致性哈希的文章,但是都没有比较完整的实现,因此试着实现了一下,这里我就不讲一致性哈希的原理了,网上很多,以一致性哈希用在负载均衡的实例来说,一致性哈希就是先把主机ip从小大到全部放到一个环内,然后客户端ip来连接的时候,把客户端ip连接到大小最接近客户端ip且大于客户端ip的主机。当然,这里的ip一般都是要先hash一下的。我的程序运行结果如下:
- 添加客户端,一开始有4个主机,分别为s1,s2,s3,s4,每个主机有100个虚拟主机:
- 101客户端(hash:-3872430075274208315)连接到主机->s2-192.168.1.2
- 102客户端(hash:-6461488502093916753)连接到主机->s1-192.168.1.1
- 103客户端(hash:-3272337528088901176)连接到主机->s3-192.168.1.3
- 104客户端(hash:7274050343425899995)连接到主机->s2-192.168.1.2
- 105客户端(hash:6218187750346216421)连接到主机->s1-192.168.1.1
- 106客户端(hash:-8497989778066313989)连接到主机->s2-192.168.1.2
- 107客户端(hash:2219601794372203979)连接到主机->s3-192.168.1.3
- 108客户端(hash:1903054837754071260)连接到主机->s3-192.168.1.3
- 109客户端(hash:-2425484502654523425)连接到主机->s1-192.168.1.1
- 删除主机s2-192.168.1.2的变化:
- hash(-8497989778066313989)改变到->s4-192.168.1.4
- hash(7274050343425899995)改变到->s2-192.168.1.2
- hash(-3872430075274208315)改变到->s4-192.168.1.4
- hash(7274050343425899995)改变到->s1-192.168.1.1
- 增加主机s5-192.168.1.5的变化:
- hash(1903054837754071260)改变到->s5-192.168.1.5
- hash(1903054837754071260)改变到->s5-192.168.1.5
- hash(-3272337528088901176)改变到->s5-192.168.1.5
- 最后的客户端到主机的映射为:
- hash(-8497989778066313989)连接到主机->s4-192.168.1.4
- hash(-6461488502093916753)连接到主机->s1-192.168.1.1
- hash(-3872430075274208315)连接到主机->s4-192.168.1.4
- hash(-3272337528088901176)连接到主机->s5-192.168.1.5
- hash(-2425484502654523425)连接到主机->s1-192.168.1.1
- hash(1903054837754071260)连接到主机->s5-192.168.1.5
- hash(2219601794372203979)连接到主机->s3-192.168.1.3
- hash(6218187750346216421)连接到主机->s1-192.168.1.1
- hash(7274050343425899995)连接到主机->s1-192.168.1.1
看结果可知:一开始添加到9个客户端,连接到主机s1,s2,s3,s4的客户端分别有3,3,3,0个,经过删除主机s2,添加主机s5,最后9个客户端分别连接到主机s1,s2,s3,s4,s5的个数为4,0,1,2,2.这里要说明一下删除主机s2的情况,hash尾号为9995的客户端先连接到s2,再连接到s1,为什么会出现这种情况呢?因为每一个真实主机有n个虚拟主机,删除s2却打印“hash(7274050343425899995)改变到->s2-192.168.1.2”是因为删除了s2的其中一个虚拟主机,跳转到另一个虚拟主机,但还是在s2上,当然,这里是打印中间情况,以便了解,真实的环境是删除了s2后,所有他的虚拟节点都会马上被删除,虚拟节点上的连接也会重新连接到另一个主机的虚拟节点,不会存在这种中间情况。
以下给出所有的实现代码,大家共同学习:
- public class Shard<Node> { // S类封装了机器节点的信息 ,如name、password、ip、port等
- static private TreeMap<Long, Node> nodes; // 虚拟节点到真实节点的映射
- static private TreeMap<Long,Node> treeKey; //key到真实节点的映射
- static private List<Node> shards = new ArrayList<Node>(); // 真实机器节点
- private final int NODE_NUM = 100; // 每个机器节点关联的虚拟节点个数
- boolean flag = false;
- public Shard(List<Node> shards) {
- super();
- this.shards = shards;
- init();
- }
- public static void main(String[] args) {
- // System.out.println(hash("w222o1d"));
- // System.out.println(Long.MIN_VALUE);
- // System.out.println(Long.MAX_VALUE);
- Node s1 = new Node("s1", "192.168.1.1");
- Node s2 = new Node("s2", "192.168.1.2");
- Node s3 = new Node("s3", "192.168.1.3");
- Node s4 = new Node("s4", "192.168.1.4");
- Node s5 = new Node("s5","192.168.1.5");
- shards.add(s1);
- shards.add(s2);
- shards.add(s3);
- shards.add(s4);
- Shard<Node> sh = new Shard<Shard.Node>(shards);
- System.out.println("添加客户端,一开始有4个主机,分别为s1,s2,s3,s4,每个主机有100个虚拟主机:");
- sh.keyToNode("101客户端");
- sh.keyToNode("102客户端");
- sh.keyToNode("103客户端");
- sh.keyToNode("104客户端");
- sh.keyToNode("105客户端");
- sh.keyToNode("106客户端");
- sh.keyToNode("107客户端");
- sh.keyToNode("108客户端");
- sh.keyToNode("109客户端");
- sh.deleteS(s2);
- sh.addS(s5);
- System.out.println("最后的客户端到主机的映射为:");
- printKeyTree();
- }
- public static void printKeyTree(){
- for(Iterator<Long> it = treeKey.keySet().iterator();it.hasNext();){
- Long lo = it.next();
- System.out.println("hash("+lo+")连接到主机->"+treeKey.get(lo));
- }
- }
- private void init() { // 初始化一致性hash环
- nodes = new TreeMap<Long, Node>();
- treeKey = new TreeMap<Long, Node>();
- for (int i = 0; i != shards.size(); ++i) { // 每个真实机器节点都需要关联虚拟节点
- final Node shardInfo = shards.get(i);
- for (int n = 0; n < NODE_NUM; n++)
- // 一个真实机器节点关联NODE_NUM个虚拟节点
- nodes.put(hash("SHARD-" + shardInfo.name + "-NODE-" + n), shardInfo);
- }
- }
- //增加一个主机
- private void addS(Node s) {
- System.out.println("增加主机"+s+"的变化:");
- for (int n = 0; n < NODE_NUM; n++)
- addS(hash("SHARD-" + s.name + "-NODE-" + n), s);
- }
- //添加一个虚拟节点进环形结构,lg为虚拟节点的hash值
- public void addS(Long lg,Node s){
- SortedMap<Long, Node> tail = nodes.tailMap(lg);
- SortedMap<Long,Node> head = nodes.headMap(lg);
- Long begin = 0L;
- Long end = 0L;
- SortedMap<Long, Node> between;
- if(head.size()==0){
- between = treeKey.tailMap(nodes.lastKey());
- flag = true;
- }else{
- begin = head.lastKey();
- between = treeKey.subMap(begin, lg);
- flag = false;
- }
- nodes.put(lg, s);
- for(Iterator<Long> it=between.keySet().iterator();it.hasNext();){
- Long lo = it.next();
- if(flag){
- treeKey.put(lo, nodes.get(lg));
- System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));
- }else{
- treeKey.put(lo, nodes.get(lg));
- System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));
- }
- }
- }
- //删除真实节点是s
- public void deleteS(Node s){
- if(s==null){
- return;
- }
- System.out.println("删除主机"+s+"的变化:");
- for(int i=0;i<NODE_NUM;i++){
- //定位s节点的第i的虚拟节点的位置
- SortedMap<Long, Node> tail = nodes.tailMap(hash("SHARD-" + s.name + "-NODE-" + i));
- SortedMap<Long,Node> head = nodes.headMap(hash("SHARD-" + s.name + "-NODE-" + i));
- Long begin = 0L;
- Long end = 0L;
- SortedMap<Long, Node> between;
- if(head.size()==0){
- between = treeKey.tailMap(nodes.lastKey());
- end = tail.firstKey();
- tail.remove(tail.firstKey());
- nodes.remove(tail.firstKey());//从nodes中删除s节点的第i个虚拟节点
- flag = true;
- }else{
- begin = head.lastKey();
- end = tail.firstKey();
- tail.remove(tail.firstKey());
- between = treeKey.subMap(begin, end);//在s节点的第i个虚拟节点的所有key的集合
- flag = false;
- }
- for(Iterator<Long> it = between.keySet().iterator();it.hasNext();){
- Long lo = it.next();
- if(flag){
- treeKey.put(lo, tail.get(tail.firstKey()));
- System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));
- }else{
- treeKey.put(lo, tail.get(tail.firstKey()));
- System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));
- }
- }
- }
- }
- //映射key到真实节点
- public void keyToNode(String key){
- SortedMap<Long, Node> tail = nodes.tailMap(hash(key)); // 沿环的顺时针找到一个虚拟节点
- if (tail.size() == 0) {
- return;
- }
- treeKey.put(hash(key), tail.get(tail.firstKey()));
- System.out.println(key+"(hash:"+hash(key)+")连接到主机->"+tail.get(tail.firstKey()));
- }
- /**
- * MurMurHash算法,是非加密HASH算法,性能很高,
- * 比传统的CRC32,MD5,SHA-1(这两个算法都是加密HASH算法,复杂度本身就很高,带来的性能上的损害也不可避免)
- * 等HASH算法要快很多,而且据说这个算法的碰撞率很低.
- * http://murmurhash.googlepages.com/
- */
- private static Long hash(String key) {
- ByteBuffer buf = ByteBuffer.wrap(key.getBytes());
- int seed = 0x1234ABCD;
- ByteOrder byteOrder = buf.order();
- buf.order(ByteOrder.LITTLE_ENDIAN);
- long m = 0xc6a4a7935bd1e995L;
- int r = 47;
- long h = seed ^ (buf.remaining() * m);
- long k;
- while (buf.remaining() >= 8) {
- k = buf.getLong();
- k *= m;
- k ^= k >>> r;
- k *= m;
- h ^= k;
- h *= m;
- }
- if (buf.remaining() > 0) {
- ByteBuffer finish = ByteBuffer.allocate(8).order(
- ByteOrder.LITTLE_ENDIAN);
- // for big-endian version, do this first:
- // finish.position(8-buf.remaining());
- finish.put(buf).rewind();
- h ^= finish.getLong();
- h *= m;
- }
- h ^= h >>> r;
- h *= m;
- h ^= h >>> r;
- buf.order(byteOrder);
- return h;
- }
- static class Node{
- String name;
- String ip;
- public Node(String name,String ip) {
- this.name = name;
- this.ip = ip;
- }
- @Override
- public String toString() {
- return this.name+"-"+this.ip;
- }
- }
- }
参考:http://blog.csdn.net/wuhuan_wp/article/details/7010071
[转载] 应用于负载均衡的一致性哈希及java实现的更多相关文章
- 负载均衡-基础-一致性哈希算法及java实现
一致性hash算法,参考: http://www.blogjava.net/hello-yun/archive/2012/10/10/389289.html 针对这篇文章,加入了自己的理解,在原有的代 ...
- [转载] nginx的负载均衡
原文:http://www.srhang.me/blog/2014/08/27/nginx-loabbalance/ Nginx负载均衡 一.特点 1.1 应用情况 Nginx做为一个强大的Web服务 ...
- SOFA 源码分析 — 负载均衡和一致性 Hash
前言 SOFA 内置负载均衡,支持 5 种负载均衡算法,随机(默认算法),本地优先,轮询算法,一致性 hash,按权重负载轮询(不推荐,已被标注废弃). 一起看看他们的实现(重点还是一致性 hash) ...
- [转载]ActiveMQ实现负载均衡+高可用部署方案
转载于 http://www.open-open.com/lib/view/open1400126457817.html 一.架构和技术介绍 1.简介 ActiveMQ 是Apache出品,最流行的, ...
- 转载:Nginx负载均衡的5种策略
nginx可以根据客户端IP进行负载均衡,在upstream里设置ip_hash,就可以针对同一个C类地址段中的客户端选择同一个后端服务器,除非那个后端服务器宕了才会换一个. nginx的upstre ...
- 阿里巴巴的分布式应用框架-dubbo负载均衡策略--- 一致哈希算法
dubbo是阿里巴巴公司开发的一个开源分布式应用框架,基于服务的发布者和订阅者,服务者启动服务向注册中心发布自己的服务:消费者(订阅者)启动服务器向注册中心订阅所需要的服务.注册中心将订阅的服务注册列 ...
- 一致性哈希与java实现
一致性哈希算法是分布式系统中常用的算法.比如,一个分布式的存储系统,要将数据存储到具体的节点上,如果采用普通的hash方法,将数据映射到具体的节点上,如key%N,key是数据的key,N是机器节点数 ...
- Nginx的负载均衡 - 一致性哈希 (Consistent Hash)
Nginx版本:1.9.1 我的博客:http://blog.csdn.net/zhangskd 算法介绍 当后端是缓存服务器时,经常使用一致性哈希算法来进行负载均衡. 使用一致性哈希的好处在于,增减 ...
- 【转载】对一致性Hash算法,Java代码实现的深入研究
原文地址:http://www.cnblogs.com/xrq730/p/5186728.html 一致性Hash算法 关于一致性Hash算法,在我之前的博文中已经有多次提到了,MemCache超详细 ...
随机推荐
- iKcamp出品|全网最新|微信小程序|基于最新版1.0开发者工具之初中级培训教程分享
- Python系列之多线程、多进程
线程是操作系统直接支持的执行单元,因此,高级语言通常都内置多线程的支持,Python也不例外,并且,Python的线程是真正的Posix Thread,而不是模拟出来的线程. Python的标准库提供 ...
- 如何判断Linux 是32位还是64位
.运行 'uname -m' 命令 上面的命令内涵太多了,可以用这个参数直指人心:'uname -m' . 例如,在我的系统里,它显示了以下信息: $ uname -m i686
- 从实践的角度理解cookie的几个属性
cookie的处理流程大致分为以下几步: 1.浏览器初次请求服务器. 2.服务器认为有必要设置cookie,通过响应报文首部:Set-Cookie告知浏览器,cookie的内容. 3.浏览器本地保存( ...
- KMP算法的细节问题
preface: 想必,很多人都知道D.E.Knuth与V.R.Pratt和J.H.Morris同时提出所谓的狂拽酷炫屌炸天的KMP算法,在对字符串的匹配(或是字符串的查找)方面表现出比较好的效率,该 ...
- 【懒人有道】在asp.net core中实现程序集注入
前言 在asp.net core中,我巨硬引入了DI容器,我们可以在不使用第三方插件的情况下轻松实现依赖注入.如下代码: // This method gets called by the runti ...
- Java 线程基本知识
线程 线程和进程 进程 : 进程指正在运行的程序.确切的来说,当一个程序进入内存运行,即变成一个进程,进程是处于运行过程中的程序,并且具有一定独立功能. 线程 : 线程是进程中的一个执行单元(执行路径 ...
- Servlet 笔记-异常处理
当一个 Servlet 抛出一个异常时,Web 容器在使用了 exception-type 元素的 web.xml 中搜索与抛出异常类型相匹配的配置. 必须在 web.xml 中使用 error-pa ...
- [JAVA第二课] java命名规则
Java良好的命名规则以及代码风格可以看出来一个程序员的功底,好多公司也会注重这方面,他们招聘员工在有些时候往往就是根据一个人的代码风格来招人,所以下面就就我知道的代码风格作简要的说明一下.Java命 ...
- js文件中使用EL表达式的问题
var str = '${str}' ; var str = '${obj.属性名}'; 只可以再jsp页面的<script></script>中使用,外部引入的js文件中不能 ...