Nginx一致性哈希模块的Lua实现
Nginx一致性哈希模块的Lua重新实现
技术背景:
最近在工作中使用了nginx+redis 的架构,redis在后台做分布式存储,每个redis都存放不同的数据,这些数据都是某门户网站通过Hadoop分析出来的用户行为日志,key是uid,value是user profile,每小时更新量在500-800万条记录,而这些记录一旦生成,我需要在5分钟左右的时间完成所有导入过程。
首先,我在nginx中使用了第三方模块HttpUpstreamConsistent来做负载均衡策略,针对不同用户(uid)选取不同的backend redis:
upstream somestream {
consistent_hash $arg_uid;
server 10.50.1.3:;
server 10.50.1.4:;
server 10.50.1.5:;
}
现在问题来了,由于Hadoop系统处理日志的速度非常快,如果把每条记录都通过Nginx来写入Redis中,这样的速度是无法接受的,而且会影响Nginx对正常请求的服务能力。所以,需要将这些数据以离线的方式导入redis集群中,这样就要重新实现HttpUpstreamConsistent模块了,才能保证读写的哈希策略一致。
下面的源码演示了如何将HttpUpstreamConsistent模块翻译成Lua的过程,(使用了CRC32作散列,依赖库的路径已列在Reference中)。
#!/usr/bin/lua -- chenqi@2014/04/02
--[Reference]
--https://github.com/yaoweibin/ngx_http_consistent_hash
--https://github.com/davidm/lua-digest-crc32lua local CRC = require('CRC32') local M = {} local CONSISTENT_BUCKETS =
local VIRTUAL_NODE = local HASH_PEERS = {}
local CONTINUUM = {}
local BUCKETS = {} local function hash_fn(key)
return CRC.crc32(key)
end -- in-place quicksort
function quicksort(array,compareFunc)
quick(array,,#array,compareFunc)
end function quick(array,left,right,compareFunc)
if(left < right ) then
local index = partion(array,left,right,compareFunc)
quick(array,left,index-,compareFunc)
quick(array,index+,right,compareFunc)
end
end function partion(array,left,right,compareFunc)
local key = array[left]
local index = left
array[index],array[right] = array[right],array[index]
local i = left
while i< right do
if compareFunc( key,array[i]) then
array[index],array[i] = array[i],array[index]
index = index +
end
i = i +
end
array[right],array[index] = array[index],array[right]
return index;
end -- binary search
local function chash_find(point)
local mid, lo, hi = , , #CONTINUUM
while do
if point <= CONTINUUM[lo][] or point > CONTINUUM[hi][] then
return CONTINUUM[lo]
end -- test middle point
mid = lo + math.floor((hi-lo)/) -- perfect match
if point <= CONTINUUM[mid][] and point > (mid > and CONTINUUM[mid-][] or ) then
return CONTINUUM[mid]
end -- too low, go up
if CONTINUUM[mid][] < point then
lo = mid +
else
hi = mid -
end
end
end local function chash_init()
local n = #HASH_PEERS
if n == then
print("There is no backend servers")
return
end local C = {}
for i,peer in ipairs(HASH_PEERS) do
for k=, math.floor(VIRTUAL_NODE * peer[]) do
local hash_data = peer[] .. "-" .. (k - )
table.insert(C, {peer[], hash_fn(hash_data)})
end
end quicksort(C, function(a,b) return a[] > b[] end)
CONTINUUM = C --[[
for i=1,#C do
print(CONTINUUM[i][1],CONTINUUM[i][2])
end
--]] local step = math.floor(0xFFFFFFFF / CONSISTENT_BUCKETS) BUCKETS = {}
for i=, CONSISTENT_BUCKETS do
table.insert(BUCKETS, i, chash_find(math.floor(step * (i - ))))
-- print(BUCKETS[i][],BUCKETS[i][])
end end
M.init = chash_init local function chash_get_upstream_crc32(point)
return BUCKETS[(point % CONSISTENT_BUCKETS)+][]
end
M.get_upstream_crc32 = chash_get_upstream_crc32 local function chash_get_upstream(key)
local point = math.floor(hash_fn(key))
return chash_get_upstream_crc32(point)
end
M.get_upstream = chash_get_upstream local function chash_add_upstream(upstream, weigth)
weight = weight or
table.insert(HASH_PEERS, {weight, upstream})
end
M.add_upstream = chash_add_upstream return M
API调用方式:
local redis_login= {
"10.50.1.3:11211",
"10.50.1.4:11211",
"10.50.1.5:11211",
}
for k, backend in ipairs(redis_login) do
chash_login.add_upstream(backend)
end
chash_login.init()
uid=""
chash_login.chash_get_upstream(uid)
返回一个backend地址,将该uid对应的数据写入对应的redis中即可,稍后可以使用Nginx读到。
PS:关于redis的mass insertion问题,最高效的方式是批量写入文件(文件格式遵循redis协议),然后使用 redis-cli --pipe 直接导入。
Nginx一致性哈希模块的Lua实现的更多相关文章
- 018 nginx与第三模块整合[一致性哈希模块整合]
nginx第三方模块官网:http://wiki.nginx.org/HttpUpstreamConsistentHash nginx第三方模块下载地址:https://github.com/repl ...
- Nginx 第三方模块的安装以及一致性哈希算法的使用
Nginx 第三方模块的安装以及一致性哈希算法的使用 第三方模块安装方法总结: 以ngx_http_php_memcache_standard_balancer-master为例 1:解压 到 pat ...
- Nginx网络架构实战学习笔记(四):nginx连接memcached、第三方模块编译及一致性哈希应用
文章目录 nginx连接memcached 第三方模块编译及一致性哈希应用 总结 nginx连接memcached 首先确保nginx能正常连接php location ~ \.php$ { root ...
- Nginx的负载均衡 - 一致性哈希 (Consistent Hash)
Nginx版本:1.9.1 我的博客:http://blog.csdn.net/zhangskd 算法介绍 当后端是缓存服务器时,经常使用一致性哈希算法来进行负载均衡. 使用一致性哈希的好处在于,增减 ...
- OpenResty / Nginx模块,Lua库和相关资源的列表
OpenResty / Nginx模块,Lua库和相关资源的列表 什么是OpenResty OpenResty是一个成熟的网络平台,它集成了标准的Nginx核心,LuaJIT,许多精心编写的Lua库, ...
- nginx upstream一致性哈希的实现
地址:http://wiki.nginx.org/HttpUpstreamConsistentHash 首先声明一个命令: static ngx_command_t ngx_http_upstrea ...
- nginx系列12:一致性哈希算法
前面一节的hash算法存在一个问题,当上游的应用服务器因某一台down掉导致服务器数量发生变化时,会导致大量的请求路由策略失效,一致性哈希算法可以缓解这个问题. 一致性哈希算法 1,hash算法存在的 ...
- Nginx核心流程及模块介绍
Nginx核心流程及模块介绍 1. Nginx简介以及特点 Nginx简介: Nginx (engine x) 是一个高性能的web服务器和反向代理服务器,也是一个IMAP/POP3/SMTP服务器 ...
- .net的一致性哈希实现
最近在项目的微服务架构推进过程中,一个新的服务需要动态伸缩的弹性部署,所有容器化示例组成一个大的工作集群,以分布式处理的方式来完成一项工作,在集群中所有节点的任务分配过程中,由于集群工作节点需要动态增 ...
随机推荐
- U3D assetbundle打包
using UnityEngine; using System.Collections; using UnityEditor; //此脚本不一定要放于editor目录下,经测试,放于其它地方也可以 p ...
- WorldWind源码剖析系列:WorldWind实时确定、更新、初始化和渲染地形和纹理数据
WorldWind实时确定.更新.初始化和渲染地形和纹理数据 当用户点击WorldWind中的地球时,首先响应的是WorldWindow.OnPaint()函数,后续程序的调用流程如下图所示. 零散知 ...
- 找不到类型{0} 它在 ServiceHost 指令中提供为 Service 特性值
由于我把binding改成wsHttpBinding,在web.config里也改了命名空间 services的类名也改成了跟 web.config对应的命名空间后 在添加引用后,出现了错误: “找不 ...
- jdbc 得到表结构、主键
jdbc 得到表结构.主键 标签: jdbctablenullschema数据库mysql 2012-02-16 22:13 11889人阅读 评论(0) 收藏 举报 分类: Java(71) 假 ...
- [CareerCup] 3.7 Adopt Animal 领养动物
3.7 An animal shelter holds only dogs and cats, and operates on a strictly "first in, first out ...
- 《图解tcp/ip》读书笔记(一)
我先讲三句话: 一."万物互联的时代到了."我们生活在这样一个互联网急速发展的时代,也许很快就会发现,你能接触到的一切都可以连接到互联网了,电脑.手机这 ...
- 物联网-手机远程控制家里的摄像头(2) - POP3和SMTP的C语言精简实现
在上一篇博客里面,使用了Python来发送.接收mail,但是实际测试中出现了一些不稳定的 情况,而且Python和即将使用的opencv会不兼容,使用进程间通讯或者其他方法会让整个系统 显得复杂而且 ...
- Unity发送参数给iOSNative并响应
unity想要给iOS客户端发送通知并相应.语言太苍白直接上代码. unity端创建两个C#文件 1.触发cs这个不用多说,大家估计都懂. using UnityEngine; using Syste ...
- C#对 Dictionary进行排序 转
C# .net 3.5 以上的版本引入 Linq 后,字典Dictionary排序变得十分简单,用一句类似 sql 数据库查询语句即可搞定:不过,.net 2.0 排序要稍微麻烦一点,为便于使用,将总 ...
- 深入浅出jsonp
前言 第一次听说jsonp,其实早在2年之前.当时在做一个活动页面的抽奖模块,要从服务端get一个概率,当时什么都不懂,同事说用ajax,我就用ajax,同事说dataType改成jsonp,我就改成 ...