问题1:哨兵模式下客户端应该连接哪个redis-server?

问题2:集群模式下为什么会有MOVED error

Redis Java客户端介绍

已有的客户端支持

Redis Java客户端有很多的开源产品比如Redission、Jedis、lettuce

差异

Jedis是Redis的Java实现的客户端,其API提供了比较全面的Redis命令的支持;
Redisson实现了分布式和可扩展的Java数据结构,和Jedis相比,功能较为简单,不支持字符串操作,不支持排
序、事务、管道、分区等Redis特性。Redisson主要是促进使用者对Redis的关注分离,从而让使用者能够将精力更集中地放在处理业务逻辑上。
lettuce是基于Netty构建的一个可伸缩的线程安全的Redis客户端,支持同步、异步、响应式模式。多个线程可以
共享一个连接实例,而不必担心多线程并发问题;

jedis-sentinel原理分析

连接

package com.lf.jedis;

import java.util.Arrays;
import java.util.HashSet;
import java.util.Set; import redis.clients.jedis.HostAndPort;
import redis.clients.jedis.JedisPoolConfig;
import redis.clients.jedis.JedisSentinelPool; public class SentinelDemo { public static void main(String[] args) {
try {
JedisPoolConfig jedisPoolConfig = new JedisPoolConfig();
jedisPoolConfig.setMaxTotal(10);
jedisPoolConfig.setMaxIdle(5);
jedisPoolConfig.setMinIdle(5); Set<String> sentinels = new HashSet<>(
Arrays.asList("192.168.25.129:26379", "192.168.25.130:26379", "192.168.25.131:26379"));
JedisSentinelPool pool = new JedisSentinelPool("mymaster", sentinels, jedisPoolConfig);
HostAndPort hostAndPort = pool.getCurrentHostMaster();
System.out.println(hostAndPort);
} catch (Exception e) {
e.printStackTrace();
}
} }

  

原理

客户端通过连接到哨兵集群,通过发送Protocol.SENTINEL_GET_MASTER_ADDR_BY_NAME 命令,从哨兵机器中询问master节点的信息,
拿到master节点的ip和端口号以后,再到客户端发起连接。连接以后,需要在客户端建立监听机制,当master重新选举之后,客户端需要重新连接到新的master节点
源码分析

private HostAndPort initSentinels(Set<String> sentinels, final String masterName) {
HostAndPort master = null;
boolean sentinelAvailable = false;
log.info("Trying to find master from available Sentinels...");
// 有多个sentinels,遍历这些个sentinels
for (String sentinel : sentinels) {
// host:port表示的sentinel地址转化为一个HostAndPort对象。
final HostAndPort hap = HostAndPort.parseString(sentinel);
log.fine("Connecting to Sentinel " + hap);
Jedis jedis = null;
try {
// 连接到sentinel
jedis = new Jedis(hap.getHost(), hap.getPort());
// 根据masterName得到master的地址,返回一个list,host= list[0], port =// list[1]
List<String> masterAddr = jedis.sentinelGetMasterAddrByName(masterName);
// connected to sentinel...
sentinelAvailable = true;
if (masterAddr == null || masterAddr.size() != 2) {
log.warning("Can not get master addr, master name: " + masterName + ".Sentinel: " + hap+ ".");
continue;
}
// 如果在任何一个sentinel中找到了master,不再遍历sentinels
master = toHostAndPort(masterAddr);
log.fine("Found Redis master at " + master);
break;
} catch (JedisException e) {
// resolves #1036, it should handle JedisException there's another chance
// of raising JedisDataException
log.warning("Cannot get master address from sentinel running @ " + hap + ".
Reason: " + e
+ ". Trying next one.");
} finally {
if (jedis != null) {
jedis.close();
}
}
}
// 到这里,如果master为null,则说明有两种情况,一种是所有的sentinels节点都down掉了,一种是master节点没有被存活的sentinels监控到
if (master == null) {
if (sentinelAvailable) {
// can connect to sentinel, but master name seems to not
// monitored
throw new JedisException("Can connect to sentinel, but " + masterName
+ " seems to be not monitored...");
} else {
throw new JedisConnectionException("All sentinels down, cannot determine where is
"
+ masterName + " master is running...");
}
}
//如果走到这里,说明找到了master的地址
log.info("Redis master running at " + master + ", starting Sentinel listeners...");
//启动对每个sentinels的监听
为每个sentinel都启动了一个监听者MasterListener。MasterListener本身是一个线程,它会去订阅sentinel
上关于master节点地址改变的消息。
for (String sentinel : sentinels) {
final HostAndPort hap = HostAndPort.parseString(sentinel);
MasterListener masterListener = new MasterListener(masterName, hap.getHost(),
hap.getPort());
// whether MasterListener threads are alive or not, process can be stopped
masterListener.setDaemon(true);
masterListeners.add(masterListener);
masterListener.start();
}
return master;
}

  从哨兵节点获取master信息的方法

  

public List<String> sentinelGetMasterAddrByName(String masterName) {
client.sentinel(Protocol.SENTINEL_GET_MASTER_ADDR_BY_NAME,
masterName);
final List<Object> reply = client.getObjectMultiBulkReply();
return BuilderFactory.STRING_LIST.build(reply);
}

  

Jedis-cluster原理分析

连接方式

package com.lf.jedis;

import java.util.HashSet;
import java.util.Set; import redis.clients.jedis.HostAndPort;
import redis.clients.jedis.JedisCluster; public class ClusterDemo { public static void main(String[] args) {
try {
Set<HostAndPort> hostAndPorts=new HashSet<>();
HostAndPort hostAndPort=new HostAndPort("192.168.20.130",7000);
HostAndPort hostAndPort1=new HostAndPort("192.168.20.130",7001);
HostAndPort hostAndPort2=new HostAndPort("192.168.20.130",7002);
hostAndPorts.add(hostAndPort);
hostAndPorts.add(hostAndPort1);
hostAndPorts.add(hostAndPort2);
JedisCluster jedisCluster=new JedisCluster(hostAndPorts,6000);
jedisCluster.set("lf","hello");
} catch (Exception e) {
e.printStackTrace();
} }
}

弱连接不上,则查看redis.config中的文件,保护模式 和bind = 127.0.0.1是否配置错误,修改配置,删除其他文件,只保留redis.config,重做集群。。。

redis-trib create --replicas 2 192.168.20.130:7000 192.168.20.130:7001 192.168.20.130:7002 192.168.20.130:7003 192.168.20.130:7004 192.168.20.130:7005 192.168.20.130:7006 192.168.20.130:7007 192.168.20.130:7008

  完成后运行程序,连接客户端,get lf查看结果

[root@localhost 7008]#  redis-cli -c -p 7001
127.0.0.1:7001> get lf
-> Redirected to slot [551] located at 192.168.20.130:7000
"hello"
192.168.20.130:7000>

原理分析

程序启动初始化集群环境
1)、读取配置文件中的节点配置,无论是主从,无论多少个,只拿第一个,获取redis连接实例
2)、用获取的redis连接实例执行clusterNodes()方法,实际执行redis服务端cluster nodes命令,获取主从配置信息
3)、解析主从配置信息,先把所有节点存放到nodes的map集合中,key为节点的ip:port,value为当前节点的jedisPool
4)、解析主节点分配的slots区间段,把slot对应的索引值作为key,第三步中拿到的jedisPool作为value,存储在slots的map集合中
  就实现了slot槽索引值与jedisPool的映射,这个jedisPool包含了master的节点信息,所以槽和几点是对应的,与redis服务端一致

从集群环境存取值
1)、把key作为参数,执行CRC16算法,获取key对应的slot值

2)、通过该slot值,去slots的map集合中获取jedisPool实例

3)、通过jedisPool实例获取jedis实例,最终完成redis数据存取工作

Redisson客户端的操作方式

package com.lf.redisson;

import org.redisson.Redisson;
import org.redisson.api.RedissonClient;
import org.redisson.config.Config; public class ClusterRedission { public static void main(String[] args) {
Config config = new Config();
config.useClusterServers().addNodeAddress("redis://192.168.20.130:7000","redis://192.168.20.130:7001","redis://192.168.20.130:7002");
RedissonClient redissonClient = Redisson.create(config);
redissonClient.getBucket("lf001").set("hello Redission");
}
}

  获取结果lf001

192.168.20.130:7002> get lf001
-> Redirected to slot [2814] located at 192.168.20.130:7000
"\"hello Redission\""
192.168.20.130:7000>

常规操作命令:

getBucket-> 获取字符串对象;
getMap -> 获取map对象
getSortedSet->获取有序集合
getSet -> 获取集合
getList ->获取列表

  

redis实战

分布式锁的实现 

关于锁,其实我们或多或少都有接触过一些,比如synchronized、 Lock这些,这类锁的目的很简单,在多线程环
境下,对共享资源的访问造成的线程安全问题,通过锁的机制来实现资源访问互斥。那么什么是分布式锁呢?或者
为什么我们需要通过Redis来构建分布式锁,其实最根本原因就是Score(范围),因为在分布式架构中,所有的应
用都是进程隔离的,在多进程访问共享资源的时候我们需要满足互斥性,就需要设定一个所有进程都能看得到的范
围,而这个范围就是Redis本身。所以我们才需要把锁构建到Redis中。
Redis里面提供了一些比较具有能够实现锁特性的命令,比如SETEX(在键不存在的情况下为键设置值),那么我们可
以基于这个命令来去实现一些简单的锁的操作

分布式锁实战

Redis连接池

package com.lf.lock;

import redis.clients.jedis.Jedis;
import redis.clients.jedis.JedisPool;
import redis.clients.jedis.JedisPoolConfig; public class JedisConnectionPool { private static JedisPool pool = null; static {
JedisPoolConfig jedisPoolConfig = new JedisPoolConfig();
jedisPoolConfig.setMaxTotal(100);
pool = new JedisPool(jedisPoolConfig,"192.168.20.130",7000);
} public static Jedis getJedisConnection(){
return pool.getResource();
} }

  分布式锁的获取和释放

package com.lf.lock;

import java.util.UUID;

import redis.clients.jedis.Jedis;
import redis.clients.jedis.Transaction; public class DistributedLock { //获得锁
/**
*
* @param lockName 锁名称
* @param acquireTimeout 获取锁超时时间
* @param lockTimeout 锁本身过期时间
* @return
*/
public String acquireLock(String lockName,long acquireTimeout,long lockTimeout){
String identifier = UUID.randomUUID().toString();//保证释放锁的时候是偶同一个持有锁的人
String lockKey= "lock:"+ lockName;
int lockExpire = (int) (lockTimeout/1000);
Jedis jedis = null;
try{
jedis = JedisConnectionPool.getJedisConnection();
long end = System.currentTimeMillis()+acquireTimeout;
//获取锁的限定时间
while(System.currentTimeMillis()<end){
if(jedis.setnx(lockKey, identifier) == 1){//设置值成功
jedis.expire(lockKey, lockExpire);//设置超时时间
return identifier; //获取锁成功
} if(jedis.ttl(lockKey) == -1){
jedis.expire(lockKey, lockExpire); //设置超时时间
}
try {
//等待片刻后进行获取所的重试
Thread.sleep(100);
} catch (Exception e) {
e.printStackTrace();
}
}
}finally{
jedis.close();
} return null;
} //释放锁
public boolean releaseLock(String lockName, String identifier){
System.out.println(lockName+"开始释放锁:"+ identifier);
String lockKey = "lock:" +lockName;
Jedis jedis = null;
boolean isRelease = false; try{
jedis = JedisConnectionPool.getJedisConnection();
while(true){
jedis.watch(lockKey);// 开启watch之后,如果key的值被修改,则事务失败,exec方法返回null
//判断是否为同一把锁
if(identifier.equals(jedis.get(lockKey))){
Transaction transaction = jedis.multi();// 开启事务,当server端收到multi指令
// 会将该client的命令放入一个队列,然后依次执行,直到收到exec指令
transaction.del(lockKey);
if(transaction.exec().isEmpty()){
continue;
}
isRelease = true;
}
//TODO 异常
jedis.unwatch();
break;
}
}finally{
jedis.close();
}
return isRelease;
}
}

  分布式锁测试

package com.lf.lock;

public class DistributedLockUnitTest extends Thread{

	@Override
public void run() {
while(true){
DistributedLock distributedLock = new DistributedLock();
String rs = distributedLock.acquireLock("updateOrder", 2000, 5000);
if(rs != null){
System.out.println(Thread.currentThread().getName()+"->成功获得锁:"+rs);
try {
Thread.sleep(1000);
distributedLock.releaseLock("updateOrder", rs);
} catch (Exception e) {
e.printStackTrace();
}
break;
}
}
} public static void main(String[] args) {
DistributedLockUnitTest test = new DistributedLockUnitTest();
for (int i = 0; i < 10; i++) {
new Thread(test,"tName"+i).start();
}
}
}

  测试结果:

tName2->成功获得锁:d29ed94c-15ed-4309-9789-9b0cd7d83ff4
updateOrder开始释放锁:d29ed94c-15ed-4309-9789-9b0cd7d83ff4
tName4->成功获得锁:1f67db75-5a93-4a44-98a4-0afa5c6f82a8
updateOrder开始释放锁:1f67db75-5a93-4a44-98a4-0afa5c6f82a8
tName1->成功获得锁:cb1e15f1-7ec3-43f2-865e-9a3869600b36
updateOrder开始释放锁:cb1e15f1-7ec3-43f2-865e-9a3869600b36
tName5->成功获得锁:b49180be-bc6f-4347-a6af-dc9ea58ec8d9
updateOrder开始释放锁:b49180be-bc6f-4347-a6af-dc9ea58ec8d9
tName8->成功获得锁:70357704-4cf5-4d31-89f6-b53b6fff5bc0
updateOrder开始释放锁:70357704-4cf5-4d31-89f6-b53b6fff5bc0
tName7->成功获得锁:280795a2-fb00-4412-a867-9ed51809796a
updateOrder开始释放锁:280795a2-fb00-4412-a867-9ed51809796a
tName6->成功获得锁:1cc6e0b7-a6d3-4fa4-8bd6-7e005d83723a
updateOrder开始释放锁:1cc6e0b7-a6d3-4fa4-8bd6-7e005d83723a
tName9->成功获得锁:085eff4f-8e07-4edd-9f26-b47142ce5331
updateOrder开始释放锁:085eff4f-8e07-4edd-9f26-b47142ce5331
tName0->成功获得锁:0444e85a-2938-4da0-b61b-5a6979277bf7
updateOrder开始释放锁:0444e85a-2938-4da0-b61b-5a6979277bf7
tName3->成功获得锁:44f54f59-c364-4d8e-874c-8d6b04c95f42
updateOrder开始释放锁:44f54f59-c364-4d8e-874c-8d6b04c95f42

  基于lua实现多进程之间释放锁

//基于lua脚本释放锁
public boolean releaseLockWithLua(String lockName, String identifier){
System.out.println(lockName+"开始释放锁:"+ identifier); Jedis jedis = JedisConnectionPool.getJedisConnection();
String lockKey = "lock:"+lockName; String lua ="if redis.call (\"get\",KEYS[1]) == ARGV[1] then "+
"return redis.call(\"del\",KEYS[1])"+
"else return 0 end";
jedis.evalsha("");// 将lua解析成固定String去执行
Long rs = (Long) jedis.eval(lua,1,new String[]{lockName,identifier});//解析lua
if(rs.intValue()>0){
return true;
}
return false;
}

  

Redisson实现分布式锁

Redisson它除了常规的操作命令以外,还基于redis本身的特性去实现了很多功能的封装,比如分布式锁、原子操作、布隆过滤器、队列等等。我们可以直接利用这个api提供的功能去实现

Config config=new Config();
config.useSingleServer().setAddress("redis://192.168.25.130:7000");
RedissonClient redissonClient=Redisson.create(config);
RLock rLock=redissonClient.getLock("updateOrder");
//最多等待100秒、上锁10s以后自动解锁
if(rLock.tryLock(100,10,TimeUnit.SECONDS)){
System.out.println("获取锁成功");
}

 原理分析

  trylock

tryAcquire

tryLockInnerAsync

通过lua脚本来实现加锁的操作
\1. 判断lock键是否存在,不存在直接调用hset存储当前线程信息并且设置过期时间,返回nil,告诉客户端直接获取到锁。

\2. 判断lock键是否存在,存在则将重入次数加1,并重新设置过期时间,返回nil,告诉客户端直接获取到锁。
\3. 被其它线程已经锁定,返回锁有效期的剩余时间,告诉客户端需要等待。

unlock

\1. 如果lock键不存在,发消息说锁已经可用,发送一个消息
\2. 如果锁不是被当前线程锁定,则返回nil
\3. 由于支持可重入,在解锁时将重入次数需要减1
\4. 如果计算后的重入次数>0,则重新设置过期时间
\5. 如果计算后的重入次数<=0,则发消息说锁已经可用

管道模式

Jedis jedis=new Jedis("192.168.25.130",7000);
Pipeline pipeline=jedis.pipelined();
for(int i=0;i<1000;i++){
pipeline.incr("test");
}
pipeline.sync();

  

Redis服务是一种C/S模型,提供请求-响应式协议的TCP服务,所以当客户端发起请求,服务端处理并返回结果到客户端,一般是以阻塞形式等待服务端的响应,但这在批量处理连接时延迟问题比较严重,
所以Redis为了提升或弥补这个问题,引入了管道技术:可以做到服务端未及时响应的时候,客户端也可以继续发送命令请求,做到客户端和服务端互不影响,服务端并最终返回所有服务端的响应,大大提高了C/S模型交互的响应速度上有了质的提高

使用方法

Redis的应用架构

对于读多写少的高并发场景,我们会经常使用缓存来进行优化。比如说支付宝的余额展示功能,实际上99%的时候都是查询,1%的请求是变更(除非是土豪,每秒钟都有收入在不断更改余额),所以,我们在这样的场景下,可以加入缓存,用户->余额

Redis缓存与数据一致性问题

那么基于上面的这个出发点,问题就来了,当用户的余额发生变化的时候,如何更新缓存中的数据,也就是说。
\1. 我是先更新缓存中的数据再更新数据库的数据;
\2. 还是修改数据库中的数据再更新缓存中的数据
这就是我们经常会在面试遇到的问题,数据库的数据和缓存中的数据如何达到一致性?首先,可以肯定的是,redis中的数据和数据库中的数据不可能保证事务性达到统一的,这个是毫无疑问的,所以在实际应用中,我们都
是基于当前的场景进行权衡降低出现不一致问题的出现概率

更新缓存还是让缓存失效

更新缓存表示数据不但会写入到数据库,还会同步更新缓存; 而让缓存失效是表示只更新数据库中的数据,然后删除缓存中对应的key。那么这两种方式怎么去选择?这块有一个衡量的指标。
\1. 如果更新缓存的代价很小,那么可以先更新缓存,这个代价很小的意思是我不需要很复杂的计算去获得最新的余额数字。

\2. 如果是更新缓存的代价很大,意味着需要通过多个接口调用和数据查询才能获得最新的结果,那么可以先淘汰
缓存。淘汰缓存以后后续的请求如果在缓存中找不到,自然去数据库中检索。

先操作数据库还是先操作缓存?

当客户端发起事务类型请求时,假设我们以让缓存失效作为缓存的的处理方式,那么又会存在两个情况,
\1. 先更新数据库再让缓存失效
\2. 先让缓存失效,再更新数据库
前面我们讲过,更新数据库和更新缓存这两个操作,是无法保证原子性的,所以我们需要根据当前业务的场景的容忍性来选择。也就是如果出现不一致的情况下,哪一种更新方式对业务的影响最小,就先执行影响最小的方案

最终一致性的解决方案

关于缓存雪崩的解决方案

当缓存大规模渗透在整个架构中以后,那么缓存本身的可用性讲决定整个架构的稳定性。那么接下来我们来讨论下缓存在应用过程中可能会导致的问题。
缓存雪崩
缓存雪崩是指设置缓存时采用了相同的过期时间,导致缓存在某一个时刻同时失效,或者缓存服务器宕机宕机导致缓存全面失效,
请求全部转发到了DB层面,DB由于瞬间压力增大而导致崩溃。缓存失效导致的雪崩效应对底层系统的冲击是很大的。

解决方式
\1. 对缓存的访问,如果发现从缓存中取不到值,那么通过加锁或者队列的方式保证缓存的单进程操作,从而避免失效时并发请求全部落到底层的存储系统上;但是这种方式会带来性能上的损耗

\2. 将缓存失效的时间分散,降低每一个缓存过期时间的重复率
\3. 如果是因为缓存服务器故障导致的问题,一方面需要保证缓存服务器的高可用、另一方面,应用程序中可以采用多级缓存

缓存穿透

缓存穿透是指查询一个根本不存在的数据,缓存和数据源都不会命中。出于容错的考虑,如果从数据层查不到数据则不写入缓存,即数据源返回值为 null 时,不缓存 null。
缓存穿透问题可能会使后端数据源负载加大,由于很多后端数据源不具备高并发性,甚至可能造成后端数据源宕掉

解决方式

\1. 如果查询数据库也为空,直接设置一个默认值存放到缓存,这样第二次到缓冲中获取就有值了,而不会继续访问数据库,这种办法最简单粗暴。比如,”key” , “&&”。
在返回这个&&值的时候,我们的应用就可以认为这是不存在的key,那我们的应用就可以决定是否继续等待继续访问,还是放弃掉这次操作。如果继续等待访问,过一个时间轮询点后,
再次请求这个key,如果取到的值不再是&&,则可以认为这时候key有值了,从而避免了透传到数据库,从而把大量的类似请求挡在了缓存之中。

\2. 根据缓存数据Key的设计规则,将不符合规则的key进行过滤
采用布隆过滤器,将所有可能存在的数据哈希到一个足够大的BitSet中,不存在的数据将会被拦截掉,从而避免了对底层存储系统的查询压力

布隆过滤器

布隆过滤器是Burton Howard Bloom在1970年提出来的,一种空间效率极高的概率型算法和数据结构,主要用来判断一个元素是否在集合中存在。因为他是一个概率型的算法,所以会存在一定的误差,
如果传入一个值去布隆过滤器中检索,可能会出现检测存在的结果但是实际上可能是不存在的,但是肯定不会出现实际上不存在然后反馈存在的结果。
因此,Bloom Filter不适合那些“零错误”的应用场合。而在能容忍低错误率的应用场合下,Bloom Filter通过极少的错误换取了存储空间的极大节省。

bitmap
所谓的Bit-map就是用一个bit位来标记某个元素对应的Value,通过Bit为单位来存储数据,可以大大节省存储空间.
所以我们可以通过一个int型的整数的32比特位来存储32个10进制的数字,那么这样所带来的好处是内存占用少、效率很高(不需要比较和位移)比如我们要存储5(101)、3(11)四个数字,
那么我们申请int型的内存空间,会有32个比特位。这四个数字的二进制分别对应从右往左开始数,比如第一个数字是5,对应的二进制数据是101, 那么从右往左数到第5位,把对应的二进制数据存储到32个比特位上。

第一个5就是 00000000000000000000000000101000
输入3时候 00000000000000000000000000001100

布隆过滤器原理

有了对位图的理解以后,我们对布隆过滤器的原理理解就会更容易了,仍然以前面提到的40亿数据为案例,假设这40亿数据为某邮件服务器的黑名单数据,
邮件服务需要根据邮箱地址来判断当前邮箱是否属于垃圾邮件。原理如下假设集合里面有3个元素{x, y, z},哈希函数的个数为3。首先将位数组进行初始化,
将里面每个位都设置位0。对于集合里面的每一个元素,将元素依次通过3个哈希函数进行映射,每次映射都会产生一个哈希值,这个值对应位数组上面的一个点,然后将位数组对应的位置标记为1。
查询W元素是否存在集合中的时候,同样的方法将W通过哈希映射到位数组上的3个点。如果3个点的其中有一个点不为1,则可以判断该元素一定不存在集合中。反之,如果3个点都为1,则该元素可能存在集合中

接下来按照该方法处理所有的输入对象,每个对象都可能把bitMap中一些白位置涂黑,也可能会遇到已经涂黑的位置,遇到已经为黑的让他继续为黑即可。处理完所有的输入对象之后,
在bitMap中可能已经有相当多的位置已经被涂黑。至此,一个布隆过滤器生成完成,这个布隆过滤器代表之前所有输入对象组成的集合。
如何去判断一个元素是否存在bit array中呢? 原理是一样,根据k个哈希函数去得到的结果,如果所有的结果都是1,表示这个元素可能(假设某个元素通过映射对应下标为4,5,6这3个点。
虽然这3个点都为1,但是很明显这3个点是不同元素经过哈希得到的位置,因此这种情况说明元素虽然不在集合中,也可能对应的都是1)存在。 
如果一旦发现其中一个比特位的元素是0,表示这个元素一定不存在至于k个哈希函数的取值为多少,能够最大化的降低错误率(因为哈希函数越多,映射冲突会越少),
这个地方就会涉及到最优的哈希函数个数的一个算法逻辑

布隆过滤器demo

package com.lf.bloomfilter;

import java.nio.charset.Charset;

import com.google.common.hash.BloomFilter;
import com.google.common.hash.Funnels; public class BloomFilterDemo { public static void main(String[] args) {
//不设置第三个参数时,误判率默认为0.03
//bloomFilter = BloomFilter.create(Funnels.integerFunnel(), size);
//进行误判率的设置,自动计算需要几个hash函数。bit数组的长度与size和fpp参数有关
//过滤器内部会对size进行处理,保证size为2的n次幂。
//不存在的情况不会出现误判,存在可能出现误判
BloomFilter<String> bloomFilter = BloomFilter.create(Funnels.stringFunnel(Charset.defaultCharset()),
1000,//size
0.001);//误判率
bloomFilter.put("lf");
boolean flag = bloomFilter.mightContain("lf");
System.out.println(flag);
} }

  布隆过滤器的持久化:

Bloomfilter运行在一台机器的内存上,机器down掉数据就消失了,也不方便分布式程序的统一去重。可以将数据进行持久化,

这样就克服了down机的问题,常见的持久化方法包括持久化到本地磁盘或结合Redis进行持久化。(一般都是技术redis做持久化和去重)

初始化filter对象,并导入测试数据,然后结合bloomfilter.writeTo()方法将数据持久化到本地磁盘;

初始化filter对象,读取上述持久化到磁盘的数据,然后将数据导入到filter,bloomfilter= BloomFilter.readFrom(in,Funnels.integerFunnel())

redis(7)--redis应用实战的更多相关文章

  1. python操作三大主流数据库(14)python操作redis之新闻项目实战②新闻数据的展示及修改、删除操作

    python操作三大主流数据库(14)python操作redis之新闻项目实战②新闻数据的展示及修改.删除操作 项目目录: ├── flask_redis_news.py ├── forms.py ├ ...

  2. .NET分布式缓存Redis从入门到实战

    一.课程介绍 今天阿笨给大家带来一堂NOSQL的课程,本期的主角是Redis.希望大家学完本次分享课程后对redis有一个基本的了解和认识,并且熟悉和掌握 Redis在.NET中的使用. 本次分享课程 ...

  3. spring boot 学习(十四)SpringBoot+Redis+SpringSession缓存之实战

    SpringBoot + Redis +SpringSession 缓存之实战 前言 前几天,从师兄那儿了解到EhCache是进程内的缓存框架,虽然它已经提供了集群环境下的缓存同步策略,这种同步仍然需 ...

  4. 《Netty Redis Zookeeper 高并发实战》 勘误

    <Netty Redis Zookeeper 高并发实战> 勘误与申明 疯狂创客圈 Java 高并发[ 亿级流量聊天室实战]实战系列 [博客园总入口 ] 勘误一 文字问题: Page1 J ...

  5. 《Netty Redis Zookeeper 高并发实战》声明

    疯狂创客圈 Java 高并发[ 亿级流量聊天室实战]实战系列 [博客园总入口 ] 这里, 对疯狂创客圈 <Netty Redis Zookeeper 高并发实战> 一书,进行一些必要说明. ...

  6. Redis Linux 安装运行实战全记录

    下载Redis 去Redis官网下载最新的Linux包,Redis官方没有Windows版的下载. https://redis.io/ 下载后把包上传到Linux服务器. 安装Redis 1.解压Re ...

  7. redis调优的实战经验

    本文根据redis的info命令查看redis的内存使用情况以及state状态,来观察redis的运行情况以及需要作出的相应优化. info 1.memory used_memory:13409011 ...

  8. Redis配置讲解及实战

    前言 Redis是一个开源的内存k-v数据库,同时也可用作缓存,消息队列.支持多种数据类型,如字符串,列表,字典,集合,有序集合. 演示环境 $ uname -a Darwin Darwin Kern ...

  9. redis系列之5----redis实战(redis与spring整合,分布式锁实现)

    本文是redis学习系列的第五篇,点击下面链接可回看系列文章 <redis简介以及linux上的安装> <详细讲解redis数据结构(内存模型)以及常用命令> <redi ...

  10. springboot使用redis(从配置到实战)

    概述 springboot通常整合redis,采用的是RedisTemplate的形式,除了这种形式以外,还有另外一种形式去整合,即采用spring支持的注解进行访问缓存. 准备工作 pom.xml ...

随机推荐

  1. Blob字段

    在oracle中有一个特殊的字段类型Blob,Blob是指二进制大对象也就是英文Binary Large Object的缩写: 通过sql取出后,需要进行特殊处理.而我是这样玩的: 1.通过sql查询 ...

  2. java课笔记

    http://127.0.0.1:8088/ http://127.0.0.1:8088/test/index.jsp http://127.0.0.1:8088/test/show 用户 (请求) ...

  3. 性能测试——记XX银行保全项目性能问题分析优化

    记XX银行保全项目性能问题分析优化 数据库问题也许是大部分性能问题的关注点,但是JAVA应用与数据库交互的关节,JDBC 就像是我们人体的上半身跟下半身的腰椎,支持上半身,协调下半身运动的重要支撑点. ...

  4. Netty学习篇⑥--ByteBuf源码分析

    什么是ByteBuf? ByteBuf在Netty中充当着非常重要的角色:它是在数据传输中负责装载字节数据的一个容器;其内部结构和数组类似,初始化默认长度为256,默认最大长度为Integer.MAX ...

  5. F#周报2019年第48期

    新闻 拥抱可空引用类型 介绍Orleans 3.0 视频及幻灯片 组合的力量 关于.NET:探索新的用于.NET的Azure .NET SDK .NET设计审查:GitHub快速审查 FableCon ...

  6. firefox常用插件总结

    当初因为ctf比赛而接触啦firefox,慢慢的在firfox上安装满啦各种插件,今天就想着总结一下,给那些刚玩firefox的朋友一些小小的帮助也是好的. 1:Firebug    Firefox强 ...

  7. yum运行报错:/usr/lib64/python2.7/site-packages/pycurl.so: undefined symbol: CRYPTO_num_locks

    是因为yum动态库使用了新安装libcurl库导致的.使用ldd查看动态库依赖关系: ldd /usr/lib64/python2.7/site-packages/pycurl.so 删除动态库配置中 ...

  8. Elasticsearch系列---并发控制及乐观锁实现原理

    概要 本篇主要介绍一下Elasticsearch的并发控制和乐观锁的实现原理,列举常见的电商场景,关系型数据库的并发控制.ES的并发控制实践. 并发场景 不论是关系型数据库的应用,还是使用Elasti ...

  9. 对照谈-官方spring-boot-starter和自定义starter异同分析

    在前面我讲用spring-boot-starter-mail发邮件的时候,我侧重看的是spring boot发邮件的便利性,今天,我们聊下另外一个方面,spring-boot-starter自身的结构 ...

  10. java数据类型(大小等),变量定义,各进制书写方法

    1. java中字符占两个字节,因为char类型占两个字节(16位),而C,C++中占1字节(8位). 2. 变量定义 第一步:声明(Declaration) 第二步:赋值(Assignment) 这 ...