写在前边

NoSQL

NoSQL(NoSQL = Not Only SQL ),意即“不仅仅是SQL”,泛指非关系型的数据库
NoSQL 不依赖业务逻辑方式存储,而以简单的key-value模式存储。因此大大的增加了数据库的扩展能力。

  • 不遵循SQL标准。
  • 不支持ACID。
  • 远超于SQL的性能。

适用场景

  • 对数据高并发的读写
  • 海量数据的读写
  • 对数据高可扩展性的

不适用场景

  • 需要事务支持
  • 基于sql的结构化查询存储,处理复杂的关系,需要即席查询。
  • (用不着sql的和用了sql也不行的情况,请考虑用NoSql)

概述

Redis(Remote Dictionary Server ),即远程字典服务 !
是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。

  • redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件,并且在此基础上实现了master-slave(主从)同步。

用途

1、内存存储、持久化,内存中是断电即失、所以说持久化很重要(rdb、aof)
2、效率高,可以用于高速缓存
3、发布订阅系统
4、地图信息分析
5、计时器、计数器(浏览量!)

特性

1、多样的数据类型
2、持久化
3、集群
4、事务

历史发展

一开始数据量很少,只需要单表处理读和写

90年代,一个基本的网站访问量一般不会太大,单个数据库完全足够!
那个时候,更多的去使用静态网页 Html ~ 服务器根本没有太大的压力!
思考一下,这种情况下:整个网站的瓶颈是什么?
1、数据量如果太大、一个机器放不下了!
2、数据的索引 (B+ Tree),一个机器内存也放不下
3、访问量(读写混合),一个服务器承受不了

Memcached(缓存)+ MySQL + 垂直拆分 (读写分离)

可以一台服务器负责写,如何同步给前台服务器去读?

缓存也解决读的问题

网站80%的情况都是在读,每次都要去查询数据库的话就十分的麻烦!所以说我们希望减轻数据的压力,我们可以使用缓存来保证效率!

发展过程: 优化数据结构和索引--> 文件缓存(IO)---> Memcached(当时最热门的技术!)

分库分表,MySQL集群 + 水平拆分

阅读量也不是实时写到mysql的,是先到缓存,再一定时间统一写进去

早些年MyISAM: 表锁,十分影响效率!高并发下就会出现严重的锁问题
转战Innodb:行锁
慢慢的就开始使用分库分表来解决写的压力! MySQL 在哪个年代推出了表分区!这个并没有多少公司使用!
MySQL 的集群,很好满足那个年代的所有需求!

Linux安装

1、官网下载安装包!
2、解压Redis的安装包到你要的目录!

tar -zxvf

3、基本环境安装

yum install gcc-c++

4、进入解压后的目录

make

4、进入src目录

make install

  • 此处如果有问题的话可以自行搜索相关安装教程,根据自己需求下载window版或者linux版

Redis运行

先设置daemonize no改成yes,开启后台启动

修改redis.conf(128行)文件将里面的daemonize no 改成yes,让服务在后台启动

protected-mode 设置成no

默认是设置成yes的, 防止了远程访问,在redis3.2.3版本后

找到# requirepass foobared

删除前面的注释符号#,并把foobared修改成自己的密码

或者另起一行 requirepass 自己的密码

  • 一定要设置密码阿,之前被黑客通过redis黑进服务器了,植入了挖抗病毒麻了

要注意是在启动server的时候选择conf!!!!!

./redis-server ../redis.conf

此处要选择conf来启动

./redis-cli -p 端口号

服务器连接

进入后 auth 你设置的密码

验证通过后才能成功操作

Redis关闭与退出

​SHUTDOWN

  • 然后exit

性能分析

redis-benchmark 是一个压力测试工具!
官方自带的性能测试工具!
redis-benchmark 命令参数!

我们来简单测试下:

如何查看这些分析呢?

基础知识

默认16个数据库,可以用select切换


Redis是很快的,官方表示,Redis是基于内存操作,CPU不是Redis性能瓶颈,Redis的瓶颈是根据
机器的内存和网络带宽,既然可以使用单线程来实现,就使用单线程了!
Redis 是C 语言写的,官方提供的数据为 100000+ 的QPS,完全不比同样是使用 key-vale的Memecache差!

Redis 为什么单线程还这么快?

1、误区1:高性能的服务器一定是多线程的?
2、误区2:多线程(CPU上下文会切换!)一定比单线程效率高!
核心:redis 是将所有的数据全部放在内存中的,所以说使用单线程去操作效率就是最高的,多线程(CPU上下文会切换:耗时的操作!!!),对于内存系统来说,如果没有上下文切换效率就是最高的!多次读写都是在一个CPU上的,在内存情况下,这个就是最佳的方案!

命令大全:

http://www.redis.cn/commands.html

Redis-Key

EXPIRE key10

10s就过期

ttl key

查询过期剩余时间

type key

查看类型

move name 1(1表示当前数据库)

移除当前的key

大杂烩

  1. 127.0.0.1:6379> keys * # 查看所有的key
  2. (empty list or set)
  3. 127.0.0.1:6379> set name kuangshen # set key
  4. OK
  5. 127.0.0.1:6379> keys *
  6. 1) "name"
  7. 127.0.0.1:6379> set age 1
  8. OK
  9. 127.0.0.1:6379> keys *
  10. 1) "age"
  11. 2) "name"
  12. 127.0.0.1:6379> EXISTS name # 判断当前的key是否存在
  13. (integer) 1
  14. 127.0.0.1:6379> EXISTS name1
  15. (integer) 0
  16. 127.0.0.1:6379> move name 1 # 移除当前的key
  17. (integer) 1
  18. 127.0.0.1:6379> keys *
  19. 1) "age"
  20. 127.0.0.1:6379> set name qinjiang
  21. OK
  22. 127.0.0.1:6379> keys *
  23. 1) "age"
  24. 2) "name"
  25. 127.0.0.1:6379> clear
  26. 127.0.0.1:6379> keys *
  27. 1) "age"
  28. 2) "name"
  29. 127.0.0.1:6379> get name
  30. "qinjiang"
  31. 127.0.0.1:6379> EXPIRE name 10 # 设置key的过期时间,单位是秒
  32. (integer) 1
  33. 127.0.0.1:6379> ttl name # 查看当前key的剩余时间
  34. (integer) 4
  35. 127.0.0.1:6379> ttl name
  36. (integer) 3
  37. 127.0.0.1:6379> ttl name
  38. (integer) 2
  39. 127.0.0.1:6379> ttl name
  40. (integer) 1
  41. 127.0.0.1:6379> ttl name
  42. (integer) -2
  43. 127.0.0.1:6379> get name
  44. (nil)
  45. 127.0.0.1:6379> type name # 查看当前key的一个类型!
  46. string
  47. 127.0.0.1:6379> type age
  48. string

String

appen和strlen

  1. 127.0.0.1:6379> set key1 v1 # 设置值
  2. OK
  3. 127.0.0.1:6379> get key1 # 获得值
  4. "v1"
  5. 127.0.0.1:6379> keys * # 获得所有的key
  6. 1) "key1"
  7. 127.0.0.1:6379> EXISTS key1 # 判断某一个key是否存在
  8. (integer) 1
  9. 127.0.0.1:6379> APPEND key1 "hello" # 追加字符串,如果当前key不存在,就相当于setkey
  10. (integer) 7
  11. 127.0.0.1:6379> get key1
  12. "v1hello"
  13. 127.0.0.1:6379> STRLEN key1 # 获取字符串的长度!
  14. (integer) 7
  15. 127.0.0.1:6379> APPEND key1 ",kaungshen"
  16. (integer) 17
  17. 127.0.0.1:6379> STRLEN key1
  18. (integer) 17
  19. 127.0.0.1:6379> get key1
  20. "v1hello,kaungshen"

incr和decr 自增和自减

  1. # i++
  2. # 步长 i+=
  3. 127.0.0.1:6379> set views 0 # 初始浏览量为0
  4. OK
  5. 127.0.0.1:6379> get views
  6. "0"
  7. 127.0.0.1:6379> incr views # 自增1 浏览量变为1
  8. (integer) 1
  9. 127.0.0.1:6379> incr views
  10. (integer) 2
  11. 127.0.0.1:6379> get views
  12. "2"
  13. 127.0.0.1:6379> decr views # 自减1 浏览量-1
  14. (integer) 1
  15. 127.0.0.1:6379> decr views
  16. (integer) 0
  17. 127.0.0.1:6379> decr views
  18. (integer) -1
  19. 127.0.0.1:6379> get views
  20. "-1"
  21. 127.0.0.1:6379> INCRBY views 10 # 可以设置步长,指定增量!
  22. (integer) 9
  23. 127.0.0.1:6379> INCRBY views 10
  24. (integer) 19
  25. 127.0.0.1:6379> DECRBY views 5

getRange字符串范围 setRange替换指定位置开始的字符串

  1. # 字符串范围 range
  2. 127.0.0.1:6379> set key1 "hello,kuangshen" # 设置 key1 的值
  3. OK
  4. 127.0.0.1:6379> get key1
  5. "hello,kuangshen"
  6. 127.0.0.1:6379> GETRANGE key1 0 3 # 截取字符串 [0,3]
  7. "hell"
  8. 127.0.0.1:6379> GETRANGE key1 0 -1 # 获取全部的字符串 和 get key是一样的
  9. "hello,kuangshen"
  10. # 替换!
  11. 127.0.0.1:6379> set key2 abcdefg
  12. OK
  13. 127.0.0.1:6379> get key2
  14. "abcdefg"
  15. 127.0.0.1:6379> SETRANGE key2 1 xx # 替换指定位置开始的字符串!
  16. (integer) 7
  17. 127.0.0.1:6379> get key2
  18. "axxdefg"

设置过期时间setex setnx(不存在才设置,存在时会失败)

  1. # setex (set with expire) # 设置过期时间
  2. # setnx (set if not exist) # 不存在时再设置(在分布式锁中会常常使用!)
  3. 127.0.0.1:6379> setex key3 30 "hello" # 设置key3的值为 hello,30秒后过期
  4. OK
  5. 127.0.0.1:6379> ttl key3
  6. (integer) 26
  7. 127.0.0.1:6379> get key3
  8. "hello"
  9. 127.0.0.1:6379> setnx mykey "redis" # 如果mykey 不存在,创建mykey
  10. (integer) 1
  11. 127.0.0.1:6379> keys *
  12. 1) "key2"
  13. 2) "mykey"
  14. 3) "key1"
  15. 127.0.0.1:6379> ttl key3
  16. (integer) -2
  17. 127.0.0.1:6379> setnx mykey "MongoDB" # 如果mykey存在,创建失败!
  18. (integer) 0
  19. 127.0.0.1:6379> get mykey

mset/get 同时设置/获取多个值

msetnx 是一个原子性的操作,要么一起成功,要么一起

  1. mset
  2. mget
  3. 127.0.0.1:6379> mset k1 v1 k2 v2 k3 v3 # 同时设置多个值
  4. OK
  5. 127.0.0.1:6379> keys *
  6. 1) "k1"
  7. 2) "k2"
  8. 3) "k3"
  9. 127.0.0.1:6379> mget k1 k2 k3 # 同时获取多个值
  10. 1) "v1"
  11. 2) "v2"
  12. 3) "v3"
  13. 127.0.0.1:6379> msetnx k1 v1 k4 v4 # msetnx 是一个原子性的操作,要么一起成功,要么一起失败!
  14. (integer) 0
  15. 127.0.0.1:6379> get k4
  16. (nil)

对象 set user:1:name xxx user:1:age xxx

其实相当于key=user:1:name这一串很长的,然后:后边可以更换属性

  1. # 对象
  2. set user:1 {name:zhangsan,age:3} # 设置一个user:1 对象 值为 json字符来保存一个对象!
  3. # 这里的key是一个巧妙的设计: user:{id}:{filed} , 如此设计在Redis中是完全OK了!
  4. 127.0.0.1:6379> mset user:1:name zhangsan user:1:age 2
  5. OK
  6. 127.0.0.1:6379> mget user:1:name user:1:age
  7. 1) "zhangsan"
  8. 2) "2"

get同时set

  1. getset # 先get然后在set
  2. 127.0.0.1:6379> getset db redis # 如果不存在值,则返回 nil
  3. (nil)
  4. 127.0.0.1:6379> get db
  5. "redis
  6. 127.0.0.1:6379> getset db mongodb # 如果存在值,获取原来的值,并设置新的值
  7. "redis"
  8. 127.0.0.1:6379> get db
  9. "mongodb"

使用场景

String类似的使用场景:value除了是我们的字符串还可以是我们的数字!
计数器
统计多单位的数量
粉丝数
对象缓存存储!

Hash(跟String类似的其实)

Map集合,key-map! 时候这个值是一个map集合! 本质和String类型没有太大区别,还是一个简单的 key-vlaue!
hash存储经常变更的数据 user name age,尤其是是用户信息之类的,经常变动的信息! hash 更适合于对象的存储,String更加适合字符串存储!

hset/get

hdel(类似String的del)

hkeys/hvals(只获得所有key/val)

同样可以指定增量,可以hsetnx

  1. 127.0.0.1:6379> hset myhash field1 kuangshen # set一个具体 key-vlaue
  2. (integer) 1
  3. 127.0.0.1:6379> hget myhash field1 # 获取一个字段值
  4. "kuangshen"
  5. 127.0.0.1:6379> hmset myhash field1 hello field2 world # set多个 key-vlaue
  6. OK
  7. 127.0.0.1:6379> hmget myhash field1 field2 # 获取多个字段值
  8. 1) "hello"
  9. 2) "world"
  10. 127.0.0.1:6379> hgetall myhash # 获取全部的数据,
  11. 1) "field1"
  12. 2) "hello"
  13. 3) "field2"
  14. 4) "world"
  15. 127.0.0.1:6379> hdel myhash field1 # 删除hash指定key字段!对应的value值也就消失了!
  16. (integer) 1
  17. 127.0.0.1:6379> hgetall myhash
  18. 1) "field2"
  19. 2) "world"
  20. ##########################################################################
  21. hlen
  22. 127.0.0.1:6379> hmset myhash field1 hello field2 world
  23. OK
  24. 127.0.0.1:6379> HGETALL myhash
  25. 1) "field2"
  26. 2) "world"
  27. 3) "field1"
  28. 4) "hello"
  29. 127.0.0.1:6379> hlen myhash # 获取hash表的字段数量!
  30. (integer) 2
  31. ##########################################################################
  32. 127.0.0.1:6379> HEXISTS myhash field1 # 判断hash中指定字段是否存在!
  33. (integer) 1
  34. 127.0.0.1:6379> HEXISTS myhash field3
  35. (integer) 0
  36. ##########################################################################
  37. # 只获得所有field
  38. # 只获得所有value
  39. 127.0.0.1:6379> hkeys myhash # 只获得所有field
  40. 1) "field2"
  41. 2) "field1"
  42. 127.0.0.1:6379> hvals myhash # 只获得所有value
  43. 1) "world"
  44. 2) "hello"
  45. ##########################################################################
  46. incr decr
  47. 127.0.0.1:6379> hset myhash field3 5 #指定增量!
  48. (integer) 1
  49. 127.0.0.1:6379> HINCRBY myhash field3 1
  50. (integer) 6
  51. 127.0.0.1:6379> HINCRBY myhash field3 -1
  52. (integer) 5
  53. 127.0.0.1:6379> hsetnx myhash field4 hello # 如果不存在则可以设置
  54. (integer) 1
  55. 127.0.0.1:6379> hsetnx myhash field4 world # 如果存在则不能设置
  56. (integer) 0

List

可以玩成双向队列,栈等

  • 底层是一个双向链表,对于两段的插入删除效率比较高,而对于中间索引值的插入和更改就相对慢了,因为查询慢

Lpush和Rpush LRange 查看区间值(0 -1就会查所有)

只在左边进的话就类似栈,

  1. 127.0.0.1:6379> LPUSH list one # 将一个值或者多个值,插入到列表头部 (左)
  2. (integer) 1
  3. 127.0.0.1:6379> LPUSH list two
  4. (integer) 2
  5. 127.0.0.1:6379> LPUSH list three
  6. (integer) 3
  7. 127.0.0.1:6379> LRANGE list 0 -1 # 获取list中值!
  8. 1) "three"
  9. 2) "two"
  10. 3) "one"
  11. 127.0.0.1:6379> LRANGE list 0 1 # 通过区间获取具体的值!
  12. 1) "three"
  13. 2) "two"
  14. 127.0.0.1:6379> Rpush list righr # 将一个值或者多个值,插入到列表尾部 (右)
  15. (integer) 4
  16. 127.0.0.1:6379> LRANGE list 0 -1
  17. 1) "three"
  18. 2) "two"
  19. 3) "one"
  20. 4) "righr"

Lpop和Rpop

  1. LPOP
  2. RPOP
  3. 127.0.0.1:6379> LRANGE list 0 -1
  4. 1) "three"
  5. 2) "two"
  6. 3) "one"
  7. 4) "righr"
  8. 127.0.0.1:6379> Lpop list # 移除list的第一个元素
  9. "three"
  10. 127.0.0.1:6379> Rpop list # 移除list的最后一个元素
  11. "righr"
  12. 127.0.0.1:6379> LRANGE list 0 -1
  13. 1) "two"
  14. 2) "one"

Lindex(通过下标获得 list 中的某一个值)

  1. Lindex
  2. 127.0.0.1:6379> LRANGE list 0 -1
  3. 1) "two"
  4. 2) "one"
  5. 127.0.0.1:6379> lindex list 1 # 通过下标获得 list 中的某一个值!
  6. "one"
  7. 127.0.0.1:6379> lindex list 0
  8. "two"

Llen 获取长度

  1. Llen
  2. 127.0.0.1:6379> Lpush list one
  3. (integer) 1
  4. 127.0.0.1:6379> Lpush list two
  5. bilibili:狂神说Java(integer) 2
  6. 127.0.0.1:6379> Lpush list three
  7. (integer) 3
  8. 127.0.0.1:6379> Llen list # 返回列表的长度
  9. (integer) 3

Lrem 移除count个指定value的值

注意是从左边开始删掉

  1. 移除指定的值!
  2. 取关 uid
  3. Lrem
  4. 127.0.0.1:6379> LRANGE list 0 -1
  5. 1) "three"
  6. 2) "three"
  7. 3) "two"
  8. 4) "one"
  9. 127.0.0.1:6379> lrem list 1 one # 移除list集合中指定个数的value,精确匹配
  10. (integer) 1
  11. 127.0.0.1:6379> LRANGE list 0 -1
  12. 1) "three"
  13. 2) "three"
  14. 3) "two"
  15. 127.0.0.1:6379> lrem list 1 three
  16. (integer) 1
  17. 127.0.0.1:6379> LRANGE list 0 -1
  18. 1) "three"
  19. 2) "two"
  20. 127.0.0.1:6379> Lpush list three
  21. (integer) 3
  22. 127.0.0.1:6379> lrem list 2 three
  23. (integer) 2
  24. 127.0.0.1:6379> LRANGE list 0 -1
  25. 1) "two"

trim 截取

通过下标截取指定的长度,可以理解为只保留截取区间的元素

  1. trim 修剪。; list 截断!
  2. 127.0.0.1:6379> keys *
  3. (empty list or set)
  4. 127.0.0.1:6379> Rpush mylist "hello"
  5. (integer) 1
  6. 127.0.0.1:6379> Rpush mylist "hello1"
  7. (integer) 2
  8. 127.0.0.1:6379> Rpush mylist "hello2"
  9. (integer) 3
  10. 127.0.0.1:6379> Rpush mylist "hello3"
  11. (integer) 4
  12. 127.0.0.1:6379> ltrim mylist 1 2 # 通过下标截取指定的长度,这个list已经被改变了,截断了,只剩下截取的元素!
  13. OK
  14. 127.0.0.1:6379> LRANGE mylist 0 -1
  15. 1) "hello1"
  16. 2) "hello2"

rpoplpush 移除指定的值,移动到新的list中

  1. rpoplpush # 移除列表的最后一个元素,将他移动到新的列表中!
  2. 127.0.0.1:6379> rpush mylist "hello"
  3. (integer) 1
  4. 127.0.0.1:6379> rpush mylist "hello1"
  5. (integer) 2
  6. 127.0.0.1:6379> rpush mylist "hello2"
  7. (integer) 3
  8. 127.0.0.1:6379> rpoplpush mylist myotherlist # 移除列表的最后一个元素,将他移动到新的列表中!
  9. "hello2"
  10. 127.0.0.1:6379> lrange mylist 0 -1 # 查看原来的列表
  11. 1) "hello"
  12. 2) "hello1"
  13. 127.0.0.1:6379> lrange myotherlist 0 -1 # 查看目标列表中,确实存在改值!
  14. 1) "hello2"

Lset 修改指定下标的值

  1. lset #将列表中指定下标的值替换为另外一个值,更新操作
  2. 127.0.0.1:6379> EXISTS list # 判断这个列表是否存在
  3. (integer) 0
  4. 127.0.0.1:6379> lset list 0 item # 如果不存在列表我们去更新就会报错
  5. (error) ERR no such key
  6. 127.0.0.1:6379> lpush list value1
  7. (integer) 1
  8. 127.0.0.1:6379> LRANGE list 0 0
  9. 1) "value1"
  10. 127.0.0.1:6379> lset list 0 item # 如果存在,更新当前下标的值
  11. OK
  12. 127.0.0.1:6379> LRANGE list 0 0
  13. 1) "item"
  14. 127.0.0.1:6379> lset list 1 other # 如果不存在,则会报错!
  15. (error) ERR index out of range

Insert 在指定value前边或者后边插入值

  1. linsert # 将某个具体的value插入到列把你中某个元素的前面或者后面!
  2. 127.0.0.1:6379> Rpush mylist "hello"
  3. (integer) 1
  4. 127.0.0.1:6379> Rpush mylist "world"
  5. (integer) 2
  6. 127.0.0.1:6379> LINSERT mylist before "world" "other"
  7. (integer) 3
  8. 127.0.0.1:6379> LRANGE mylist 0 -1
  9. 1) "hello"
  10. 2) "other"
  11. 3) "world"
  12. 127.0.0.1:6379> LINSERT mylist after world new
  13. (integer) 4
  14. 127.0.0.1:6379> LRANGE mylist 0 -1
  15. 1) "hello"
  16. 2) "other"
  17. 3) "world"
  18. 4) "new"

Set

底层是一个哈希表,查询是O(1)

成员相关

Sadd 添加成员

Smember 查看所有成员

SIsMember 查看是否是成员之一

Scard 获取元素个数

srem 删除指定value

SrandMember 随机获取成员(不会pop)

Spop 随机pop出来

大杂烩

  1. 127.0.0.1:6379> sadd myset "hello" # set集合中添加匀速
  2. (integer) 1
  3. 127.0.0.1:6379> sadd myset "kuangshen"
  4. (integer) 1
  5. 127.0.0.1:6379> sadd myset "lovekuangshen"
  6. (integer) 1
  7. 127.0.0.1:6379> SMEMBERS myset # 查看指定set的所有值
  8. 1) "hello"
  9. 2) "lovekuangshen"
  10. 3) "kuangshen"
  11. 127.0.0.1:6379> SISMEMBER myset hello # 判断某一个值是不是在set集合中!
  12. (integer) 1
  13. 127.0.0.1:6379> SISMEMBER myset world
  14. (integer) 0
  15. ##########################################################################
  16. 127.0.0.1:6379> scard myset # 获取set集合中的内容元素个数!
  17. (integer) 4
  18. ##########################################################################
  19. rem
  20. 127.0.0.1:6379> srem myset hello # 移除set集合中的指定元素
  21. (integer) 1
  22. 127.0.0.1:6379> scard myset
  23. (integer) 3
  24. 127.0.0.1:6379> SMEMBERS myset
  25. 1) "lovekuangshen2"
  26. 2) "lovekuangshen"
  27. 3) "kuangshen"
  28. ##########################################################################
  29. set 无序不重复集合。抽随机!
  30. 127.0.0.1:6379> SMEMBERS myset
  31. 1) "lovekuangshen2"
  32. 2) "lovekuangshen"
  33. 3) "kuangshen"
  34. 127.0.0.1:6379> SRANDMEMBER myset # 随机抽选出一个元素
  35. "kuangshen"
  36. 127.0.0.1:6379> SRANDMEMBER myset
  37. "kuangshen"
  38. 127.0.0.1:6379> SRANDMEMBER myset
  39. "kuangshen"
  40. 127.0.0.1:6379> SRANDMEMBER myset
  41. "kuangshen"
  42. 127.0.0.1:6379> SRANDMEMBER myset 2 # 随机抽选出指定个数的元素
  43. 1) "lovekuangshen"
  44. 2) "lovekuangshen2"
  45. 127.0.0.1:6379> SRANDMEMBER myset 2
  46. 1) "lovekuangshen"
  47. 2) "lovekuangshen2"
  48. 127.0.0.1:6379> SRANDMEMBER myset # 随机抽选出一个元素
  49. "lovekuangshen2"
  50. ##########################################################################
  51. 删除定的key,随机删除key
  52. 127.0.0.1:6379> SMEMBERS myset
  53. 1) "lovekuangshen2"
  54. 2) "lovekuangshen"
  55. 3) "kuangshen"
  56. 127.0.0.1:6379> spop myset # 随机删除一些set集合中的元素!
  57. "lovekuangshen2"
  58. 127.0.0.1:6379> spop myset
  59. "lovekuangshen"
  60. 127.0.0.1:6379> SMEMBERS myset
  61. 1) "kuangshen"
  62. ##########################################################################
  63. 将一个指定的值,移动到另外一个set集合!
  64. 127.0.0.1:6379> sadd myset "hello"
  65. (integer) 1
  66. 127.0.0.1:6379> sadd myset "world"
  67. (integer) 1
  68. 127.0.0.1:6379> sadd myset "kuangshen"
  69. (integer) 1
  70. 127.0.0.1:6379> sadd myset2 "set2"
  71. (integer) 1
  72. 127.0.0.1:6379> smove myset myset2 "kuangshen" # 将一个指定的值,移动到另外一个set集
  73. 合!
  74. (integer) 1
  75. 127.0.0.1:6379> SMEMBERS myset
  76. 1) "world"
  77. 2) "hello"
  78. 127.0.0.1:6379> SMEMBERS myset2
  79. 1) "kuangshen"
  80. 2) "set2"
  81. ##########################################################################
  82. 微博,B站,共同关注!(并集)
  83. 数字集合类:
  84. - 差集 SDIFF
  85. - 交集
  86. - 并集
  87. 127.0.0.1:6379> SDIFF key1 key2 # 差集
  88. 1) "b"
  89. 2) "a"
  90. 127.0.0.1:6379> SINTER key1 key2 # 交集 共同好友就可以这样实现
  91. 1) "c"
  92. 127.0.0.1:6379> SUNION key1 key2 # 并集
  93. 1) "b"
  94. 2) "c"
  95. 3) "e"
  96. 4) "a"
  97. 5) "d"

ZSet(有序集合)

在set的基础上,增加了一个值

  1. 127.0.0.1:6379> zadd myset 1 one # 添加一个值
  2. (integer) 1
  3. 127.0.0.1:6379> zadd myset 2 two 3 three # 添加多个值
  4. (integer) 2
  5. 127.0.0.1:6379> ZRANGE myset 0 -1
  6. 1) "one"
  7. 2) "two"
  8. 3) "three"
  9. ##########################################################################
  10. 排序如何实现
  11. 127.0.0.1:6379> zadd salary 2500 xiaohong # 添加三个用户
  12. (integer) 1
  13. 127.0.0.1:6379> zadd salary 5000 zhangsan
  14. (integer) 1
  15. 127.0.0.1:6379> zadd salary 500 kaungshen
  16. (integer) 1
  17. # ZRANGEBYSCORE key min max
  18. 127.0.0.1:6379> ZRANGEBYSCORE salary -inf +inf # 显示全部的用户 从小到大!
  19. 1) "kaungshen"
  20. 2) "xiaohong"
  21. 3) "zhangsan"
  22. 127.0.0.1:6379> ZREVRANGE salary 0 -1 # 从大到进行排序!
  23. 1) "zhangsan"
  24. 2) "kaungshen"
  25. 127.0.0.1:6379> ZRANGEBYSCORE salary -inf +inf withscores # 显示全部的用户并且附带成
  26. 1)
  27. "kaungshen"
  28. 2) "500"
  29. 3) "xiaohong"
  30. 4) "2500"
  31. 5) "zhangsan"
  32. 6) "5000"
  33. 127.0.0.1:6379> ZRANGEBYSCORE salary -inf 2500 withscores # 显示工资小于2500员工的升
  34. 序排序!
  35. 1) "kaungshen"
  36. 2) "500"
  37. 3) "xiaohong"
  38. 4) "2500"
  39. ##########################################################################
  40. # 移除rem中的元素
  41. 127.0.0.1:6379> zrange salary 0 -1
  42. 1) "kaungshen"
  43. 2) "xiaohong"
  44. 3) "zhangsan"
  45. 127.0.0.1:6379> zrem salary xiaohong # 移除有序集合中的指定元素
  46. (integer) 1
  47. 127.0.0.1:6379> zrange salary 0 -1
  48. 1) "kaungshen"
  49. 2) "zhangsan"
  50. 127.0.0.1:6379> zcard salary # 获取有序集合中的个数
  51. (integer) 2
  52. ##########################################################################
  53. 127.0.0.1:6379> zadd myset 1 hello
  54. (integer) 1
  55. 127.0.0.1:6379> zadd myset 2 world 3 kuangshen
  56. (integer) 2
  57. 127.0.0.1:6379> zcount myset 1 3 # 获取指定区间的成员数量!
  58. (integer) 3
  59. 127.0.0.1:6379> zcount myset 1 2
  60. (integer) 2

Redis.conf配置

Units单位

配置大小单位,开头定义了一些基本的度量单位,只支持bytes,不支持bit
大小写不敏感

INCLUDES包含

类似jsp中的include,多实例的情况可以把公用的配置文件提取出来

让外网连接

可以设置bind 为对应主机的ip

  • 若想让所有ip都能访问,注释掉这一行就好了,即不写的情况下,无限制接受任何ip地址的访问

同时protected-mode 也得设置成no

Port

端口号,默认 6379

tcp-backlog

设置tcp的backlog,backlog其实是一个连接队列,backlog队列总和=未完成三次握手队列+ 已经完成三次握手队列。
在高并发环境下你需要一个高backlog值来避免慢客户端连接问题。
注意Linux内核会将这个值减小到/proc/sys/net/core/somaxconn的值(128),所以需要确认增大/proc/sys/net/core/somaxconn和/proc/sys/net/ipv4/tcp_max_syn_backlog(128)两个值来达到想要的效果

timeout

一个空闲的客户端维持多少秒会关闭,0表示关闭该功能。即永不关闭。

tcp-keepalive

对访问客户端的一种心跳检测,每个n秒检测一次。
单位为秒,如果设置为0,则不会进行Keepalive检测,建议设置成60

pidfile

存放pid文件的位置,每个实例会产生一个不同的pid文件

loglevel

指定日志记录级别,Redis总共支持四个级别:debug、verbose、notice、warning,默认为notice
四个级别根据使用阶段来选择,生产环境选择notice 或者warning

databases 16

设定库的数量默认16,默认数据库为0,可以使用SELECT 命令在连接上指定数据库id

Limt限制

maxclients

Ø 设置redis同时可以与多少个客户端进行连接。
Ø 默认情况下为10000个客户端。
Ø 如果达到了此限制,redis则会拒绝新的连接请求,并且向这些连接请求方发出“max number of clients reached”以作回应。

maxmemory

Ø 建议必须设置,否则,将内存占满,造成服务器宕机
Ø 设置redis可以使用的内存量。一旦到达内存使用上限,redis将会试图移除内部数据,移除规则可以通过maxmemory-policy来指定。
Ø 如果redis无法根据移除规则来移除内存中的数据,或者设置了“不允许移除”,那么redis则会针对那些需要申请内存的指令返回错误信息,比如SET、LPUSH等。
Ø 但是对于无内存申请的指令,仍然会正常响应,比如GET等。如果你的redis是主redis(说明你的redis有从redis),那么在设置内存使用上限时,需要在系统中留出一些内存空间给同步队列缓存,只有在你设置的是“不移除”的情况下,才不用考虑这个因素。

maxmemory-policy

Ø volatile-lru:使用LRU算法移除key,只对设置了过期时间的键;(最近最少使用)
Ø allkeys-lru:在所有集合key中,使用LRU算法移除key
Ø volatile-random:在过期集合中移除随机的key,只对设置了过期时间的键
Ø allkeys-random:在所有集合key中,移除随机的key
Ø volatile-ttl:移除那些TTL值最小的key,即那些最近要过期的key
Ø noeviction:不进行移除。针对写操作,只是返回错误信息

maxmemory-samples

Ø 设置样本数量,LRU算法和最小TTL算法都并非是精确的算法,而是估算值,所以你可以设置样本的大小,redis默认会检查这么多个key并选择其中LRU的那个。
Ø 一般设置3到7的数字,数值越小样本越不准确,但性能消耗越小。

daemonize

Redis 默认不是以守护进程的方式运行,可以通过该配置项修改,使用 yes 启用守护进程

持久化配置

rdb

aof

设置密码

通过命令行修改(不推荐,重启就没了)

修改redis.conf

vim进入后,直接输入/requirepass 找到被注释掉的那一栏,自行设置密码
密码设置之后,当你退出再次连上redis的时候,就需要输入密码了,不然是无法操作的。这里有两种方式输入密码,一是连接的时候直接输入密码,而是连接上之后再输入密码

连接时输入密码

-a 后边加密码

连接后输入密码

限制client(一般不用管)

SpringBoot整合

SpringBoot 操作数据:spring-data jpa jdbc mongodb redis!
说明: 在 SpringBoot2.x 之后,原来使用的jedis 被替换为了 lettuce
jedis : 采用的直连,多个线程操作的话,是不安全的,如果想要避免不安全的,使用 jedis pool 连接池! 更像 BIO 模式
lettuce : 采用netty,实例可以在多个线程中进行共享,不存在线程不安全的情况!可以减少线程数据了,更像 NIO 模式

自定义RedisTemplate

  1. package com.example.redis.conf;
  2. import com.fasterxml.jackson.annotation.JsonAutoDetect;
  3. import com.fasterxml.jackson.annotation.PropertyAccessor;
  4. import com.fasterxml.jackson.databind.ObjectMapper;
  5. import org.springframework.context.annotation.Bean;
  6. import org.springframework.context.annotation.Configuration;
  7. import org.springframework.data.redis.connection.RedisConnectionFactory;
  8. import org.springframework.data.redis.core.RedisTemplate;
  9. import org.springframework.data.redis.serializer.Jackson2JsonRedisSerializer;
  10. import org.springframework.data.redis.serializer.StringRedisSerializer;
  11. import java.net.UnknownHostException;
  12. @Configuration
  13. public class RedisConfig {
  14. /**
  15. * 编写自己的redisTemplate----固定模板
  16. * @param redisConnectionFactory
  17. * @return
  18. * @throws UnknownHostException
  19. */
  20. @Bean
  21. public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory redisConnectionFactory) throws UnknownHostException {
  22. //为了开发方便,一般直接使用<String,object>
  23. RedisTemplate<String, Object> template = new RedisTemplate<>();
  24. template.setConnectionFactory(redisConnectionFactory);
  25. //json序列化配置
  26. Jackson2JsonRedisSerializer Jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
  27. ObjectMapper om = new ObjectMapper();
  28. om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
  29. om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
  30. Jackson2JsonRedisSerializer.setObjectMapper(om);
  31. //string序列化配置
  32. StringRedisSerializer stringRedisSerializer = new StringRedisSerializer();
  33. /*配置具体的序列化方式*/
  34. //key采用string的序列化方式
  35. template.setKeySerializer(stringRedisSerializer);
  36. //hash的key采用string的序列化方式
  37. template.setHashKeySerializer(stringRedisSerializer);
  38. //value序列化方式采用jackson
  39. template.setValueSerializer(Jackson2JsonRedisSerializer);
  40. //hash的value序列化方式采用jackson
  41. template.setHashValueSerializer(Jackson2JsonRedisSerializer);
  42. template.afterPropertiesSet();
  43. return template;
  44. }
  45. }

Redis工具类

  1. package com.example.redis.utils;
  2. import org.springframework.beans.factory.annotation.Autowired;
  3. import org.springframework.data.redis.core.RedisTemplate;
  4. import org.springframework.stereotype.Component;
  5. import org.springframework.util.CollectionUtils;
  6. import java.util.Collection;
  7. import java.util.List;
  8. import java.util.Map;
  9. import java.util.Set;
  10. import java.util.concurrent.TimeUnit;
  11. //在真实开发中,经常使用
  12. @Component
  13. public final class RedisUtil {
  14. @Autowired
  15. private RedisTemplate<String, Object> redisTemplate;
  16. // =============================common============================
  17. /**
  18. * 指定缓存失效时间
  19. *
  20. * @param key 键
  21. * @param time 时间(秒)
  22. */
  23. public boolean expire(String key, long time) {
  24. try {
  25. if (time > 0) {
  26. redisTemplate.expire(key, time, TimeUnit.SECONDS);
  27. }
  28. return true;
  29. } catch (Exception e) {
  30. e.printStackTrace();
  31. return false;
  32. }
  33. }
  34. /**
  35. * 根据key 获取过期时间
  36. *
  37. * @param key 键 不能为null
  38. * @return 时间(秒) 返回0代表为永久有效
  39. */
  40. public long getExpire(String key) {
  41. return redisTemplate.getExpire(key, TimeUnit.SECONDS);
  42. }
  43. /**
  44. * 判断key是否存在
  45. *
  46. * @param key 键
  47. * @return true 存在 false不存在
  48. */
  49. public boolean hasKey(String key) {
  50. try {
  51. return redisTemplate.hasKey(key);
  52. } catch (Exception e) {
  53. e.printStackTrace();
  54. return false;
  55. }
  56. }
  57. /**
  58. * 删除缓存
  59. *
  60. * @param key 可以传一个值 或多个
  61. */
  62. @SuppressWarnings("unchecked")
  63. public void del(String... key) {
  64. if (key != null && key.length > 0) {
  65. if (key.length == 1) {
  66. redisTemplate.delete(key[0]);
  67. } else {
  68. redisTemplate.delete((Collection<String>) CollectionUtils.arrayToList(key));
  69. }
  70. }
  71. }
  72. // ============================String=============================
  73. /**
  74. * 普通缓存获取
  75. *
  76. * @param key 键
  77. * @return 值
  78. */
  79. public Object get(String key) {
  80. return key == null ? null : redisTemplate.opsForValue().get(key);
  81. }
  82. /**
  83. * 普通缓存放入
  84. *
  85. * @param key 键
  86. * @param value 值
  87. * @return true成功 false失败
  88. */
  89. public boolean set(String key, Object value) {
  90. try {
  91. redisTemplate.opsForValue().set(key, value);
  92. return true;
  93. } catch (Exception e) {
  94. e.printStackTrace();
  95. return false;
  96. }
  97. }
  98. /**
  99. * 普通缓存放入并设置时间
  100. *
  101. * @param key 键
  102. * @param value 值
  103. * @param time 时间(秒) time要大于0 如果time小于等于0 将设置无限期
  104. * @return true成功 false 失败
  105. */
  106. public boolean set(String key, Object value, long time) {
  107. try {
  108. if (time > 0) {
  109. redisTemplate.opsForValue().set(key, value, time,
  110. TimeUnit.SECONDS);
  111. } else {
  112. set(key, value);
  113. }
  114. return true;
  115. } catch (Exception e) {
  116. e.printStackTrace();
  117. return false;
  118. }
  119. }
  120. /**
  121. * 递增
  122. *
  123. * @param key 键
  124. * @param delta 要增加几(大于0)
  125. */
  126. public long incr(String key, long delta) {
  127. if (delta < 0) {
  128. throw new RuntimeException("递增因子必须大于0");
  129. }
  130. return redisTemplate.opsForValue().increment(key, delta);
  131. }
  132. /**
  133. * 递减
  134. *
  135. * @param key 键
  136. * @param delta 要减少几(小于0)
  137. */
  138. public long decr(String key, long delta) {
  139. if (delta < 0) {
  140. throw new RuntimeException("递减因子必须大于0");
  141. }
  142. return redisTemplate.opsForValue().increment(key, -delta);
  143. }
  144. // ================================Map=================================
  145. /**
  146. * HashGet
  147. *
  148. * @param key 键 不能为null
  149. * @param item 项 不能为null
  150. */
  151. public Object hget(String key, String item) {
  152. return redisTemplate.opsForHash().get(key, item);
  153. }
  154. /**
  155. * 获取hashKey对应的所有键值
  156. *
  157. * @param key 键
  158. * @return 对应的多个键值
  159. */
  160. public Map<Object, Object> hmget(String key) {
  161. return redisTemplate.opsForHash().entries(key);
  162. }
  163. /**
  164. * HashSet
  165. *
  166. * @param key 键
  167. * @param map 对应多个键值
  168. */
  169. public boolean hmset(String key, Map<String, Object> map) {
  170. try {
  171. redisTemplate.opsForHash().putAll(key, map);
  172. return true;
  173. } catch (Exception e) {
  174. e.printStackTrace();
  175. return false;
  176. }
  177. }
  178. /**
  179. * HashSet 并设置时间
  180. *
  181. * @param key 键
  182. * @param map 对应多个键值
  183. * @param time 时间(秒)
  184. * @return true成功 false失败
  185. */
  186. public boolean hmset(String key, Map<String, Object> map, long time) {
  187. try {
  188. redisTemplate.opsForHash().putAll(key, map);
  189. if (time > 0) {
  190. expire(key, time);
  191. }
  192. return true;
  193. } catch (Exception e) {
  194. e.printStackTrace();
  195. return false;
  196. }
  197. }
  198. /**
  199. * 向一张hash表中放入数据,如果不存在将创建
  200. *
  201. * @param key 键
  202. * @param item 项
  203. * @param value 值
  204. * @return true 成功 false失败
  205. */
  206. public boolean hset(String key, String item, Object value) {
  207. try {
  208. redisTemplate.opsForHash().put(key, item, value);
  209. return true;
  210. } catch (Exception e) {
  211. e.printStackTrace();
  212. return false;
  213. }
  214. }
  215. /**
  216. * 向一张hash表中放入数据,如果不存在将创建
  217. *
  218. * @param key 键
  219. * @param item 项
  220. * @param value 值
  221. * @param time 时间(秒) 注意:如果已存在的hash表有时间,这里将会替换原有的时间
  222. * @return true 成功 false失败
  223. */
  224. public boolean hset(String key, String item, Object value, long time) {
  225. try {
  226. redisTemplate.opsForHash().put(key, item, value);
  227. if (time > 0) {
  228. expire(key, time);
  229. }
  230. return true;
  231. } catch (Exception e) {
  232. e.printStackTrace();
  233. return false;
  234. }
  235. }
  236. /**
  237. * 删除hash表中的值
  238. *
  239. * @param key 键 不能为null
  240. * @param item 项 可以使多个 不能为null
  241. */
  242. public void hdel(String key, Object... item) {
  243. redisTemplate.opsForHash().delete(key, item);
  244. }
  245. /**
  246. * 判断hash表中是否有该项的值
  247. *
  248. * @param key 键 不能为null
  249. * @param item 项 不能为null
  250. * @return true 存在 false不存在
  251. */
  252. public boolean hHasKey(String key, String item) {
  253. return redisTemplate.opsForHash().hasKey(key, item);
  254. }
  255. /**
  256. * hash递增 如果不存在,就会创建一个 并把新增后的值返回
  257. *
  258. * @param key 键
  259. * @param item 项
  260. * @param by 要增加几(大于0)
  261. */
  262. public double hincr(String key, String item, double by) {
  263. return redisTemplate.opsForHash().increment(key, item, by);
  264. }
  265. /**
  266. * hash递减
  267. *
  268. * @param key 键
  269. * @param item 项
  270. * @param by 要减少记(小于0)
  271. */
  272. public double hdecr(String key, String item, double by) {
  273. return redisTemplate.opsForHash().increment(key, item, -by);
  274. }
  275. // ============================set=============================
  276. /**
  277. * 根据key获取Set中的所有值
  278. *
  279. * @param key 键
  280. */
  281. public Set<Object> sGet(String key) {
  282. try {
  283. return redisTemplate.opsForSet().members(key);
  284. } catch (Exception e) {
  285. e.printStackTrace();
  286. return null;
  287. }
  288. }
  289. /**
  290. * 根据value从一个set中查询,是否存在
  291. *
  292. * @param key 键
  293. * @param value 值
  294. * @return true 存在 false不存在
  295. */
  296. public boolean sHasKey(String key, Object value) {
  297. try {
  298. return redisTemplate.opsForSet().isMember(key, value);
  299. } catch (Exception e) {
  300. e.printStackTrace();
  301. return false;
  302. }
  303. }
  304. /**
  305. * 将数据放入set缓存
  306. *
  307. * @param key 键
  308. * @param values 值 可以是多个
  309. * @return 成功个数
  310. */
  311. public long sSet(String key, Object... values) {
  312. try {
  313. return redisTemplate.opsForSet().add(key, values);
  314. } catch (Exception e) {
  315. e.printStackTrace();
  316. return 0;
  317. }
  318. }
  319. /**
  320. * 将set数据放入缓存
  321. *
  322. * @param key 键
  323. * @param time 时间(秒)
  324. * @param values 值 可以是多个
  325. * @return 成功个数
  326. */
  327. public long sSetAndTime(String key, long time, Object... values) {
  328. try {
  329. Long count = redisTemplate.opsForSet().add(key, values);
  330. if (time > 0) {
  331. expire(key, time);
  332. }
  333. return count;
  334. } catch (Exception e) {
  335. e.printStackTrace();
  336. return 0;
  337. }
  338. }
  339. /**
  340. * 获取set缓存的长度
  341. *
  342. * @param key 键
  343. */
  344. public long sGetSetSize(String key) {
  345. try {
  346. return redisTemplate.opsForSet().size(key);
  347. } catch (Exception e) {
  348. e.printStackTrace();
  349. return 0;
  350. }
  351. }
  352. /**
  353. * 移除值为value的
  354. *
  355. * @param key 键
  356. * @param values 值 可以是多个
  357. * @return 移除的个数
  358. */
  359. public long setRemove(String key, Object... values) {
  360. try {
  361. Long count = redisTemplate.opsForSet().remove(key, values);
  362. return count;
  363. } catch (Exception e) {
  364. e.printStackTrace();
  365. return 0;
  366. }
  367. }
  368. // ===============================list=================================
  369. /**
  370. * 获取list缓存的内容
  371. *
  372. * @param key 键
  373. * @param start 开始
  374. * @param end 结束 0 到 -1代表所有值
  375. */
  376. public List<Object> lGet(String key, long start, long end) {
  377. try {
  378. return redisTemplate.opsForList().range(key, start, end);
  379. } catch (Exception e) {
  380. e.printStackTrace();
  381. return null;
  382. }
  383. }
  384. /**
  385. * 获取list缓存的长度
  386. *
  387. * @param key 键
  388. */
  389. public long lGetListSize(String key) {
  390. try {
  391. return redisTemplate.opsForList().size(key);
  392. } catch (Exception e) {
  393. e.printStackTrace();
  394. return 0;
  395. }
  396. }
  397. /**
  398. * 通过索引 获取list中的值
  399. *
  400. * @param key 键
  401. * @param index 索引 index>=0时, 0 表头,1 第二个元素,依次类推;index<0
  402. * 时,-1,表尾,-2倒数第二个元素,依次类推
  403. */
  404. public Object lGetIndex(String key, long index) {
  405. try {
  406. return redisTemplate.opsForList().index(key, index);
  407. } catch (Exception e) {
  408. e.printStackTrace();
  409. return null;
  410. }
  411. }
  412. /**
  413. * 将list放入缓存
  414. *
  415. * @param key 键
  416. * @param value 值
  417. */
  418. public boolean lSet(String key, Object value) {
  419. try {
  420. redisTemplate.opsForList().rightPush(key, value);
  421. return true;
  422. } catch (Exception e) {
  423. e.printStackTrace();
  424. return false;
  425. }
  426. }
  427. /**
  428. * 将list放入缓存
  429. *
  430. * @param key 键
  431. * @param value 值
  432. * @param time 时间(秒)
  433. */
  434. public boolean lSet(String key, Object value, long time) {
  435. try {
  436. redisTemplate.opsForList().rightPush(key, value);
  437. if (time > 0) {
  438. expire(key, time);
  439. }
  440. return true;
  441. } catch (Exception e) {
  442. e.printStackTrace();
  443. return false;
  444. }
  445. }
  446. /**
  447. * 将list放入缓存
  448. *
  449. * @param key 键
  450. * @param value 值
  451. * @return
  452. */
  453. public boolean lSet(String key, List<Object> value) {
  454. try {
  455. redisTemplate.opsForList().rightPushAll(key, value);
  456. return true;
  457. } catch (Exception e) {
  458. e.printStackTrace();
  459. return false;
  460. }
  461. }
  462. /**
  463. * 将list放入缓存
  464. *
  465. * @param key 键
  466. * @param value 值
  467. * @param time 时间(秒)
  468. * @return
  469. */
  470. public boolean lSet(String key, List<Object> value, long time) {
  471. try {
  472. redisTemplate.opsForList().rightPushAll(key, value);
  473. if (time > 0) {
  474. expire(key, time);
  475. }
  476. return true;
  477. } catch (Exception e) {
  478. e.printStackTrace();
  479. return false;
  480. }
  481. }
  482. /**
  483. * 根据索引修改list中的某条数据
  484. *
  485. * @param key 键
  486. * @param index 索引
  487. * @param value 值
  488. * @return
  489. */
  490. public boolean lUpdateIndex(String key, long index, Object value) {
  491. try {
  492. redisTemplate.opsForList().set(key, index, value);
  493. return true;
  494. } catch (Exception e) {
  495. e.printStackTrace();
  496. return false;
  497. }
  498. }
  499. /**
  500. * 移除N个值为value
  501. *
  502. * @param key 键
  503. * @param count 移除多少个
  504. * @param value 值
  505. * @return 移除的个数
  506. */
  507. public long lRemove (String key,long count, Object value){
  508. try {
  509. Long remove = redisTemplate.opsForList().remove(key, count,value);
  510. return remove;
  511. } catch (Exception e) {
  512. e.printStackTrace();
  513. return 0;
  514. }
  515. }
  516. }

Redis持久化

Redis 是内存数据库,如果不将内存中的数据库状态保存到磁盘,那么一旦服务器进程退出,服务器中的数据库状态也会消失。所以 Redis 提供了持久化功能!

rdb (Redis DataBase)

在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里。
Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何IO操作的!!!!
这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,RDB方式要比AOF方式更加的高效。

流程图

相关配置回顾

save

保存的文件是dump.rdb

stop-writes-on-bgsave-error


当Redis无法写入磁盘的话,直接关掉Redis的写操作。

推荐yes

rdbcompression 压缩文件


对于存储到磁盘中的快照,可以设置是否进行压缩存储。如果是的话,redis会采用LZF算法进行压缩。

  • 如果你不想消耗CPU来进行压缩的话,可以设置为关闭此功能。

推荐yes

rdbchecksum 检查完整性


在存储快照后,还可以让redis使用CRC64算法来进行数据校验

  • 但是这样做会增加大约10%的性能消耗,如果希望获取到最大的性能提升,可以关闭此功能

推荐yes

redis备份

在服务器启动的时候,先备份一下dump.rdb

cp dump.rdb dump2.rdb

然后删除掉dump.rdb 模拟一下数据丢失的实际场景
关闭redis服务器
接下来要怎么恢复原来的数据呢,我们只需要 cp dump2.rdb dump.rdb
启动Redis,备份数据会直接加载

  • 简单说就是先备份一下rdb文件 , 然后需要重新加载的时候再改回原来的默认名字就好了 , redis就会自动重新加载

优点

  • 适合大规模的数据恢复
  • 对数据完整性和一致性要求不高更适合使用
  • 节省磁盘空间
  • 恢复速度快

缺点

最后一次持久化后的数据可能丢失。

比如说 我们设置了save 20 3 --> 20秒内如果有3个key发生变化就会去持久化操作写入文件

那假如说,现在我们第一个20秒已经设置3个了,存进去了

而第二个20秒,我们设置了2个,这时服务器突然挂掉了,那是不是就不会进行持久化了(因为还没有达到3个的条件),然后我们刚才设置的那两个也就自然而然没有进行持久化,就造成了数据丢失

AOF(Append Only File)(流程还没看)

默认不开启

日志的形式来记录每个写操作(增量保存),将Redis执行过的所有写指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作

同步频率设置

appendfsync always

始终同步,每次Redis的写入都会立刻记入日志;性能较差但数据完整性比较好

appendfsync everysec

每秒同步,每秒记入日志一次,如果宕机,本秒的数据可能丢失。

appendfsync no

redis不主动进行同步,把同步时机交给操作系统。

重写


重写只关心最终的结果,不关心你的过程,把两条语句压缩成一条了

auto-aof-rewrite-percentage:

设置重写的基准值,(文件是原来重写后文件的2倍时触发)

auto-aof-rewrite-min-size:

设置重写的基准值,最小文件64MB。达到这个值开始重写。

例如:文件达到70MB开始重写,降到50MB,下次什么时候开始重写?100MB
系统载入时或者上次重写完毕时,Redis会记录此时AOF大小,设为base_size,
如果Redis的AOF当前大小>= base_size +base_size*100% (默认)且当前大小>=64mb(默认)的情况下,Redis会对AOF进行重写。

缺点

  • 比起RDB占用更多的磁盘空间。
  • 恢复备份速度要慢。
  • 每次读写都同步的话,有一定的性能压力。
  • 存在个别Bug,造成恢复不能。

建议

官方推荐两个都启用。

在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据, 因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整.

RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件。那要不要只使用AOF呢?

  • 建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份),快速重启,而且不会有AOF可能潜在的bug,留着作为一个万一的手段

如果对数据不敏感,可以单独用RDB。
如果只是做纯内存缓存,可以都不用。

发布与订阅(原理狂神待看,菜鸟命令)

Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。

Redis 客户端可以订阅任意数量的频道。

  1. 打开一个客户端订阅channel1

SUBSCRIBE channel1

  1. 打开另一个客户端,给channel1发布消息hello


返回的1是订阅者数量

  1. 打开第一个客户端可以看到发送的消息


注:发布的消息没有持久化,如果在订阅的客户端收不到hello,只能收到订阅后发布的消息

订阅

  1. 127.0.0.1:6379> SUBSCRIBE kuangshenshuo # 订阅一个频道 kuangshenshuo
  2. Reading messages... (press Ctrl-C to quit)
  3. 1) "subscribe"
  4. 2) "kuangshenshuo"
  5. 3) (integer) 1
  6. # 等待读取推送的信息
  7. 1) "message" # 消息
  8. 2) "kuangshenshuo" # 那个频道的消息
  9. 3) "hello,kuangshen" # 消息的具体内容
  10. 1) "message"
  11. 2) "kuangshenshuo"
  12. 3) "hello,redis"

发送端

  1. 127.0.0.1:6379> PUBLISH kuangshenshuo "hello,kuangshen" # 发布者发布消息到频道!
  2. (integer) 1
  3. 127.0.0.1:6379> PUBLISH kuangshenshuo "hello,redis" # 发布者发布消息到频道!
  4. (integer) 1

使用场景:

1、实时消息系统
2、实时聊天!(频道当做聊天室,将信息回显给所有人即可!)
3、订阅,关注系统都是可以的!
稍微复杂的场景我们就会使用 ---> 消息中间件MQ

Redis事务

定义

Redis事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。
Redis事务的主要作用就是串联多个命令防止别的命令插队。

Multi、Exec、discard?(SpringBoot怎么实现)

从输入Multi命令开始,输入的命令都会依次进入命令队列中,但不会执行,直到输入Exec后,Redis会将之前的命令队列中的命令依次执行。

组队的过程中可以通过discard来放弃组队。

  1. //增加乐观锁
  2. jedis.watch(qtkey);
  3. //3.判断库存
  4. String qtkeystr = jedis.get(qtkey);
  5. if(qtkeystr==null || "".equals(qtkeystr.trim())) {
  6. System.out.println("未初始化库存");
  7. jedis.close();
  8. return false ;
  9. }
  10. int qt = Integer.parseInt(qtkeystr);
  11. if(qt<=0) {
  12. System.err.println("已经秒光");
  13. jedis.close();
  14. return false;
  15. }
  16. //增加事务
  17. Transaction multi = jedis.multi();
  18. //4.减少库存
  19. //jedis.decr(qtkey);
  20. multi.decr(qtkey);
  21. //5.加人
  22. //jedis.sadd(usrkey, uid);
  23. multi.sadd(usrkey, uid);
  24. //执行事务
  25. List<Object> list = multi.exec();
  26. //判断事务提交是否失败
  27. if(list==null || list.size()==0) {
  28. System.out.println("秒杀失败");
  29. jedis.close();
  30. return false;
  31. }
  32. System.err.println("秒杀成功");
  33. jedis.close();

错误处理

组队中某个命令出现了报告错误,执行时整个的所有队列都会被取消。

此处在multi过程中,exec之前,我们对一个v1去increase 导致发生了错误,组队期间的所有东西都会不成功

***与MySQL的区别!!!

如果执行阶段某个命令报出了错误,则只有报错的命令不会被执行,而其他的命令都会执行,不会回滚。

总结

在组队期间发生错误,就会回滚。

  • 而在执行阶段发生错误了,则不会回滚。

悲观锁

乐观锁

版本机制,类似CAS中的ABA问题解决

但这里不会循环去查询,而是直接就失败了? 想一想这里会不会引发其他的问题呢?

对比

秒杀库存变成负数问题

  • 乐观锁和悲观锁都能解决,因为在每次购买下单之前,都会先去检查一下

    • 乐观锁会去检查版本,发现版本号不一样了,直接就失败了!(那肯定不会出现负数的情况)
    • 而悲观锁呢? 悲观锁是等待上一个人执行完了,再来操作.这样可以保证不会出现负数的情况,同时也能够继续进行购买,不会说就此失败了!

乐观锁引发的库存遗留问题

解决--Lua脚本

将复杂的或者多步的redis操作,写为一个脚本,一次提交给redis执行,减少反复连接redis的次数。提升性能。
LUA脚本是类似redis事务,有一定的原子性,不会被其他命令插队,可以完成一些redis事务性的操作。
但是注意redis的lua脚本功能,只有在Redis 2.6以上的版本才可以使用。
利用lua脚本淘汰用户,解决超卖问题。
redis 2.6版本以后,通过lua脚本解决争抢问题,实际上是redis 利用其单线程的特性,用任务队列的方式解决多任务并发问题

watch

在执行multi之前,先执行watch key1 [key2],可以监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。

事务三特性

  • 单独的隔离操作

​事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

  • 没有隔离级别的概念

​队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行

  • 不保证原子性

事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚

主从复制

主(写)从(读)

**从机只能读,不能写

一主二仆(附步骤)

拷贝多个redis.conf文件include(写绝对路径) ??

对应不同服务器不同配置文件

新建redis_7001.conf 修改conf

注意要开启安全组端口

  1. #引入我们原来的redis.conf文件(根据目录引入)
  2. include ../redis.conf
  3. #在引入的基础上,修改必要的选项
  4. pidfile /var/run/redis_7001.pid
  5. port 7001
  6. dbfilename dump7001.rdb
  7. appendonly no
  8. daemonize yes

同理创建另外两个conf,修改相应的pid文件,port,dufilename名字

  1. #引入我们原来的redis.conf文件(根据目录引入)
  2. include ../redis.conf
  3. #在引入的基础上,修改必要的选项
  4. pidfile /var/run/redis_7002.pid
  5. port 7002
  6. dbfilename dump7002.rdb
  7. appendonly no
  8. daemonize yes
  1. #引入我们原来的redis.conf文件(根据目录引入)
  2. include ../redis.conf
  3. #在引入的基础上,修改必要的选项
  4. pidfile /var/run/redis_7003.pid
  5. port 7003
  6. dbfilename dump7003.rdb
  7. appendonly no
  8. daemonize yes

查看三台主机运行情况

info replication

slaveof ip地址 端口

成为某个实例的从服务器

从机挂掉后,重启没办法恢复成xx的从机

从机重启需重设:slaveof 127.0.0.1 6379​

但挂掉期间主服务的操作,重启后还是可以看到的

薪火相传

  • 上一个Slave可以是下一个slave的Master,Slave同样可以接收其他slaves的连接和同步请求,那么该slave作为了链条中下一个的master, 可以有效减轻master的写压力,去中心化降低风险

中途变更转向:会清除之前的数据,重新建立拷贝最新的
风险是一旦某个slave宕机,后面的slave都没法备份
主机挂了,从机还是从机,无法写数据了

反客为主

小弟上位

主服务器挂掉后,从服务器只需要用 slaveof no one 就可以上位,变成主服务器了!

但是这里毕竟得自己手动输入命令,才能上位,还是不太方便的在实际的业务场景中,那么如何实现更好的方法呢,得来看看后边要讲到的哨兵模式

复制原理

  • 当从服务器连接上主服务器后,从服务器会主动向主服务器请求数据同步的消息

从服务器主动

  • 主服务器接受到后,就会进行持久化操作,然后把rdb文件发送给从服务器,从服务器读取rdb文件以达到同步的效果
  • 每次主服务器进行了写操作后,也会跟从服务器进行数据同步

主服务器主动

全量复制:slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。
增量复制:Master继续将新的所有收集到的修改命令依次传给slave,完成同步

但是只要是重新连接master,全量复制将被自动执行

哨兵模式

反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库

  • 哨兵模式是一种特殊的模式,首先Redis提供了哨兵的命令,哨兵是一个独立的进程。其原理是哨兵通过发送命令,等待Redis服务器响应,从而监控运行的多个Redis实例 。

自定义的/myredis目录下新建sentinel.conf文件,名字绝不能错

配置哨兵,填写内容

sentinel monitor mymaster 127.0.0.1 6379 1

其中mymaster为监控对象起的服务器名称,1 为至少有多少个哨兵同意迁移的数量。

设置为1的话,只需要一个哨兵同意就可以切换,设置成2则需要有两个哨兵都同意才进行切换(将从库转换为主库)

启动哨兵

执行redis-sentinel /myredis/sentinel.conf

当主机挂掉,从机选举中产生新的主机

(大概10秒左右可以看到哨兵窗口日志,切换了新的主机)
哪个从机会被选举为主机呢?根据优先级别:slave-priority
原主机重启后会变为从机

新皇登基了已经

复制延时

由于所有的写操作都是先在Master上操作,然后同步更新到Slave上,所以从Master同步到Slave机器有一定的延迟,当系统很繁忙的时候,延迟问题会更加严重,Slave机器数量的增加也会使这个问题更加严重。

故障恢复


优先级在redis.conf中默认:slave-priority 100,值越小优先级越高

目前最新版本已经改名为 : replica-priority 默认是100

  • 偏移量是指获得原主机数据最全的

每个redis实例启动后都会随机生成一个40位的runid

集群(无中心化)

***好处

主从模式,薪火相传模式,主机宕机,导致ip地址发生变化,应用程序中配置需要修改对应的主机地址、端口等信息。

之前通过代理主机来解决,但是redis3.0中提供了解决方案。就是无中心化集群配置。

代理

每一个又都需要从机,总共就需要8台

无中心化

只需要6台,每一台都能作为入口,然后再去转移(互相访问连通)


Redis 集群实现了对Redis的水平扩容,即启动N个redis节点,将整个数据库分布存储在这N个节点中,每个节点存储总数据的1/N

  • Redis 集群通过分区(partition)来提供一定程度的可用性(availability):即使集群中有一部分节点失效或者无法进行通讯,集群也可以继续处理命令请求。

搭载集群

配置文件

同理拷贝出其他5个,总共是7001-7006(要开放相应端口,修改文件中的对应各种数字)

  1. include ../redis.conf
  2. pidfile /var/run/redis_7001.pid
  3. port 7001
  4. dbfilename dump7001.rdb
  5. cluster-enabled yes
  6. cluster-config-file nodes-7001.conf
  7. cluster-node-timeout 15000

快速替换的小技巧

:%s/7001/7002g

帝皇侠合体

  • redis-cli --cluster create --cluster-replicas 1 10.0.8.13:7001 10.0.8.13:7002 10.0.8.13:7003 10.0.8.13:7004 10.0.8.13:7005 10.0.8.13:7006

redis-cli --cluster create --cluster-replicas 1 后边是 host:port host:port

  • 注意如果是阿里云或者腾讯云的,这里得用内网ip!!!!

有设置密码的还得在最后补充 -a 密码

--replicas 1 采用最简单的方式配置集群,一台主机,一台从机,正好三组。

输入yes

成功界面

2223凄凄切切凄凄切切前驱群群群群群晕晕晕晕晕00

普通方式登录

  • 可能直接进入读主机,存储数据时,会出现MOVED重定向操作。所以,应该以集群方式登录。

-c 采用集群策略连接

  • ./redis-cli -c -p 7001

选择任意一个端口连接都可以,设置数据会自动切换到相应的写主机

查看节点信息

  • CLUSTER NODES

分配原则

一个集群至少要有三个主节点。
选项--cluster-replicas 1 表示我们希望为集群中的每个主节点创建一个从节点。
分配原则尽量保证每个主数据库运行在不同的IP地址,每个从库和主库不在一个IP地址上。

slot

一个 Redis 集群包含16384 个插槽(hash slot),数据库中的每个键都属于这16384 个插槽的其中一个,
集群使用公式 CRC16(key) % 16384

  • 来计算键key 属于哪个槽,其中CRC16(key) 语句用于计算键key 的CRC16 校验和。

集群中的每个节点负责处理一部分插槽。举个例子,如果一个集群可以有主节点,其中:

  • 节点 A 负责处理0号至5460号插槽。
  • 节点 B 负责处理5461号至10922号插槽。
  • 节点 C 负责处理10923号至16383号插槽。

这里的分配有点类似哈希函数,主要是为了能够尽量平均分配,让三个主节点能够平均分担压力

  • 不过这里如果计算出来的值一样(并不会像哈希一样出现冲突),而是让一个插槽放多个数据就好了

不在一个slot下的键值,是不能使用mget,mset等多键操作。

  • 可以通过{}来定义组的概念,从而使key中{}内相同内容的键值对放到一个slot中去。

此时是根据{}内user计算,{}里的内容一样,自然会放到同一个slot中去

计算重定向(无中心化的实现方式)

  • 通过计算,然后去重定向到相应的节点上,这样就可以实现各个节点能够互相连通,自然而然每个节点都能作为入口了,因为他们可以重定向到别的节点,互相连通互相访问!

主机挂掉了???

  • 此时7003 fail掉了,此处还有待进一步验证,现在服务器上挂着几个项目不敢乱搭,寒假再拿另外一个服务器来试试。

JRedis集群开发

即使连接的不是主机,集群会自动切换主机存储。主机写,从机读。
无中心化主从集群。无论从哪台主机写的数据,其他主机上都能读到数据。

  1. public class JedisClusterTest {
  2. public static void main(String[] args) {
  3. Set<HostAndPort>set =new HashSet<HostAndPort>();
  4. set.add(new HostAndPort("192.168.31.211",6379));
  5. JedisCluster jedisCluster=new JedisCluster(set);
  6. jedisCluster.set("k1", "v1");
  7. System.out.println(jedisCluster.get("k1"));
  8. }
  9. }

另一种版本

  1. public static void main(String[] args) {
  2. Set<HostAndPort> jedisClusterNodes = new HashSet<HostAndPort>();
  3. //Jedis Cluster will attempt to discover cluster nodes automatically
  4. jedisClusterNodes.add(new HostAndPort("127.0.0.1", 6371));
  5. jedisClusterNodes.add(new HostAndPort("127.0.0.1", 6372));
  6. jedisClusterNodes.add(new HostAndPort("127.0.0.1", 6373));
  7. jedisClusterNodes.add(new HostAndPort("127.0.0.1", 6374));
  8. jedisClusterNodes.add(new HostAndPort("127.0.0.1", 6375));
  9. jedisClusterNodes.add(new HostAndPort("127.0.0.1", 6376));
  10. JedisCluster jc = new JedisCluster(jedisClusterNodes);
  11. jc.set("foo", "bar");
  12. String value = jc.get("foo");
  13. System.out.println(" ===> " + value);
  14. }

整合篇预告

  • 到这里,redis的入门知识篇算是整合完毕了,剩下的还有面试篇的三种缓存问题,包括如何解决,应用篇redis在项目中的实际应用场景,以及高级篇redis原理,有机会我们再来聊一聊。

参考

  • 尚硅谷Redis6视频
  • 狂神说Redis视频

【建议收藏】Redis超详细入门教程大杂烩的更多相关文章

  1. ant design pro超详细入门教程

    1.Ant Design Pro 初了解 说到ant design pro,得先了解一下ant design是个什么东西?ant design蚂蚁金服基于react打造的一个服务于企业级产品的UI框架 ...

  2. 建议收藏!超详细的JVM反射原理技术点总结

    反射定义 1,JAVA反射机制是在运行状态中 对于任意一个类,都能够知道这个类的所有属性和方法: 对于任意一个对象,都能够调用它的任意一个方法和属性: 这种动态获取的信息以及动态调用对象的方法的功能称 ...

  3. Kibana详细入门教程

    Kibana详细入门教程   目录 一.Kibana是什么 二.如何安装 三.如何加载自定义索引 四.如何搜索数据 五.如何切换中文 六.如何使用控制台 七.如何使用可视化 八.如何使用仪表盘 一.K ...

  4. 程序员,一起玩转GitHub版本控制,超简单入门教程 干货2

    本GitHub教程旨在能够帮助大家快速入门学习使用GitHub,进行版本控制.帮助大家摆脱命令行工具,简单快速的使用GitHub. 做全栈攻城狮-写代码也要读书,爱全栈,更爱生活. 更多原创教程请关注 ...

  5. gulp详细入门教程

    本文链接:http://www.ydcss.com/archives/18 gulp详细入门教程 简介: gulp是前端开发过程中对代码进行构建的工具,是自动化项目的构建利器:她不仅能对网站资源进行优 ...

  6. ant使用指南详细入门教程

    这篇文章主要介绍了ant使用指南详细入门教程,本文详细的讲解了安装.验证安装.使用方法.使用实例.ant命令等内容,需要的朋友可以参考下 一.概述 ant 是一个将软件编译.测试.部署等步骤联系在一起 ...

  7. gulp详细入门教程(转载)

    本文转载自: gulp详细入门教程

  8. GitHub这么火,程序员你不学学吗? 超简单入门教程 【转载】

    本GitHub教程旨在能够帮助大家快速入门学习使用GitHub. 本文章由做全栈攻城狮-写代码也要读书,爱全栈,更爱生活.原创.如有转载,请注明出处. GitHub是什么? GitHub首先是个分布式 ...

  9. <转载>ant使用指南详细入门教程 http://www.jb51.net/article/67041.htm

    这篇文章主要介绍了ant使用指南详细入门教程,本文详细的讲解了安装.验证安装.使用方法.使用实例.ant命令等内容,需要的朋友可以参考下 一.概述 ant 是一个将软件编译.测试.部署等步骤联系在一起 ...

随机推荐

  1. python xlwt写Excel表

    1 xlwt第三方库 说明:xlwt是一个用于将数据和格式化信息写入并生成Excel文件的库. 注意:xlwt不支持写xlsx表,打开表文件报错. 官方文档:https://xlwt.readthed ...

  2. 「Codeforces 79D」Password

    Description 有一个 01 序列 \(a_1,a_2,\cdots,a_n\),初始时全为 \(0\). 给定 \(m\) 个长度,分别为 \(l_1\sim l_m\). 每次可以选择一个 ...

  3. uniCloud爬虫获取网页数据

    'use strict'; let request = require('request') let cheerio = require('cheerio'); //爬虫 let iconv = re ...

  4. <学习opencv>opencv数据类型

    目录 Opencv数据类型: 基础类型概述 固定向量类class cv::Vec<> 固定矩阵类cv::Matx<> 点类 Point class cv::Scalar 深入了 ...

  5. JDK、JVM和JRE三者间的关系,及JDK安装路径下的文件夹说明

    JDK的全称是Java SE Development Kit, 即Java标准开发包,是Sun公司提供的一套用于开发Java应用程序的开发包, 它提供了编译.运行Java查询所需的各种工具和资源,包括 ...

  6. windows下的pycharm下载与安装(不包括激活)

    Pycharm的下载与安装 首先兄弟们我们依旧在浏览器输入pycharm的网址链接 PyCharm: the Python IDE for Professional Developers by Jet ...

  7. css 快速入门 系列 —— 浮动

    浮动 以 mdn float 文档 为基础,逐一介绍浮动的本质.浮动的诸多特性.清除浮动以及块格式化上下文(bfc). 概念 当一个元素浮动之后,它会被移出正常的文档流,然后向左或者向右平移,一直平移 ...

  8. 图解四种 IO 模型

    最近越来越认为,在讲解技术相关问题时,大白话固然很重要,通俗易懂,让人有想读下去的欲望.但几乎所有的事,都有两面性,在看到其带来好处时,不妨想想是否也引入了不好的地方. 例如在博客中,过于大白话的语言 ...

  9. JAVA获取上下行网速

    JAVA获取上下行网速 package com.iecas.zwterminalstate.util;import java.io.BufferedReader;import java.io.IOEx ...

  10. 记一次log4j2引发的渗透测试

    前言 记一次log4j2打入内网并用CVE-2021-42287.CVE-2021-42278获取到DC权限的靶场渗透. 外网打点 首先对web进行端口扫描,发现38080端口和22端口 访问一下38 ...