RabbitMQ队列

RabbitMQ是一个在AMQP基础上完整的,可复用的企业消息系统。他遵循Mozilla Public License开源协议。

MQ全称为Message Queue, 消息队列(MQ)是一种应用程序对应用程序的通信方法。应用程序通过读写出入队列的消息(针对应用程序的数据)来通信,而无需专用连接来链接它们。消 息传递指的是程序之间通过在消息中发送数据进行通信,而不是通过直接调用彼此来通信,直接调用通常是用于诸如远程过程调用的技术。排队指的是应用程序通过 队列来通信。队列的使用除去了接收和发送应用程序同时执行的要求。

实现最简单的队列通信

send端

  1. #!/usr/bin/env python
  2. import pika
  3. connection = pika.BlockingConnection(pika.ConnectionParameters(
  4. 'localhost')) # 建立链接
  5. channel = connection.channel() # 声明一个管道
  6. #声明queue
  7. channel.queue_declare(queue='hello')
  8. #n RabbitMQ a message can never be sent directly to the queue, it always needs to go through an exchange.
  9. channel.basic_publish(exchange='', # 默认为direct
  10. routing_key='hello', # 告诉exchange发送的消息要送到哪一个queue
  11. body='Hello World!')
  12. print(" [x] Sent 'Hello World!'")
  13. connection.close()

reveive端

  1. import pika
  2. connection = pika.BlockingConnection(pika.ConnectionParameters(
  3. 'localhost'))
  4. channel = connection.channel()
  5. channel.queue_declare(queue='hello')
  6. def callback(ch, method, properties, body):
  7. """
  8. 参数都为必须
  9. :param ch: 频道
  10. :param method: 方法
  11. :param properties: 特殊属性
  12. :param body: 消息体
  13. :return:
  14. """
  15. print(" [x] Received %r" % body)
  16. channel.basic_consume(callback,
  17. queue='hello',
  18. no_ack=True)
  19. print(' [*] Waiting for messages. To exit press CTRL+C')
  20. channel.start_consuming()

Work Queues

在这种模式下,RabbitMQ会默认把p发的消息依次分发给各个消费者(c),跟负载均衡差不多

消息提供者代码

  1. import pika
  2. connection = pika.BlockingConnection(pika.ConnectionParameters(
  3. 'localhost'))
  4. channel = connection.channel()
  5. #声明queue
  6. channel.queue_declare(queue='task_queue')
  7. #n RabbitMQ a message can never be sent directly to the queue, it always needs to go through an exchange.
  8. import sys
  9. message = ' '.join(sys.argv[1:]) or "Hello World!"
  10. channel.basic_publish(exchange='',
  11. routing_key='task_queue',
  12. body=message,
  13. properties=pika.BasicProperties(
  14. delivery_mode = 2, # make message persistent
  15. ))
  16. print(" [x] Sent %r" % message)
  17. connection.close()

消费者代码

  1. import pika,time
  2. connection = pika.BlockingConnection(pika.ConnectionParameters(
  3. 'localhost'))
  4. channel = connection.channel()
  5. def callback(ch, method, properties, body):
  6. print(" [x] Received %r" % body)
  7. time.sleep(body.count(b'.'))
  8. print(" [x] Done")
  9. ch.basic_ack(delivery_tag = method.delivery_tag)
  10. channel.basic_consume(callback,
  11. queue='task_queue',
  12. )
  13. print(' [*] Waiting for messages. To exit press CTRL+C')
  14. channel.start_consuming()

此时,先启动消息生产者,然后再分别启动3个消费者,通过生产者多发送几条消息,你会发现,这几条消息会被依次分配到各个消费者身上 

消息公平分发

如果Rabbit只管按顺序把消息发到各个消费者身上,不考虑消费者负载的话,很可能出现,一个机器配置不高的消费者那里堆积了很多消息处理不完,同时配置高的消费者却一直很轻松。为解决此问题,可以在各个消费者端,配置perfetch=1,意思就是告诉RabbitMQ在我这个消费者当前消息还没处理完的时候就不要再给我发新消息了。

带消息持久化+公平分发的完整代码

生产者端

  1. #!/usr/bin/env python
  2. import pika
  3. import sys
  4. connection = pika.BlockingConnection(pika.ConnectionParameters(
  5. host='localhost'))
  6. channel = connection.channel()
  7. channel.queue_declare(queue='task_queue', durable=True)
  8. message = ' '.join(sys.argv[1:]) or "Hello World!"
  9. channel.basic_publish(exchange='',
  10. routing_key='task_queue',
  11. body=message,
  12. properties=pika.BasicProperties(
  13. delivery_mode = 2, # make message persistent
  14. ))
  15. print(" [x] Sent %r" % message)
  16. connection.close()

消费者端

  1. #!/usr/bin/env python
  2. import pika
  3. import time
  4. connection = pika.BlockingConnection(pika.ConnectionParameters(
  5. host='localhost'))
  6. channel = connection.channel()
  7. channel.queue_declare(queue='task_queue', durable=True)
  8. print(' [*] Waiting for messages. To exit press CTRL+C')
  9. def callback(ch, method, properties, body):
  10. print(" [x] Received %r" % body)
  11. time.sleep(body.count(b'.'))
  12. print(" [x] Done")
  13. ch.basic_ack(delivery_tag = method.delivery_tag)
  14. channel.basic_qos(prefetch_count=1)
  15. channel.basic_consume(callback,
  16. queue='task_queue')
  17. channel.start_consuming()

Publish\Subscribe(消息发布\订阅)

之前的例子都基本都是1对1的消息发送和接收,即消息只能发送到指定的queue里,但有些时候你想让你的消息被所有的Queue收到,类似广播的效果,这时候就要用到exchange了

Exchange在定义的时候是有类型的,以决定到底是哪些Queue符合条件,可以接收消息
fanout: 所有bind到此exchange的queue都可以接收消息
direct: 通过routingKey和exchange决定的那个唯一的queue可以接收消息
topic:所有符合routingKey(此时可以是一个表达式)的routingKey所bind的queue可以接收消息

表达式符号说明:#代表一个或多个字符,*代表任何字符

例:#.a会匹配a.a,aa.a,aaa.a等*.a会匹配a.a,b.a,c.a等

注:使用RoutingKey为#,Exchange Type为topic的时候相当于使用fanout
headers: 通过headers 来决定把消息发给哪些queue

消息publisher

  1. import pika
  2. import sys
  3. connection = pika.BlockingConnection(pika.ConnectionParameters(
  4. host='localhost'))
  5. channel = connection.channel()
  6. channel.exchange_declare(exchange='logs',
  7. type='fanout')
  8. message = ' '.join(sys.argv[1:]) or "info: Hello World!"
  9. channel.basic_publish(exchange='logs',
  10. routing_key='',
  11. body=message)
  12. print(" [x] Sent %r" % message)
  13. connection.close()

消息subscriber

  1. import pika
  2. connection = pika.BlockingConnection(pika.ConnectionParameters(
  3. host='localhost'))
  4. channel = connection.channel()
  5. channel.exchange_declare(exchange='logs',
  6. type='fanout')
  7. result = channel.queue_declare(exclusive=True) #不指定queue名字,rabbit会随机分配一个名字,exclusive=True会在使用此queue的消费者断开后,自动将queue删除
  8. queue_name = result.method.queue
  9. channel.queue_bind(exchange='logs',
  10. queue=queue_name)
  11. print(' [*] Waiting for logs. To exit press CTRL+C')
  12. def callback(ch, method, properties, body):
  13. print(" [x] %r" % body)
  14. channel.basic_consume(callback,
  15. queue=queue_name,
  16. no_ack=True)
  17. channel.start_consuming()
有选择的接收消息(exchange type=direct)

RabbitMQ还支持根据关键字发送,即:队列绑定关键字,发送者将数据根据关键字发送到消息exchange,exchange根据 关键字 判定应该将数据发送至指定队列。

publisher

  1. import pika
  2. import sys
  3. connection = pika.BlockingConnection(pika.ConnectionParameters(
  4. host='localhost'))
  5. channel = connection.channel()
  6. channel.exchange_declare(exchange='direct_logs',
  7. type='direct')
  8. severity = sys.argv[1] if len(sys.argv) > 1 else 'info'
  9. message = ' '.join(sys.argv[2:]) or 'Hello World!'
  10. channel.basic_publish(exchange='direct_logs',
  11. routing_key=severity,
  12. body=message)
  13. print(" [x] Sent %r:%r" % (severity, message))
  14. connection.close()

subscriber

  1. import pika
  2. import sys
  3. connection = pika.BlockingConnection(pika.ConnectionParameters(
  4. host='localhost'))
  5. channel = connection.channel()
  6. channel.exchange_declare(exchange='direct_logs',
  7. type='direct')
  8. result = channel.queue_declare(exclusive=True)
  9. queue_name = result.method.queue
  10. severities = sys.argv[1:]
  11. if not severities:
  12. sys.stderr.write("Usage: %s [info] [warning] [error]\n" % sys.argv[0])
  13. sys.exit(1)
  14. for severity in severities:
  15. channel.queue_bind(exchange='direct_logs',
  16. queue=queue_name,
  17. routing_key=severity)
  18. print(' [*] Waiting for logs. To exit press CTRL+C')
  19. def callback(ch, method, properties, body):
  20. print(" [x] %r:%r" % (method.routing_key, body))
  21. channel.basic_consume(callback,
  22. queue=queue_name,
  23. no_ack=True)
  24. channel.start_consuming()
更细致的消息过滤(exchange type=topic)

publisher

  1. import pika
  2. import sys
  3. connection = pika.BlockingConnection(pika.ConnectionParameters(
  4. host='localhost'))
  5. channel = connection.channel()
  6. channel.exchange_declare(exchange='topic_logs',
  7. type='topic')
  8. routing_key = sys.argv[1] if len(sys.argv) > 1 else 'anonymous.info'
  9. message = ' '.join(sys.argv[2:]) or 'Hello World!'
  10. channel.basic_publish(exchange='topic_logs',
  11. routing_key=routing_key,
  12. body=message)
  13. print(" [x] Sent %r:%r" % (routing_key, message))
  14. connection.close()

subscriber

  1. import pika
  2. import sys
  3. connection = pika.BlockingConnection(pika.ConnectionParameters(
  4. host='localhost'))
  5. channel = connection.channel()
  6. channel.exchange_declare(exchange='topic_logs',
  7. type='topic')
  8. result = channel.queue_declare(exclusive=True)
  9. queue_name = result.method.queue
  10. binding_keys = sys.argv[1:]
  11. if not binding_keys:
  12. sys.stderr.write("Usage: %s [binding_key]...\n" % sys.argv[0])
  13. sys.exit(1)
  14. for binding_key in binding_keys:
  15. channel.queue_bind(exchange='topic_logs',
  16. queue=queue_name,
  17. routing_key=binding_key)
  18. print(' [*] Waiting for logs. To exit press CTRL+C')
  19. def callback(ch, method, properties, body):
  20. print(" [x] %r:%r" % (method.routing_key, body))
  21. channel.basic_consume(callback,
  22. queue=queue_name,
  23. no_ack=True)
  24. channel.start_consuming()

Remote procedure call (RPC)

RPC server

  1. import pika
  2. import time
  3. connection = pika.BlockingConnection(pika.ConnectionParameters(
  4. host='localhost'))
  5. channel = connection.channel()
  6. channel.queue_declare(queue='rpc_queue')
  7. def fib(n):
  8. if n == 0:
  9. return 0
  10. elif n == 1:
  11. return 1
  12. else:
  13. return fib(n-1) + fib(n-2)
  14. def on_request(ch, method, props, body):
  15. n = int(body)
  16. print(" [.] fib(%s)" % n)
  17. response = fib(n)
  18. ch.basic_publish(exchange='',
  19. routing_key=props.reply_to,
  20. properties=pika.BasicProperties(correlation_id = \
  21. props.correlation_id),
  22. body=str(response))
  23. ch.basic_ack(delivery_tag = method.delivery_tag)
  24. channel.basic_qos(prefetch_count=1)
  25. channel.basic_consume(on_request, queue='rpc_queue')
  26. print(" [x] Awaiting RPC requests")
  27. channel.start_consuming()

RPC client

  1. import pika
  2. import uuid
  3. class FibonacciRpcClient(object):
  4. def __init__(self):
  5. self.connection = pika.BlockingConnection(pika.ConnectionParameters(
  6. host='localhost'))
  7. self.channel = self.connection.channel()
  8. result = self.channel.queue_declare(exclusive=True)
  9. self.callback_queue = result.method.queue
  10. self.channel.basic_consume(self.on_response, no_ack=True,
  11. queue=self.callback_queue)
  12. def on_response(self, ch, method, props, body):
  13. if self.corr_id == props.correlation_id:
  14. self.response = body
  15. def call(self, n):
  16. self.response = None
  17. self.corr_id = str(uuid.uuid4())
  18. self.channel.basic_publish(exchange='',
  19. routing_key='rpc_queue',
  20. properties=pika.BasicProperties(
  21. reply_to = self.callback_queue,
  22. correlation_id = self.corr_id,
  23. ),
  24. body=str(n))
  25. while self.response is None:
  26. self.connection.process_data_events()
  27. return int(self.response)
  28. fibonacci_rpc = FibonacciRpcClient()
  29. print(" [x] Requesting fib(30)")
  30. response = fibonacci_rpc.call(30)
  31. print(" [.] Got %r" % response)

Redis

redis是一个key-value存储系统。和Memcached类似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash(哈希类型)。这些数据类型都支持push/pop、add/remove及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的。在此基础上,redis支持各种不同方式的排序。与memcached一样,为了保证效率,数据都是缓存在内存中。区别的是redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件,并且在此基础上实现了master-slave(主从)同步。

一、Redis安装和基本使用

  1. wget http://download.redis.io/releases/redis-3.0.6.tar.gz
  2. tar xzf redis-3.0.6.tar.gz
  3. cd redis-3.0.6
  4. make

启动服务端

  1. src/redis-server

启动客户端

  1. src/redis-cli
  2. redis> set foo bar
  3. OK
  4. redis> get foo
  5. "bar"

redis-py 的API的使用可以分类为:

  1. 连接方式
  2. 连接池
  3. 操作
  4. String 操作
  5. Hash 操作
  6. List 操作
  7. Set 操作
  8. Sort Set 操作
  9. 管道
  10. 发布订阅
操作模式

redis-py提供两个类Redis和StrictRedis用于实现Redis的命令,StrictRedis用于实现大部分官方的命令,并使用官方的语法和命令,Redis是StrictRedis的子类,用于向后兼容旧版本的redis-py。

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import redis
  4. r = redis.Redis(host='10.211.55.4', port=6379)
  5. r.set('foo', 'Bar')
  6. print (r.get('foo'))
连接池

redis-py使用connection pool来管理对一个redis server的所有连接,避免每次建立、释放连接的开销。默认,每个Redis实例都会维护一个自己的连接池。可以直接建立一个连接池,然后作为参数Redis,这样就可以实现多个Redis实例共享一个连接池。

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import redis
  4. pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
  5. r = redis.Redis(connection_pool=pool)
  6. r.set('foo', 'Bar')
  7. print (r.get('foo'))
操作

String操作,redis中的String在在内存中按照一个name对应一个value来存储



set(name, value, ex=None, px=None, nx=False, xx=False)


  1. Redis中设置值,默认,不存在则创建,存在则修改
  2. 参数:
  3. ex,过期时间(秒)
  4. px,过期时间(毫秒)
  5. nx,如果设置为True,则只有name不存在时,当前set操作才执行
  6. xx,如果设置为True,则只有name存在时,岗前set操作才执行

setnx(name, value)

  1. 设置值,只有name不存在时,执行设置操作(添加)

setex(name, value, time)

  1. 设置值,参数:time,过期时间(数字秒 timedelta对象)

psetex(name, time_ms, value)

  1. 设置值,参数: time_ms,过期时间(数字毫秒 timedelta对象)

mset(*args, **kwargs)

  1. 批量设置值
  2. 如:
  3. mset(k1='v1', k2='v2')

  4. mget({'k1': 'v1', 'k2': 'v2'})

get(name) # 获取值

mget(keys, *args) # 批量获取值

getset(name, value) # 设置新值并获取原来的值

getrange(key, start, end)

  1. # 获取子序列(根据字节获取,非字符)
  2. # 参数:
  3. # name,Redis 的 name
  4. # start,起始位置(字节)
  5. # end,结束位置(字节)

setrange(name, offset, value)

  1. # 修改字符串内容,从指定字符串索引开始向后替换(新值太长时,则向后添加)
  2. # 参数:
  3. # offset,字符串的索引,字节(一个汉字三个字节)
  4. # value,要设置的值

setbit(name, offset, value)

  1. # 对name对应值的二进制表示的位进行操作
  2. # 参数:
  3. # name,redis的name
  4. # offset,位的索引(将值变换成二进制后再进行索引)
  5. # value,值只能是 1 或 0
  6. # 注:如果在Redis中有一个对应: n1 = "foo",
  7. 那么字符串foo的二进制表示为:01100110 01101111 01101111
  8. 所以,如果执行 setbit('n1', 7, 1),则就会将第7位设置为1
  9. 那么最终二进制则变成 01100111 01101111 01101111,即:"goo"

getbit(name, offset)

  1. # 获取name对应的值的二进制表示中的某位的值 (0或1)

bitcount(key, start=None, end=None)

  1. # 获取name对应的值的二进制表示中 1 的个数
  2. # 参数:
  3. # key,Redis的name
  4. # start,位起始位置
  5. # end,位结束位置

bitop(operation, dest, *keys)

  1. # 获取多个值,并将值做位运算,将最后的结果保存至新的name对应的值
  2. # 参数:
  3. # operation,AND(并) 、 OR(或) 、 NOT(非) 、 XOR(异或)
  4. # dest, 新的Redis的name
  5. # *keys,要查找的Redis的name
  6. # 如:
  7. bitop("AND", 'new_name', 'n1', 'n2', 'n3')
  8. # 获取Redis中n1,n2,n3对应的值,然后讲所有的值做位运算(求并集),然后将结果保存 new_name 对应的值中

strlen(name)

  1. # 返回name对应值的字节长度(一个汉字3个字节)

incr(self, name, amount=1)

  1. # 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
  2. # 参数:
  3. # name,Redis的name
  4. # amount,自增数(必须是整数)
  5. # 注:同incrby

incrbyfloat(self, name, amount=1.0)

  1. # 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
  2. # 参数:
  3. # name,Redis的name
  4. # amount,自增数(浮点型)

decr(self, name, amount=1)

  1. # 自减 name对应的值,当name不存在时,则创建name=amount,否则,则自减。
  2. # 参数:
  3. # name,Redis的name
  4. # amount,自减数(整数)

append(key, value)

  1. # 在redis name对应的值后面追加内容
  2. # 参数:
  3. key, redisname
  4. value, 要追加的字符串

Hash操作,redis中Hash在内存中的存储格式如下图:

hset(name, key, value)

  1. # name对应的hash中设置一个键值对(不存在,则创建;否则,修改)
  2. # 参数:
  3. # name,redis的name
  4. # key,name对应的hash中的key
  5. # value,name对应的hash中的value
  6. # 注:
  7. # hsetnx(name, key, value),当name对应的hash中不存在当前key时则创建(相当于添加)

hmset(name, mapping)

  1. # 在name对应的hash中批量设置键值对
  2. # 参数:
  3. # name,redis的name
  4. # mapping,字典,如:{'k1':'v1', 'k2': 'v2'}
  5. # 如:
  6. # r.hmset('xx', {'k1':'v1', 'k2': 'v2'})

hget(name,key)


  1. # 在name对应的hash中获取根据key获取value

hmget(name, keys, *args)

  1. # 在name对应的hash中获取多个key的值
  2. # 参数:
  3. # name,reids对应的name
  4. # keys,要获取key集合,如:['k1', 'k2', 'k3']
  5. # *args,要获取的key,如:k1,k2,k3
  6. # 如:
  7. # r.mget('xx', ['k1', 'k2'])
  8. # 或
  9. # print r.hmget('xx', 'k1', 'k2')

hgetall(name)

  1. #获取name对应hash的所有键值

hlen(name)

  1. # 获取name对应的hash中键值对的个数

hkeys(name)

  1. # 获取name对应的hash中所有的key的值

hvals(name)

  1. # 获取name对应的hash中所有的value的值

hexists(name, key)

  1. # 检查name对应的hash是否存在当前传入的key

hdel(name,*keys)

  1. # 将name对应的hash中指定key的键值对删除

hincrby(name, key, amount=1)

  1. # 自增name对应的hash中的指定key的值,不存在则创建key=amount
  2. # 参数:
  3. # name,redis中的name
  4. # key, hash对应的key
  5. # amount,自增数(整数)

hincrbyfloat(name, key, amount=1.0)

  1. # 自增name对应的hash中的指定key的值,不存在则创建key=amount
  2. # 参数:
  3. # name,redis中的name
  4. # key, hash对应的key
  5. # amount,自增数(浮点数)
  6. # 自增name对应的hash中的指定key的值,不存在则创建key=amount

hscan(name, cursor=0, match=None, count=None)

  1. # 增量式迭代获取,对于数据大的数据非常有用,hscan可以实现分片的获取数据,并非一次性将数据全部获取完,从而放置内存被撑爆
  2. # 参数:
  3. # name,redis的name
  4. # cursor,游标(基于游标分批取获取数据)
  5. # match,匹配指定key,默认None 表示所有的key
  6. # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
  7. # 如:
  8. # 第一次:cursor1, data1 = r.hscan('xx', cursor=0, match=None, count=None)
  9. # 第二次:cursor2, data1 = r.hscan('xx', cursor=cursor1, match=None, count=None)
  10. # ...
  11. # 直到返回值cursor的值为0时,表示数据已经通过分片获取完毕

hscan_iter(name, match=None, count=None)

  1. # 利用yield封装hscan创建生成器,实现分批去redis中获取数据
  2. # 参数:
  3. # match,匹配指定key,默认None 表示所有的key
  4. # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
  5. # 如:
  6. # for item in r.hscan_iter('xx'):
  7. # print item

List操作,redis中的List在在内存中按照一个name对应一个List来存储。如图:

lpush(name,values)

  1. # 在name对应的list中添加元素,每个新的元素都添加到列表的最左边
  2. # 如:
  3. # r.lpush('oo', 11,22,33)
  4. # 保存顺序为: 33,22,11
  5. # 扩展:
  6. # rpush(name, values) 表示从右向左操作

lpushx(name,value)

  1. # 在name对应的list中添加元素,只有name已经存在时,值添加到列表的最左边
  2. # 更多:
  3. # rpushx(name, value) 表示从右向左操作

llen(name)

  1. # name对应的list元素的个数

linsert(name, where, refvalue, value))

  1. # 在name对应的列表的某一个值前或后插入一个新值
  2. # 参数:
  3. # name,redis的name
  4. # where,BEFORE或AFTER
  5. # refvalue,标杆值,即:在它前后插入数据
  6. # value,要插入的数据

r.lset(name, index, value)

  1. # 对name对应的list中的某一个索引位置重新赋值
  2. # 参数:
  3. # name,redis的name
  4. # index,list的索引位置
  5. # value,要设置的值

r.lrem(name, value, num)

  1. # 在name对应的list中删除指定的值
  2. # 参数:
  3. # name,redis的name
  4. # value,要删除的值
  5. # num, num=0,删除列表中所有的指定值;
  6. # num=2,从前到后,删除2个;
  7. # num=-2,从后向前,删除2个

lpop(name)

  1. # 在name对应的列表的左侧获取第一个元素并在列表中移除,返回值则是第一个元素
  2. # 更多:
  3. # rpop(name) 表示从右向左操作

lindex(name, index)

  1. # 在name对应的列表中根据索引获取列表元素

lrange(name, start, end)

  1. # 在name对应的列表分片获取数据
  2. # 参数:
  3. # name,redis的name
  4. # start,索引的起始位置
  5. # end,索引结束位置

ltrim(name, start, end)

  1. # 在name对应的列表中移除没有在start-end索引之间的值
  2. # 参数:
  3. # name,redis的name
  4. # start,索引的起始位置
  5. # end,索引结束位置

rpoplpush(src, dst)

  1. # 从一个列表取出最右边的元素,同时将其添加至另一个列表的最左边
  2. # 参数:
  3. # src,要取数据的列表的name
  4. # dst,要添加数据的列表的name

blpop(keys, timeout)

  1. # 将多个列表排列,按照从左到右去pop对应列表的元素
  2. # 参数:
  3. # keys,redis的name的集合
  4. # timeout,超时时间,当元素所有列表的元素获取完之后,阻塞等待列表内有数据的时间(秒), 0 表示永远阻塞
  5. # 更多:
  6. # r.brpop(keys, timeout),从右向左获取数据

brpoplpush(src, dst, timeout=0)

  1. # 从一个列表的右侧移除一个元素并将其添加到另一个列表的左侧
  2. # 参数:
  3. # src,取出并要移除元素的列表对应的name
  4. # dst,要插入元素的列表对应的name
  5. # timeout,当src对应的列表中没有数据时,阻塞等待其有数据的超时时间(秒),0 表示永远阻塞

自定义增量迭代

  1. # 由于redis类库中没有提供对列表元素的增量迭代,如果想要循环name对应的列表的所有元素,那么就需要:
  2. # 1、获取name对应的所有列表
  3. # 2、循环列表
  4. # 但是,如果列表非常大,那么就有可能在第一步时就将程序的内容撑爆,所有有必要自定义一个增量迭代的功能:
  5. def list_iter(name):
  6. """
  7. 自定义redis列表增量迭代
  8. :param name: redis中的name,即:迭代name对应的列表
  9. :return: yield 返回 列表元素
  10. """
  11. list_count = r.llen(name)
  12. for index in xrange(list_count):
  13. yield r.lindex(name, index)
  14. # 使用
  15. for item in list_iter('pp'):
  16. print (item)

Set操作,Set集合就是不允许重复的列表

sadd(name,values)

  1. # name对应的集合中添加元素

scard(name)

  1. # 获取name对应的集合中元素个数

sdiff(keys, *args)

  1. # 在第一个name对应的集合中且不在其他name对应的集合的元素集合

sdiffstore(dest, keys, *args)

  1. # 获取第一个name对应的集合中且不在其他name对应的集合,再将其新加入到dest对应的集合中

sinter(keys, *args)

  1. # 获取多一个name对应集合的并集

sinterstore(dest, keys, *args)

  1. # 获取多一个name对应集合的并集,再讲其加入到dest对应的集合中

sismember(name, value)

  1. # 检查value是否是name对应的集合的成员

smembers(name)

  1. # 获取name对应的集合的所有成员

smove(src, dst, value)

  1. # 将某个成员从一个集合中移动到另外一个集合

spop(name)

  1. # 从集合的右侧(尾部)移除一个成员,并将其返回

srandmember(name, numbers)

  1. # 从name对应的集合中随机获取 numbers 个元素

srem(name, values)

  1. # 在name对应的集合中删除某些值

sunion(keys, *args)

  1. # 获取多一个name对应的集合的并集

sunionstore(dest,keys, *args)

  1. # 获取多一个name对应的集合的并集,并将结果保存到dest对应的集合中

sscan(name, cursor=0, match=None, count=None)

sscan_iter(name, match=None, count=None)

  1. # 同字符串的操作,用于增量迭代分批获取元素,避免内存消耗太大

有序集合,在集合的基础上,为每元素排序;元素的排序需要根据另外一个值来进行比较,所以,对于有序集合,每一个元素有两个值,即:值和分数,分数专门用来做排序。

zadd(name, *args, **kwargs)

  1. # 在name对应的有序集合中添加元素
  2. # 如:
  3. # zadd('zz', 'n1', 1, 'n2', 2)
  4. # 或
  5. # zadd('zz', n1=11, n2=22)

zcard(name)

  1. # 获取name对应的有序集合元素的数量

zcount(name, min, max)

  1. # 获取name对应的有序集合中分数 在 [min,max] 之间的个数

zincrby(name, value, amount)

  1. # 自增name对应的有序集合的 name 对应的分数

r.zrange( name, start, end, desc=False, withscores=False, score_cast_func=float)

  1. # 按照索引范围获取name对应的有序集合的元素
  2. # 参数:
  3. # name,redis的name
  4. # start,有序集合索引起始位置(非分数)
  5. # end,有序集合索引结束位置(非分数)
  6. # desc,排序规则,默认按照分数从小到大排序
  7. # withscores,是否获取元素的分数,默认只获取元素的值
  8. # score_cast_func,对分数进行数据转换的函数
  9. # 更多:
  10. # 从大到小排序
  11. # zrevrange(name, start, end, withscores=False, score_cast_func=float)
  12. # 按照分数范围获取name对应的有序集合的元素
  13. # zrangebyscore(name, min, max, start=None, num=None, withscores=False, score_cast_func=float)
  14. # 从大到小排序
  15. # zrevrangebyscore(name, max, min, start=None, num=None, withscores=False, score_cast_func=float)

zrank(name, value)

  1. # 获取某个值在 name对应的有序集合中的排行(从 0 开始)
  2. # 更多:
  3. # zrevrank(name, value),从大到小排序

zrangebylex(name, min, max, start=None, num=None)

  1. # 当有序集合的所有成员都具有相同的分值时,有序集合的元素会根据成员的 值 (lexicographical ordering)来进行排序,而这个命令则可以返回给定的有序集合键 key 中, 元素的值介于 min 和 max 之间的成员
  2. # 对集合中的每个成员进行逐个字节的对比(byte-by-byte compare), 并按照从低到高的顺序, 返回排序后的集合成员。 如果两个字符串有一部分内容是相同的话, 那么命令会认为较长的字符串比较短的字符串要大
  3. # 参数:
  4. # name,redis的name
  5. # min,左区间(值)。 + 表示正无限; - 表示负无限; ( 表示开区间; [ 则表示闭区间
  6. # min,右区间(值)
  7. # start,对结果进行分片处理,索引位置
  8. # num,对结果进行分片处理,索引后面的num个元素
  9. # 如:
  10. # ZADD myzset 0 aa 0 ba 0 ca 0 da 0 ea 0 fa 0 ga
  11. # r.zrangebylex('myzset', "-", "[ca") 结果为:['aa', 'ba', 'ca']
  12. # 更多:
  13. # 从大到小排序
  14. # zrevrangebylex(name, max, min, start=None, num=None)

zrem(name, values)

  1. # 删除name对应的有序集合中值是values的成员
  2. # 如:zrem('zz', ['s1', 's2'])

zremrangebyrank(name, min, max)

  1. # 根据排行范围删除

zremrangebyscore(name, min, max)

  1. # 根据分数范围删除

zremrangebylex(name, min, max)

  1. # 根据值返回删除

zscore(name, value)

  1. # 获取name对应有序集合中 value 对应的分数

zinterstore(dest, keys, aggregate=None)

  1. # 获取两个有序集合的交集,如果遇到相同值不同分数,则按照aggregate进行操作
  2. # aggregate的值为: SUM MIN MAX

zunionstore(dest, keys, aggregate=None)

  1. # 获取两个有序集合的并集,如果遇到相同值不同分数,则按照aggregate进行操作
  2. # aggregate的值为: SUM MIN MAX

zscan(name, cursor=0, match=None, count=None, score_cast_func=float)

zscan_iter(name, match=None, count=None,score_cast_func=float)


  1. # 同字符串相似,相较于字符串新增score_cast_func,用来对分数进行操作

其他常用操作

delete(*names)

  1. # 根据删除redis中的任意数据类型

exists(name)

  1. # 检测redis的name是否存在

keys(pattern='*')

  1. # 根据模型获取redis的name
  2. # 更多:
  3. # KEYS * 匹配数据库中所有 key 。
  4. # KEYS h?llo 匹配 hello , hallo 和 hxllo 等。
  5. # KEYS h*llo 匹配 hllo 和 heeeeello 等。
  6. # KEYS h[ae]llo 匹配 hello 和 hallo ,但不匹配 hillo

expire(name ,time)

  1. # 为某个redis的某个name设置超时时间

rename(src, dst)

  1. # 对redis的name重命名为

move(name, db))

  1. # 将redis的某个值移动到指定的db下

randomkey()

  1. # 随机获取一个redis的name(不删除)

type(name)

  1. # 获取name对应值的类型

scan(cursor=0, match=None, count=None)

scan_iter(match=None, count=None)

  1. # 同字符串操作,用于增量迭代获取key
管道

redis-py默认在执行每次请求都会创建(连接池申请连接)和断开(归还连接池)一次连接操作,如果想要在一次请求中指定多个命令,则可以使用pipline实现一次请求指定多个命令,并且默认情况下一次pipline 是原子性操作。

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import redis
  4. pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
  5. r = redis.Redis(connection_pool=pool)
  6. # pipe = r.pipeline(transaction=False)
  7. pipe = r.pipeline(transaction=True)
  8. r.set('name', 'alex')
  9. r.set('role', 'sb')
  10. pipe.execute()
发布订阅

发布者:服务器

订阅者:Dashboad和数据处理

Demo如下:

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import redis
  4. class RedisHelper:
  5. def __init__(self):
  6. self.__conn = redis.Redis(host='10.211.55.4')
  7. self.chan_sub = 'fm104.5'
  8. self.chan_pub = 'fm104.5'
  9. def public(self, msg):
  10. self.__conn.publish(self.chan_pub, msg)
  11. return True
  12. def subscribe(self):
  13. pub = self.__conn.pubsub()
  14. pub.subscribe(self.chan_sub)
  15. pub.parse_response()
  16. return pub

订阅者:

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. from monitor.RedisHelper import RedisHelper
  4. obj = RedisHelper()
  5. redis_sub = obj.subscribe()
  6. while True:
  7. msg= redis_sub.parse_response()
  8. print (msg)

发布者:

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. from monitor.RedisHelper import RedisHelper
  4. obj = RedisHelper()
  5. obj.public('hello')

Python Day11的更多相关文章

  1. Python——day11 函数(对象、名称空间、作用域、嵌套、闭包)

    一.函数对象  函数名就是存放了函数的内存地址,存放了内存地址的变量都是对象,即 函数名 就是 函数对象  函数对象的应用 1. 可以直接被引用  fn = cp_fn 2 .可以当作函数参数传递 c ...

  2. python day11 函数(第三篇)

    2019.4.11 S21 day11笔记总结 1. 函数小高级 ( 5* ) 1 函数名可以当作变量来使用 def func(): print(123) v1 = func # func代表函数的地 ...

  3. python day11 ——1. 函数名的使⽤ 2. 闭包 3. 迭代器

    ⼀. 函数名的运⽤. 1.函数名的内存地址 def func():    print("呵呵") print(func) 结果: <function func at 0x11 ...

  4. Python day11 filter函数筛选数据,reduce函数压缩数据的源码详解

    1.filter滤波器函数定义一个数组,需求:过滤出带ii的字符串 arr=['dsdsdii','qqwe','pppdiimmm','sdsa','sshucsii','iisdsa'] def ...

  5. 跟着太白老师学python day11 可迭代对象和迭代器

    如果对象的属性中有__iter__属性就说明是可迭代的,容器类的数据类型都是可迭代对象 如果对象的属性中既有__iter__属性也有__next__属性,就说明这个对象是迭代器 如何判断一个函数是不是 ...

  6. 跟着太白老师学python day11 闭包 及在爬虫中的基本使用

    闭包的基本概念: 闭包 内层函数对外层函数的变量(不包括全局变量)的引用,并返回,这样就形成了闭包 闭包的作用:当程序执行时,遇到了函数执行,它会在内存中开辟一个空间,如果这个函数内部形成了闭包, 那 ...

  7. 跟着太白老师学python day11 函数名的应用 globals(), locals()

    1.  函数名就是内存地址 def func(): ') print(func) >>>> <function func at 0x00000000003DC1E0> ...

  8. python基础 Day11

    python Day11 函数中默认参数的陷阱 只针对默认参数是可变的数据类型(如果你的默认参数指向的是可变的数据类型,那么你无论调用多少次默认参数,都是同一个) def test(name,list ...

  9. python 之路,Day11 (下)- sqlalchemy ORM

    python 之路,Day11 - sqlalchemy ORM   本节内容 ORM介绍 sqlalchemy安装 sqlalchemy基本使用 多外键关联 多对多关系 表结构设计作业 1. ORM ...

随机推荐

  1. Genymotion报Unable to load virtualbox engine错误

  2. 高仿ios版美团框架项目源码

    高仿美团框架基本已搭好.代码简单易懂,适合新人.适合新人.新人. <ignore_js_op>     源码你可以到ios教程网那里下载吧,这里我就不上传了,http://ios.662p ...

  3. 如何用Github版本控制非Github库

    Git的图形化客户端有很多,不同的人可能习惯用不同的客户端.本人更习惯于Github的客户端,因为上Github比较多,同步代码到Github用官方的客户端是最方便的,所以也就更习惯于使用Github ...

  4. 通过拦截器Interceptor实现Spring MVC中Controller接口访问信息的记录

    java web工程项目使用了Spring+Spring MVC+Hibernate的结构,在Controller中的方法都是用于处理前端的访问信息,Controller通过调用Service进行业务 ...

  5. 一道关于java序列化的问题,看大家知多少————

    问题先放在这里,稍后我会做出解答 已知类有Test和Test2,问两次主程序的输出结果是多少(SerializeUtil只是序列化的工具类) 类Test public class Test imple ...

  6. 无刷新读取数据库 (ajax)

    <html> <head> <script type="text/javascript"> function loadXMLDoc() { va ...

  7. Solr实战:使用Hue+Solr实现标签查询

    公司最近在研究多条件组合查询方案,Google的一位技术专家Sam和我们讨论了几个备选方案. Sam的信: 我做了进一步研究,目前有这么几种做法: 1) 最直接粗暴,只做一个主index,比如按行业+ ...

  8. python 发送邮件

    # coding=utf-8 import smtplibfrom time import sleepfrom email.mime.text import MIMETextfrom email.mi ...

  9. 【Pyrosim案例】01:空气流动

    1 案例说明 Pyrosim是一款FDS前后处理软件.以一个非常简单的案例来描述Pyrosim的工作流程.本案例计算域中包含一个空气入口,一个环境出口. 案例主要演示以下内容: 创建Vents 增加切 ...

  10. everything + autohotkey的配合使用

    一,everything是文件搜索神奇,瞬间定位到文件,在众多的文件中找到你需要的文件.(百度下载就好,分32位和64位)   二,autohotkey是热键启动设置,方便的打开常用的应用. 直接使用 ...