RabbitMQ

解释RabbitMQ,就不得不提到AMQP(Advanced Message Queuing Protocol)协议。 AMQP协议是一种基于网络的消息传输协议,它能够在应用或组织之间提供可靠的消息传输。RabbitMQ是该AMQP协议的一种实现,利用它,可以将消息安全可靠的从发 送方传输到接收方。简单的说,就是消息发送方利用RabbitMQ将信息安全的传递给接收方。

RabbitMQ是一个在AMQP基础上完整的,可复用的企业消息系统。他遵循Mozilla Public License开源协议。

MQ全称为Message Queue, 消息队列(MQ)是一种应用程序对应用程序的通信方法。应用程序通过读写出入队列的消息(针对应用程序的数据)来通信,而无需专用连接来链接它们。消 息传递指的是程序之间通过在消息中发送数据进行通信,而不是通过直接调用彼此来通信,直接调用通常是用于诸如远程过程调用的技术。排队指的是应用程序通过 队列来通信。队列的使用除去了接收和发送应用程序同时执行的要求。

1 RabbitMQ安装

for Linux:

  1. 安装配置epel
  2. $ rpm -ivh http://dl.fedoraproject.org/pub/epel/6/i386/epel-release-6-8.noarch.rpm
  3.  
  4. 安装erlang
  5. $ yum -y install erlang
  6.  
  7. 安装RabbitMQ
  8. $ yum -y install rabbitmq-server

注意:service rabbitmq-server start/stop

for mac:

http://my.oschina.net/u/998693/blog/547873

安装API

  1. pip install pika
  2. or
  3. easy_install pika
  4. or
  5. 源码
  6.  
  7. https://pypi.python.org/pypi/pika

使用API操作RabbitMQ

2 简单队列模型

  1. 基于Queue实现生产者消费者模型
  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import Queue
  4. import threading
  5.  
  6. message = Queue.Queue(10)
  7.  
  8. def producer(i):
  9. while True:
  10. message.put(i)
  11.  
  12. def consumer(i):
  13. while True:
  14. msg = message.get()
  15.  
  16. for i in range(12):
  17. t = threading.Thread(target=producer, args=(i,))
  18. t.start()
  19.  
  20. for i in range(10):
  21. t = threading.Thread(target=consumer, args=(i,))
  22. t.start()

对于RabbitMQ来说,生产和消费不再针对内存里的一个Queue对象,而是某台服务器上的RabbitMQ Server实现的消息队列。

  1. #!/usr/bin/env python
  2. import pika
  3.  
  4. # ######################### 生产者 #########################
  5.  
  6. connection = pika.BlockingConnection(pika.ConnectionParameters(
  7. host='localhost'))
  8. channel = connection.channel()
  9.  
  10. channel.queue_declare(queue='hello')
  11.  
  12. channel.basic_publish(exchange='',
  13. routing_key='hello',
  14. body='Hello World!')
  15. print(" [x] Sent 'Hello World!'")
  16. connection.close()
  17.  
  18. #!/usr/bin/env python
  19. import pika
  20.  
  21. # ########################## 消费者 ##########################
  22.  
  23. connection = pika.BlockingConnection(pika.ConnectionParameters(
  24. host='localhost'))
  25. channel = connection.channel()
  26.  
  27. channel.queue_declare(queue='hello')
  28.  
  29. def callback(ch, method, properties, body):
  30. print(" [x] Received %r" % body)
  31.  
  32. channel.basic_consume(callback,
  33. queue='hello',
  34. no_ack=True)
  35.  
  36. print(' [*] Waiting for messages. To exit press CTRL+C')
  37. channel.start_consuming()

重要参数介绍:

(1)acknowledgment 消息不丢失

no-ack = False,如果消费者遇到情况(its channel is closed, connection is closed, or TCP connection is lost)挂掉了,那么,RabbitMQ会重新将该任务添加到队列中。

  1. import pika
  2.  
  3. connection = pika.BlockingConnection(pika.ConnectionParameters(
  4. host='10.211.55.4'))
  5. channel = connection.channel()
  6.  
  7. channel.queue_declare(queue='hello')
  8.  
  9. def callback(ch, method, properties, body):
  10. print(" [x] Received %r" % body)
  11. import time
  12. time.sleep(10)
  13. print 'ok'
  14. ch.basic_ack(delivery_tag = method.delivery_tag)
  15.  
  16. channel.basic_consume(callback,
  17. queue='hello',
  18. no_ack=False)
  19.  
  20. print(' [*] Waiting for messages. To exit press CTRL+C')
  21. channel.start_consuming()

(2)durable   消息不丢失

生产者:

  1. #!/usr/bin/env python
  2. import pika
  3.  
  4. connection = pika.BlockingConnection(pika.ConnectionParameters(host='10.211.55.4'))
  5. channel = connection.channel()
  6.  
  7. # make message persistent
  8. channel.queue_declare(queue='hello', durable=True)
  9.  
  10. channel.basic_publish(exchange='',
  11. routing_key='hello',
  12. body='Hello World!',
  13. properties=pika.BasicProperties(
  14. delivery_mode=2, # make message persistent
  15. ))
  16. print(" [x] Sent 'Hello World!'")
  17. connection.close()

消费者:

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import pika
  4.  
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(host='10.211.55.4'))
  6. channel = connection.channel()
  7.  
  8. # make message persistent
  9. channel.queue_declare(queue='hello', durable=True)
  10.  
  11. def callback(ch, method, properties, body):
  12. print(" [x] Received %r" % body)
  13. import time
  14. time.sleep(10)
  15. print 'ok'
  16. ch.basic_ack(delivery_tag = method.delivery_tag)
  17.  
  18. channel.basic_consume(callback,
  19. queue='hello',
  20. no_ack=False)
  21.  
  22. print(' [*] Waiting for messages. To exit press CTRL+C')
  23. channel.start_consuming()

(3)消息获取顺序

默认消息队列里的数据是按照顺序被消费者拿走,例如:消费者1 去队列中获取 奇数 序列的任务,消费者1去队列中获取 偶数 序列的任务。

channel.basic_qos(prefetch_count=1) 表示谁来谁取,不再按照奇偶数排列

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import pika
  4.  
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(host='10.211.55.4'))
  6. channel = connection.channel()
  7.  
  8. # make message persistent
  9. channel.queue_declare(queue='hello')
  10.  
  11. def callback(ch, method, properties, body):
  12. print(" [x] Received %r" % body)
  13. import time
  14. time.sleep(10)
  15. print 'ok'
  16. ch.basic_ack(delivery_tag = method.delivery_tag)
  17.  
  18. channel.basic_qos(prefetch_count=1)
  19.  
  20. channel.basic_consume(callback,
  21. queue='hello',
  22. no_ack=False)
  23.  
  24. print(' [*] Waiting for messages. To exit press CTRL+C')
  25. channel.start_consuming()

3  exchange工作模型(fanout,direct,topic)

3.1 发布订阅

发布订阅和简单的消息队列区别在于,发布订阅会将消息发送给所有的订阅者,而消息队列中的数据被消费一次便消失。所以,RabbitMQ实现发布和订阅时,会为每一个订阅者创建一个队列,而发布者发布消息时,会将消息放置在所有相关队列中。

exchange type = fanout

  1. #!/usr/bin/env python
  2. import pika
  3. import sys
  4.  
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(
  6. host='localhost'))
  7. channel = connection.channel()
  8.  
  9. channel.exchange_declare(exchange='logs',
  10. type='fanout')
  11.  
  12. message = ' '.join(sys.argv[1:]) or "info: Hello World!"
  13. channel.basic_publish(exchange='logs',
  14. routing_key='',
  15. body=message)
  16. print(" [x] Sent %r" % message)
  17. connection.close()
  1. #!/usr/bin/env python
  2. import pika
  3.  
  4. connection = pika.BlockingConnection(pika.ConnectionParameters(
  5. host='localhost'))
  6. channel = connection.channel()
  7.  
  8. channel.exchange_declare(exchange='logs',
  9. type='fanout')
  10.  
  11. result = channel.queue_declare(exclusive=True)
  12. queue_name = result.method.queue
  13.  
  14. channel.queue_bind(exchange='logs',
  15. queue=queue_name)
  16.  
  17. print(' [*] Waiting for logs. To exit press CTRL+C')
  18.  
  19. def callback(ch, method, properties, body):
  20. print(" [x] %r" % body)
  21.  
  22. channel.basic_consume(callback,
  23. queue=queue_name,
  24. no_ack=True)
  25.  
  26. channel.start_consuming()
  27.  
  28. 订阅者

3.2 关键字发送

exchange type = direct

之前事例,发送消息时明确指定某个队列并向其中发送消息,RabbitMQ还支持根据关键字发送,即:队列绑定关键字,发送者将数据根据关键字发送到消息exchange,exchange根据 关键字 判定应该将数据发送至指定队列。

  1. #!/usr/bin/env python
  2. import pika
  3. import sys
  4.  
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(
  6. host='localhost'))
  7. channel = connection.channel()
  8.  
  9. channel.exchange_declare(exchange='direct_logs',
  10. type='direct')
  11.  
  12. result = channel.queue_declare(exclusive=True)
  13. queue_name = result.method.queue
  14.  
  15. severities = sys.argv[1:]
  16. if not severities:
  17. sys.stderr.write("Usage: %s [info] [warning] [error]\n" % sys.argv[0])
  18. sys.exit(1)
  19.  
  20. for severity in severities:
  21. channel.queue_bind(exchange='direct_logs',
  22. queue=queue_name,
  23. routing_key=severity)
  24.  
  25. print(' [*] Waiting for logs. To exit press CTRL+C')
  26.  
  27. def callback(ch, method, properties, body):
  28. print(" [x] %r:%r" % (method.routing_key, body))
  29.  
  30. channel.basic_consume(callback,
  31. queue=queue_name,
  32. no_ack=True)
  33.  
  34. channel.start_consuming()
  1. #!/usr/bin/env python
  2. import pika
  3. import sys
  4.  
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(
  6. host='localhost'))
  7. channel = connection.channel()
  8.  
  9. channel.exchange_declare(exchange='direct_logs',
  10. type='direct')
  11.  
  12. severity = sys.argv[1] if len(sys.argv) > 1 else 'info'
  13. message = ' '.join(sys.argv[2:]) or 'Hello World!'
  14. channel.basic_publish(exchange='direct_logs',
  15. routing_key=severity,
  16. body=message)
  17. print(" [x] Sent %r:%r" % (severity, message))
  18. connection.close()

3.3 模糊匹配

exchange type = topic

在topic类型下,可以让队列绑定几个模糊的关键字,之后发送者将数据发送到exchange,exchange将传入”路由值“和 ”关键字“进行匹配,匹配成功,则将数据发送到指定队列。

  • # 表示可以匹配 0 个 或 多个 单词
  • *  表示只能匹配 一个 单词
  1. 发送者路由值 队列中
  2. old.boy.python old.* -- 不匹配
  3. old.boy.python old.# -- 匹配
  1. #!/usr/bin/env python
  2. import pika
  3. import sys
  4.  
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(
  6. host='localhost'))
  7. channel = connection.channel()
  8.  
  9. channel.exchange_declare(exchange='topic_logs',
  10. type='topic')
  11.  
  12. result = channel.queue_declare(exclusive=True)
  13. queue_name = result.method.queue
  14.  
  15. binding_keys = sys.argv[1:]
  16. if not binding_keys:
  17. sys.stderr.write("Usage: %s [binding_key]...\n" % sys.argv[0])
  18. sys.exit(1)
  19.  
  20. for binding_key in binding_keys:
  21. channel.queue_bind(exchange='topic_logs',
  22. queue=queue_name,
  23. routing_key=binding_key)
  24.  
  25. print(' [*] Waiting for logs. To exit press CTRL+C')
  26.  
  27. def callback(ch, method, properties, body):
  28. print(" [x] %r:%r" % (method.routing_key, body))
  29.  
  30. channel.basic_consume(callback,
  31. queue=queue_name,
  32. no_ack=True)
  33.  
  34. channel.start_consuming()
  35.  
  36. 消费者
  1. #!/usr/bin/env python
  2. import pika
  3. import sys
  4.  
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(
  6. host='localhost'))
  7. channel = connection.channel()
  8.  
  9. channel.exchange_declare(exchange='topic_logs',
  10. type='topic')
  11.  
  12. routing_key = sys.argv[1] if len(sys.argv) > 1 else 'anonymous.info'
  13. message = ' '.join(sys.argv[2:]) or 'Hello World!'
  14. channel.basic_publish(exchange='topic_logs',
  15. routing_key=routing_key,
  16. body=message)
  17. print(" [x] Sent %r:%r" % (routing_key, message))
  18. connection.close()
  19.  
  20. 生产者

缓存之memcached

Memcached 是一个高性能的分布式内存对象缓存系统,用于动态Web应用以减轻数据库负载。它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提高动态、数据库驱动网站的速度。Memcached基于一个存储键/值对的hashmap

memcached 是以LiveJournal 旗下Danga Interactive 公司的Brad Fitzpatric 为首开发的一款软件。现在已成为 mixi、 hatena、 Facebook、 Vox、LiveJournal等众多服务中 提高Web应用扩展性的重要因素。

许多Web应用都将数据保存到RDBMS中,应用服务器从中读取数据并在浏览器中显示。 但随着数据量的增大、访问的集中,就会出现RDBMS的负担加重、数据库响应恶化、 网站显示延迟等重大影响。

这时就该memcached大显身手了。memcached是高性能的分布式内存缓存服务器。 一般的使用目的是,通过缓存数据库查询结果,减少数据库访问次数,以提高动态Web应用的速度、 提高可扩展性。

Memcached安装和基本使用

Memcached安装:

  1. wget http://memcached.org/latest
  2. tar -zxvf memcached-1.x.x.tar.gz
  3. cd memcached-1.x.x
  4. ./configure && make && make test && sudo make install
  5.  
  6. PS:依赖libevent
  7. yum install libevent-devel
  8. apt-get install libevent-dev

启动Memcached:

  1. memcached -d -m 10 -u root -l 10.211.55.4 -p 12000 -c 256 -P /tmp/memcached.pid
  2.  
  3. 参数说明:
  4. -d 是启动一个守护进程
  5. -m 是分配给Memcache使用的内存数量,单位是MB
  6. -u 是运行Memcache的用户
  7. -l 是监听的服务器IP地址
  8. -p 是设置Memcache监听的端口,最好是1024以上的端口
  9. -c 选项是最大运行的并发连接数,默认是1024,按照你服务器的负载量来设定
  10. -P 是设置保存Memcachepid文件

Memcached命令:

  1. 存储命令: set/add/replace/append/prepend/cas
  2. 获取命令: get/gets
  3. 其他命令: delete/stats..

Python操作Memcached

安装API

  1. python操作Memcached使用Python-memcached模块
  2. 下载安装:https://pypi.python.org/pypi/python-memcached

1、第一次操作

  1. import memcache
  2.  
  3. mc = memcache.Client(['10.211.55.4:12000'], debug=True)
  4. mc.set("foo", "bar")
  5. ret = mc.get('foo')
  6. print ret

Ps:debug = True 表示运行出现错误时,显示错误信息,上线后移除该参数。

2、天生支持集群

python-memcached模块原生支持集群操作,其原理是在内存维护一个主机列表,且集群中主机的权重值和主机在列表中重复出现的次数成正比

  1. 主机 权重
  2. 1.1.1.1 1
  3. 1.1.1.2 2
  4. 1.1.1.3 1
  5.  
  6. 那么在内存中主机列表为:
  7. host_list = ["1.1.1.1", "1.1.1.2", "1.1.1.2", "1.1.1.3", ]

如果用户根据如果要在内存中创建一个键值对(如:k1 = "v1"),那么要执行一下步骤:

  • 根据算法将 k1 转换成一个数字
  • 将数字和主机列表长度求余数,得到一个值 N( 0 <= N < 列表长度 )
  • 在主机列表中根据 第2步得到的值为索引获取主机,例如:host_list[N]
  • 连接 将第3步中获取的主机,将 k1 = "v1" 放置在该服务器的内存中

代码实现如下:

  1. mc = memcache.Client([('1.1.1.1:12000', 1), ('1.1.1.2:12000', 2), ('1.1.1.3:12000', 1)], debug=True)
  2.  
  3. mc.set('k1', 'v1')

3、add

添加一条键值对,如果已经存在的 key,重复执行add操作异常

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import memcache
  4.  
  5. mc = memcache.Client(['10.211.55.4:12000'], debug=True)
  6. mc.add('k1', 'v1')
  7. # mc.add('k1', 'v2') # 报错,对已经存在的key重复添加,失败!!!

4、replace

replace 修改某个key的值,如果key不存在,则异常

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import memcache
  4.  
  5. mc = memcache.Client(['10.211.55.4:12000'], debug=True)
  6. # 如果memcache中存在kkkk,则替换成功,否则一场
  7. mc.replace('kkkk','999')

5、set 和 set_multi

set            设置一个键值对,如果key不存在,则创建,如果key存在,则修改
set_multi   设置多个键值对,如果key不存在,则创建,如果key存在,则修改

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import memcache
  4.  
  5. mc = memcache.Client(['10.211.55.4:12000'], debug=True)
  6.  
  7. mc.set('key0', 'wupeiqi')
  8.  
  9. mc.set_multi({'key1': 'val1', 'key2': 'val2'})

6、delete 和 delete_multi

delete             在Memcached中删除指定的一个键值对
delete_multi    在Memcached中删除指定的多个键值对

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import memcache
  4.  
  5. mc = memcache.Client(['10.211.55.4:12000'], debug=True)
  6.  
  7. mc.delete('key0')
  8. mc.delete_multi(['key1', 'key2'])

7、get 和 get_multi

get            获取一个键值对
get_multi   获取多一个键值对

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import memcache
  4.  
  5. mc = memcache.Client(['10.211.55.4:12000'], debug=True)
  6.  
  7. val = mc.get('key0')
  8. item_dict = mc.get_multi(["key1", "key2", "key3"])

8、append 和 prepend

append    修改指定key的值,在该值 后面 追加内容
prepend   修改指定key的值,在该值 前面 插入内容

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import memcache
  4.  
  5. mc = memcache.Client(['10.211.55.4:12000'], debug=True)
  6. # k1 = "v1"
  7.  
  8. mc.append('k1', 'after')
  9. # k1 = "v1after"
  10.  
  11. mc.prepend('k1', 'before')
  12. # k1 = "beforev1after"

9、decr 和 incr 

incr  自增,将Memcached中的某一个值增加 N ( N默认为1 )
decr 自减,将Memcached中的某一个值减少 N ( N默认为1 )

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import memcache
  4.  
  5. mc = memcache.Client(['10.211.55.4:12000'], debug=True)
  6. mc.set('k1', '777')
  7.  
  8. mc.incr('k1')
  9. # k1 = 778
  10.  
  11. mc.incr('k1', 10)
  12. # k1 = 788
  13.  
  14. mc.decr('k1')
  15. # k1 = 787
  16.  
  17. mc.decr('k1', 10)
  18. # k1 = 777

10、gets 和 cas

如商城商品剩余个数,假设改值保存在memcache中,product_count = 900
A用户刷新页面从memcache中读取到product_count = 900
B用户刷新页面从memcache中读取到product_count = 900

如果A、B用户均购买商品

A用户修改商品剩余个数 product_count=899
B用户修改商品剩余个数 product_count=899

如此一来缓存内的数据便不在正确,两个用户购买商品后,商品剩余还是 899
如果使用python的set和get来操作以上过程,那么程序就会如上述所示情况!

如果想要避免此情况的发生,只要使用 gets 和 cas 即可,如:

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3. import memcache
  4. mc = memcache.Client(['10.211.55.4:12000'], debug=True, cache_cas=True)
  5.  
  6. v = mc.gets('product_count')
  7. # ...
  8. # 如果有人在gets之后和cas之前修改了product_count,那么,下面的设置将会执行失败,剖出异常,从而避免非正常数据的产生
  9. mc.cas('product_count', "899")

Ps:本质上每次执行gets时,会从memcache中获取一个自增的数字,通过cas去修改gets的值时,会携带之前获取的自增值和memcache中的自增值进行比较,如果相等,则可以提交,如果不想等,那表示在gets和cas执行之间,又有其他人执行了gets(获取了缓冲的指定值), 如此一来有可能出现非正常数据,则不允许修改。

Memcached 真的过时了吗?

缓存之redis

redis是一个key-value存储系统。和Memcached类似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash(哈希类型)。这些数据类型都支持push/pop、add/remove及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的。在此基础上,redis支持各种不同方式的排序。与memcached一样,为了保证效率,数据都是缓存在内存中。区别的是redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件,并且在此基础上实现了master-slave(主从)同步。

一、Redis安装和基本使用

  1. wget http://download.redis.io/releases/redis-3.0.6.tar.gz
  2. tar xzf redis-3.0.6.tar.gz
  3. cd redis-3.0.6
  4. make

启动服务端

  1. src/redis-server

启动客户端

  1. src/redis-cli
  2. redis> set foo bar
  3. OK
  4. redis> get foo
  5. "bar"

二、Python操作Redis

  1. sudo pip install redis
  2. or
  3. sudo easy_install redis
  4. or
  5. 源码安装
  6.  
  7. 详见:https://github.com/WoLpH/redis-py

API使用

redis-py 的API的使用可以分类为:

  • 连接方式
  • 连接池
  • 操作
      • String 操作
      • Hash 操作
      • List 操作
      • Set 操作
      • Sort Set 操作
  • 管道
  • 发布订阅

1、操作模式

redis-py提供两个类Redis和StrictRedis用于实现Redis的命令,StrictRedis用于实现大部分官方的命令,并使用官方的语法和命令,Redis是StrictRedis的子类,用于向后兼容旧版本的redis-py。

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3.  
  4. import redis
  5.  
  6. r = redis.Redis(host='10.211.55.4', port=6379)
  7. r.set('foo', 'Bar')
  8. print r.get('foo')

2、连接池

redis-py使用connection pool来管理对一个redis server的所有连接,避免每次建立、释放连接的开销。默认,每个Redis实例都会维护一个自己的连接池。可以直接建立一个连接池,然后作为参数Redis,这样就可以实现多个Redis实例共享一个连接池。

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3.  
  4. import redis
  5.  
  6. pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
  7.  
  8. r = redis.Redis(connection_pool=pool)
  9. r.set('foo', 'Bar')
  10. print r.get('foo')

3、操作

String操作,redis中的String在在内存中按照一个name对应一个value来存储。如图:

set(name, value, ex=None, px=None, nx=False, xx=False)

  1. Redis中设置值,默认,不存在则创建,存在则修改
  2. 参数:
  3. ex,过期时间(秒)
  4. px,过期时间(毫秒)
  5. nx,如果设置为True,则只有name不存在时,当前set操作才执行
  6. xx,如果设置为True,则只有name存在时,岗前set操作才执行

setnx(name, value)

  1. 设置值,只有name不存在时,执行设置操作(添加)

setex(name, value, time)

  1. # 设置值
  2. # 参数:
  3. # time,过期时间(数字秒 或 timedelta对象)

psetex(name, time_ms, value)

  1. # 设置值
  2. # 参数:
  3. # time_ms,过期时间(数字毫秒 或 timedelta对象)

mset(*args, **kwargs)

  1. 批量设置值
  2. 如:
  3. mset(k1='v1', k2='v2')

  4. mget({'k1': 'v1', 'k2': 'v2'})

get(name)

  1. #获取值

mget(keys, *args)

  1. #批量获取
  2. #如:
  3. mget('ylr', 'wupeiqi')
  4. # 或
  5. r.mget(['ylr', 'wupeiqi'])

getset(name, value)

  1. #设置新值并获取原来的值

getrange(key, start, end)

  1. # 获取子序列(根据字节获取,非字符)
  2. # 参数:
  3. # name,Redis 的 name
  4. # start,起始位置(字节)
  5. # end,结束位置(字节)

setrange(name, offset, value)

  1. # 修改字符串内容,从指定字符串索引开始向后替换(新值太长时,则向后添加)
  2. # 参数:
  3. # offset,字符串的索引,字节(一个汉字三个字节)
  4. # value,要设置的值

setbit(name, offset, value)

  1. # 对name对应值的二进制表示的位进行操作
  2.  
  3. # 参数:
  4. # name,redis的name
  5. # offset,位的索引(将值变换成二进制后再进行索引)
  6. # value,值只能是 1 或 0
  7.  
  8. # 注:如果在Redis中有一个对应: n1 = "foo",
  9. 那么字符串foo的二进制表示为:01100110 01101111 01101111
  10. 所以,如果执行 setbit('n1', 7, 1),则就会将第7位设置为1
  11. 那么最终二进制则变成 01100111 01101111 01101111,即:"goo"
  12.  
  13. # 扩展,转换二进制表示:
  14.  
  15. # source = "苑辰奇"
  16. source = "foo"
  17.  
  18. for i in source:
  19. num = ord(i)
  20. print bin(num).replace('b','')
  21.  
  22. 特别的,如果source是汉字 "苑辰奇"怎么办?
  23. 答:对于utf-8,每一个汉字占 3 个字节,那么 "苑辰奇" 则有 9个字节
  24. 对于汉字,for循环时候会按照 字节 迭代,那么在迭代时,将每一个字节转换 十进制数,然后再将十进制数转换成二进制

getbit(name, offset)

  1. # 获取name对应的值的二进制表示中的某位的值 (0或1)

bitcount(key, start=None, end=None)

  1. # 获取name对应的值的二进制表示中 1 的个数
  2. # 参数:
  3. # key,Redis的name
  4. # start,位起始位置
  5. # end,位结束位置

bitop(operation, dest, *keys)

  1. # 获取多个值,并将值做位运算,将最后的结果保存至新的name对应的值
  2.  
  3. # 参数:
  4. # operation,AND(并) 、 OR(或) 、 NOT(非) 、 XOR(异或)
  5. # dest, 新的Redis的name
  6. # *keys,要查找的Redis的name
  7.  
  8. # 如:
  9. bitop("AND", 'new_name', 'n1', 'n2', 'n3')
  10. # 获取Redis中n1,n2,n3对应的值,然后讲所有的值做位运算(求并集),然后将结果保存 new_name 对应的值中

strlen(name)

  1. # 返回name对应值的字节长度(一个汉字3个字节)

incr(self, name, amount=1)

  1. # 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
  2.  
  3. # 参数:
  4. # name,Redis的name
  5. # amount,自增数(必须是整数)
  6.  
  7. # 注:同incrby

incrbyfloat(self, name, amount=1.0)

  1. # 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
  2.  
  3. # 参数:
  4. # name,Redis的name
  5. # amount,自增数(浮点型)

decr(self, name, amount=1)

  1. # 自减 name对应的值,当name不存在时,则创建name=amount,否则,则自减。
  2.  
  3. # 参数:
  4. # name,Redis的name
  5. # amount,自减数(整数)

append(key, value)

  1. # 在redis name对应的值后面追加内容
  2.  
  3. # 参数:
  4. key, redisname
  5. value, 要追加的字符串

Hash操作,redis中Hash在内存中的存储格式如下图:

hset(name, key, value)

  1. # name对应的hash中设置一个键值对(不存在,则创建;否则,修改)
  2.  
  3. # 参数:
  4. # name,redis的name
  5. # key,name对应的hash中的key
  6. # value,name对应的hash中的value
  7.  
  8. # 注:
  9. # hsetnx(name, key, value),当name对应的hash中不存在当前key时则创建(相当于添加)

hmset(name, mapping)

  1. # 在name对应的hash中批量设置键值对
  2.  
  3. # 参数:
  4. # name,redis的name
  5. # mapping,字典,如:{'k1':'v1', 'k2': 'v2'}
  6.  
  7. # 如:
  8. # r.hmset('xx', {'k1':'v1', 'k2': 'v2'})

hget(name,key)

  1. # 在name对应的hash中获取根据key获取value

hmget(name, keys, *args)

  1. # 在name对应的hash中获取多个key的值
  2.  
  3. # 参数:
  4. # name,reids对应的name
  5. # keys,要获取key集合,如:['k1', 'k2', 'k3']
  6. # *args,要获取的key,如:k1,k2,k3
  7.  
  8. # 如:
  9. # r.mget('xx', ['k1', 'k2'])
  10. # 或
  11. # print r.hmget('xx', 'k1', 'k2')

hgetall(name)

  1. #获取name对应hash的所有键值

hlen(name)

  1. # 获取name对应的hash中键值对的个数

hkeys(name)

  1. # 获取name对应的hash中所有的key的值

hvals(name)

  1. # 获取name对应的hash中所有的value的值

hexists(name, key)

  1. # 检查name对应的hash是否存在当前传入的key

hdel(name,*keys)

  1. # 将name对应的hash中指定key的键值对删除

hincrby(name, key, amount=1)

  1. # 自增name对应的hash中的指定key的值,不存在则创建key=amount
  2. # 参数:
  3. # name,redis中的name
  4. # key, hash对应的key
  5. # amount,自增数(整数)

hincrbyfloat(name, key, amount=1.0)

  1. # 自增name对应的hash中的指定key的值,不存在则创建key=amount
  2.  
  3. # 参数:
  4. # name,redis中的name
  5. # key, hash对应的key
  6. # amount,自增数(浮点数)
  7.  
  8. # 自增name对应的hash中的指定key的值,不存在则创建key=amount

hscan(name, cursor=0, match=None, count=None)

  1. # 增量式迭代获取,对于数据大的数据非常有用,hscan可以实现分片的获取数据,并非一次性将数据全部获取完,从而放置内存被撑爆
  2.  
  3. # 参数:
  4. # name,redis的name
  5. # cursor,游标(基于游标分批取获取数据)
  6. # match,匹配指定key,默认None 表示所有的key
  7. # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
  8.  
  9. # 如:
  10. # 第一次:cursor1, data1 = r.hscan('xx', cursor=0, match=None, count=None)
  11. # 第二次:cursor2, data1 = r.hscan('xx', cursor=cursor1, match=None, count=None)
  12. # ...
  13. # 直到返回值cursor的值为0时,表示数据已经通过分片获取完毕

hscan_iter(name, match=None, count=None)

  1. # 利用yield封装hscan创建生成器,实现分批去redis中获取数据
  2.  
  3. # 参数:
  4. # match,匹配指定key,默认None 表示所有的key
  5. # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
  6.  
  7. # 如:
  8. # for item in r.hscan_iter('xx'):
  9. # print item
  1. List操作,redis中的List在在内存中按照一个name对个List来存储。如图:

lpush(name,values)

  1. # 在name对应的list中添加元素,每个新的元素都添加到列表的最左边
  2.  
  3. # 如:
  4. # r.lpush('oo', 11,22,33)
  5. # 保存顺序为: 33,22,11
  6.  
  7. # 扩展:
  8. # rpush(name, values) 表示从右向左操作

lpushx(name,value)

  1. # 在name对应的list中添加元素,只有name已经存在时,值添加到列表的最左边
  2.  
  3. # 更多:
  4. # rpushx(name, value) 表示从右向左操作

llen(name)

  1. # name对应的list元素的个数

linsert(name, where, refvalue, value))

  1. # 在name对应的列表的某一个值前或后插入一个新值
  2.  
  3. # 参数:
  4. # name,redis的name
  5. # where,BEFORE或AFTER
  6. # refvalue,标杆值,即:在它前后插入数据
  7. # value,要插入的数据

r.lset(name, index, value)

  1. # 对name对应的list中的某一个索引位置重新赋值
  2.  
  3. # 参数:
  4. # name,redis的name
  5. # index,list的索引位置
  6. # value,要设置的值

r.lrem(name, value, num)

  1. # 在name对应的list中删除指定的值
  2.  
  3. # 参数:
  4. # name,redis的name
  5. # value,要删除的值
  6. # num, num=0,删除列表中所有的指定值;
  7. # num=2,从前到后,删除2个;
  8. # num=-2,从后向前,删除2个

lpop(name)

  1. # 在name对应的列表的左侧获取第一个元素并在列表中移除,返回值则是第一个元素
  2.  
  3. # 更多:
  4. # rpop(name) 表示从右向左操作

lindex(name, index)

  1. #在name对应的列表中根据索引获取列表元素

lrange(name, start, end)

  1. # 在name对应的列表分片获取数据
  2. # 参数:
  3. # name,redis的name
  4. # start,索引的起始位置
  5. # end,索引结束位置

ltrim(name, start, end)

  1. # 在name对应的列表中移除没有在start-end索引之间的值
  2. # 参数:
  3. # name,redis的name
  4. # start,索引的起始位置
  5. # end,索引结束位置

rpoplpush(src, dst)

  1. # 从一个列表取出最右边的元素,同时将其添加至另一个列表的最左边
  2. # 参数:
  3. # src,要取数据的列表的name
  4. # dst,要添加数据的列表的name

blpop(keys, timeout)

  1. # 将多个列表排列,按照从左到右去pop对应列表的元素
  2.  
  3. # 参数:
  4. # keys,redis的name的集合
  5. # timeout,超时时间,当元素所有列表的元素获取完之后,阻塞等待列表内有数据的时间(秒), 0 表示永远阻塞
  6.  
  7. # 更多:
  8. # r.brpop(keys, timeout),从右向左获取数据

brpoplpush(src, dst, timeout=0)

  1. # 从一个列表的右侧移除一个元素并将其添加到另一个列表的左侧
  2.  
  3. # 参数:
  4. # src,取出并要移除元素的列表对应的name
  5. # dst,要插入元素的列表对应的name
  6. # timeout,当src对应的列表中没有数据时,阻塞等待其有数据的超时时间(秒),0 表示永远阻塞

自定义增量迭代

  1. # 由于redis类库中没有提供对列表元素的增量迭代,如果想要循环name对应的列表的所有元素,那么就需要:
  2. # 1、获取name对应的所有列表
  3. # 2、循环列表
  4. # 但是,如果列表非常大,那么就有可能在第一步时就将程序的内容撑爆,所有有必要自定义一个增量迭代的功能:
  5.  
  6. def list_iter(name):
  7. """
  8. 自定义redis列表增量迭代
  9. :param name: redis中的name,即:迭代name对应的列表
  10. :return: yield 返回 列表元素
  11. """
  12. list_count = r.llen(name)
  13. for index in xrange(list_count):
  14. yield r.lindex(name, index)
  15.  
  16. # 使用
  17. for item in list_iter('pp'):
  18. print item

Set操作,Set集合就是不允许重复的列表

sadd(name,values)

  1. # name对应的集合中添加元素

scard(name)

  1. #获取name对应的集合中元素个数

sdiff(keys, *args)

  1. #在第一个name对应的集合中且不在其他name对应的集合的元素集合

sdiffstore(dest, keys, *args)

  1. # 获取第一个name对应的集合中且不在其他name对应的集合,再将其新加入到dest对应的集合中

sinter(keys, *args)

  1. # 获取多一个name对应集合的并集

sinterstore(dest, keys, *args)

  1. # 获取多一个name对应集合的并集,再讲其加入到dest对应的集合中

sismember(name, value)

  1. # 检查value是否是name对应的集合的成员

smembers(name)

  1. # 获取name对应的集合的所有成员

smove(src, dst, value)

  1. # 将某个成员从一个集合中移动到另外一个集合

spop(name)

  1. # 从集合的右侧(尾部)移除一个成员,并将其返回

srandmember(name, numbers)

  1. # 从name对应的集合中随机获取 numbers 个元素

srem(name, values)

  1. # 在name对应的集合中删除某些值

sunion(keys, *args)

  1. # 获取多一个name对应的集合的并集

sunionstore(dest,keys, *args)

  1. # 获取多一个name对应的集合的并集,并将结果保存到dest对应的集合中

sscan(name, cursor=0, match=None, count=None)
sscan_iter(name, match=None, count=None)

  1. #同字符串的操作,用于增量迭代分批获取元素,避免内存消耗太大
  1. 有序集合,在集合的基础上,为每元素排序;元素的排序需要根据另外一个值来进行比较,所以,对于有序集合,每一个元素有两个值,即:值和分数,分数专门用来做排序。

zadd(name, *args, **kwargs)

  1. # 在name对应的有序集合中添加元素
  2. # 如:
  3. # zadd('zz', 'n1', 1, 'n2', 2)
  4. # 或
  5. # zadd('zz', n1=11, n2=22)

zcard(name)

  1. # 获取name对应的有序集合元素的数量

zcount(name, min, max)

  1. # 获取name对应的有序集合中分数 在 [min,max] 之间的个数

zincrby(name, value, amount)

  1. # 自增name对应的有序集合的 name 对应的分数

r.zrange( name, start, end, desc=False, withscores=False, score_cast_func=float)

  1. # 按照索引范围获取name对应的有序集合的元素
  2.  
  3. # 参数:
  4. # name,redis的name
  5. # start,有序集合索引起始位置(非分数)
  6. # end,有序集合索引结束位置(非分数)
  7. # desc,排序规则,默认按照分数从小到大排序
  8. # withscores,是否获取元素的分数,默认只获取元素的值
  9. # score_cast_func,对分数进行数据转换的函数
  10.  
  11. # 更多:
  12. # 从大到小排序
  13. # zrevrange(name, start, end, withscores=False, score_cast_func=float)
  14.  
  15. # 按照分数范围获取name对应的有序集合的元素
  16. # zrangebyscore(name, min, max, start=None, num=None, withscores=False, score_cast_func=float)
  17. # 从大到小排序
  18. # zrevrangebyscore(name, max, min, start=None, num=None, withscores=False, score_cast_func=float)

zrank(name, value)

  1. # 获取某个值在 name对应的有序集合中的排行(从 0 开始)
  2.  
  3. # 更多:
  4. # zrevrank(name, value),从大到小排序

zrangebylex(name, min, max, start=None, num=None)

  1. # 当有序集合的所有成员都具有相同的分值时,有序集合的元素会根据成员的 值 (lexicographical ordering)来进行排序,而这个命令则可以返回给定的有序集合键 key 中, 元素的值介于 min 和 max 之间的成员
  2. # 对集合中的每个成员进行逐个字节的对比(byte-by-byte compare), 并按照从低到高的顺序, 返回排序后的集合成员。 如果两个字符串有一部分内容是相同的话, 那么命令会认为较长的字符串比较短的字符串要大
  3.  
  4. # 参数:
  5. # name,redis的name
  6. # min,左区间(值)。 + 表示正无限; - 表示负无限; ( 表示开区间; [ 则表示闭区间
  7. # min,右区间(值)
  8. # start,对结果进行分片处理,索引位置
  9. # num,对结果进行分片处理,索引后面的num个元素
  10.  
  11. # 如:
  12. # ZADD myzset 0 aa 0 ba 0 ca 0 da 0 ea 0 fa 0 ga
  13. # r.zrangebylex('myzset', "-", "[ca") 结果为:['aa', 'ba', 'ca']
  14.  
  15. # 更多:
  16. # 从大到小排序
  17. # zrevrangebylex(name, max, min, start=None, num=None)

zrem(name, values)

  1. # 删除name对应的有序集合中值是values的成员
  2.  
  3. # 如:zrem('zz', ['s1', 's2'])

zremrangebyrank(name, min, max)

  1. # 根据排行范围删除

zremrangebyscore(name, min, max)

  1. # 根据分数范围删除

zremrangebylex(name, min, max)

  1. # 根据值返回删除

zscore(name, value)

  1. # 获取name对应有序集合中 value 对应的分数

zinterstore(dest, keys, aggregate=None)

  1. # 获取两个有序集合的交集,如果遇到相同值不同分数,则按照aggregate进行操作
  2. # aggregate的值为: SUM MIN MAX

zunionstore(dest, keys, aggregate=None)

  1. # 获取两个有序集合的并集,如果遇到相同值不同分数,则按照aggregate进行操作
  2. # aggregate的值为: SUM MIN MAX

zscan(name, cursor=0, match=None, count=None, score_cast_func=float)
zscan_iter(name, match=None, count=None,score_cast_func=float)

  1. # 同字符串相似,相较于字符串新增score_cast_func,用来对分数进行操作

其他常用操作

delete(*names)

  1. # 根据删除redis中的任意数据类型

exists(name)

  1. # 检测redis的name是否存在

keys(pattern='*')

  1. # 根据模型获取redis的name
  2.  
  3. # 更多:
  4. # KEYS * 匹配数据库中所有 key 。
  5. # KEYS h?llo 匹配 hello , hallo 和 hxllo 等。
  6. # KEYS h*llo 匹配 hllo 和 heeeeello 等。
  7. # KEYS h[ae]llo 匹配 hello 和 hallo ,但不匹配 hillo

expire(name ,time)

  1. # 为某个redis的某个name设置超时时间

rename(src, dst)

  1. # 对redis的name重命名为

move(name, db))

  1. # 将redis的某个值移动到指定的db下

randomkey()

  1. # 随机获取一个redis的name(不删除)

type(name)

  1. # 获取name对应值的类型

scan(cursor=0, match=None, count=None)
scan_iter(match=None, count=None)

  1. # 同字符串操作,用于增量迭代获取key

4、管道

redis-py默认在执行每次请求都会创建(连接池申请连接)和断开(归还连接池)一次连接操作,如果想要在一次请求中指定多个命令,则可以使用pipline实现一次请求指定多个命令,并且默认情况下一次pipline 是原子性操作。

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3.  
  4. import redis
  5.  
  6. pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
  7.  
  8. r = redis.Redis(connection_pool=pool)
  9.  
  10. # pipe = r.pipeline(transaction=False)
  11. pipe = r.pipeline(transaction=True)
  12.  
  13. r.set('name', 'alex')
  14. r.set('role', 'sb')
  15.  
  16. pipe.execute()

5、发布订阅

发布者:服务器

订阅者:Dashboad和数据处理

Demo如下:

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3.  
  4. import redis
  5.  
  6. class RedisHelper:
  7.  
  8. def __init__(self):
  9. self.__conn = redis.Redis(host='10.211.55.4')
  10. self.chan_sub = 'fm104.5'
  11. self.chan_pub = 'fm104.5'
  12.  
  13. def public(self, msg):
  14. self.__conn.publish(self.chan_pub, msg)
  15. return True
  16.  
  17. def subscribe(self):
  18. pub = self.__conn.pubsub()
  19. pub.subscribe(self.chan_sub)
  20. pub.parse_response()
  21. return pub

订阅者:

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3.  
  4. from monitor.RedisHelper import RedisHelper
  5.  
  6. obj = RedisHelper()
  7. redis_sub = obj.subscribe()
  8.  
  9. while True:
  10. msg= redis_sub.parse_response()
  11. print msg

发布者:

  1. #!/usr/bin/env python
  2. # -*- coding:utf-8 -*-
  3.  
  4. from monitor.RedisHelper import RedisHelper
  5.  
  6. obj = RedisHelper()
  7. obj.public('hello')

更多参见:https://github.com/andymccurdy/redis-py/

http://doc.redisfans.com/

RabbitMQ、Memcache、Redis RabbitMQ的更多相关文章

  1. Python操作Redis、Memcache、RabbitMQ、SQLAlchemy

    Python操作 Redis.Memcache.RabbitMQ.SQLAlchemy redis介绍:redis是一个开源的,先进的KEY-VALUE存储,它通常被称为数据结构服务器,因为键可以包含 ...

  2. Python之路【第九篇】:Python操作 RabbitMQ、Redis、Memcache、SQLAlchemy

    Python之路[第九篇]:Python操作 RabbitMQ.Redis.Memcache.SQLAlchemy   Memcached Memcached 是一个高性能的分布式内存对象缓存系统,用 ...

  3. Py西游攻关之RabbitMQ、Memcache、Redis

    Py西游攻关之RabbitMQ.Memcache.Redis   RabbitMQ 解释RabbitMQ,就不得不提到AMQP(Advanced Message Queuing Protocol)协议 ...

  4. 关于 redis、memcache、mongoDB 的对比

    从以下几个维度,对 redis.memcache.mongoDB 做了对比. 1.性能 都比较高,性能对我们来说应该都不是瓶颈. 总体来讲,TPS 方面 redis 和 memcache 差不多,要大 ...

  5. redis、memcache、mongoDB 做了对比

    from: http://yang.u85.us/memcache_redis_mongodb.pdf   从以下几个维度,对redis.memcache.mongoDB 做了对比. 1.性能 都比较 ...

  6. 关于 redis、memcache、mongoDB 的对比(转载)

    from:http://yang.u85.us/memcache_redis_mongodb.pdf 从以下几个维度,对 redis.memcache.mongoDB 做了对比.1.性能都比较高,性能 ...

  7. (转)关于redis、memcache、mongoDB 的对比

    从以下几个维度,对redis.memcache.mongoDB 做了对比,欢迎拍砖 1.性能 都比较高,性能对我们来说应该都不是瓶颈 总体来讲,TPS方面redis和memcache差不多,要大于mo ...

  8. Redis、Memcache、MongoDb的优缺点

    Redis.Memcache.MongoDb的优缺点 Redis优点 支持多种数据结构,如 string(字符串). list(双向链表).dict(hash表).set(集合).zset(排序set ...

  9. 关于 redis、memcache、mongoDB 的对比 转

    从以下几个维度,对 redis.memcache.mongoDB 做了对比.1.性能都比较高,性能对我们来说应该都不是瓶颈.总体来讲,TPS 方面 redis 和 memcache 差不多,要大于 m ...

  10. redis、memcache、mongoDB 对比

    从以下几个维度,对 redis.memcache.mongoDB 做了对比. 1.性能 都比较高,性能对我们来说应该都不是瓶颈. 总体来讲,TPS 方面 redis 和 memcache 差不多,要大 ...

随机推荐

  1. (转)word尾注引文添加方式及相关问题

    word引文添加方式:http://www.office68.com/word/word-reference-add.html word通配符:http://www.3lian.com/edu/201 ...

  2. 【NLP】course

    http://52opencourse.com/235/%E6%96%AF%E5%9D%A6%E7%A6%8F%E5%A4%A7%E5%AD%A6%E8%87%AA%E7%84%B6%E8%AF%AD ...

  3. MFC WinInetHttp抓取网页代码内容

    Windows Internet编程主要包括两方面: l  服务器端   l  客户端 WinInet编程 Internet客户端主要实现的功能,主要是通过Internet协议(HTTP.FTP等)获 ...

  4. WPF 附加事件

    在WPF中有许多控件有他们自己的特殊的事件.按钮就是一个例子——它添加了 Click 事件,而其他任何类都没有定义该事件. 这回导致两难的境地.假设在 StackPanel 面板中包装了一堆按钮,并且 ...

  5. MVC框架图

    http://www.cnblogs.com/zgynhqf/archive/2010/11/19/1881449.html   MVC框架图 http://www.cnblogs.com/zhang ...

  6. 【BZOJ2699】更新 动态规划

    [BZOJ2699]更新 Description        对于一个数列A[1..N],一种寻找最大值的方法是:依次枚举A[2]到A[N],如果A[i]比当前的A[1]值要大,那么就令A[1]=A ...

  7. 【BZOJ5072】[Lydsy十月月赛]小A的树 树形DP

    [BZOJ5072][Lydsy十月月赛]小A的树 题解:考虑我们从一个联通块中替换掉一个点,导致黑点数量的变化最多为1.所以我们考虑维护对于所有的x,y的最大值和最小值是多少.如果询问的y在最大值和 ...

  8. 在Mac osx使用ADT Bundle踩过的坑

    前言 本篇博客整理一下笔者在Mac下使用ADT Bundle踩过的坑,Google现在也不支持Eclipse了,开发者也到了抛弃Eclipse的时候,但考虑到大部分Java的开发者还是比较习惯与Ecl ...

  9. quartz 调度启动失败,with (updlock,rowlock)

    原因是driverDelegateClass配置错误. org.quartz.jobStore.class = org.quartz.impl.jdbcjobstore.JobStoreTXorg.q ...

  10. JSP中的内置对象和Struts中的Web资源的详解

    JSP中的内置对象有如下几种: request :继承于HttpServletRequest, HttpServletRequest继承ServletRequest, 获得的Request对象的方法: ...