线程池;

redis发布订阅;

rabbitMQ;

MySQL;

python pymysql;

python orm SQLAchemy;

paramiko;

堡垒机;

1.线程池

1.1 contextlib ,上下文切换

import contextlib

#这个装饰器赋予work_state这个方法能使用“with work_state”,实现了一个上下文切换的功能
@contextlib.contextmanager
def work_state(state_list,work_thread): #①
state_list.append(work_thread) #②
try:
yield #③
finally:
state_list.remove(work_thread) #⑨ state_list = []
work_thread = 'fdafd' with work_state(state_list,work_thread): #④
print(123) #⑤
print(state_list) #⑥
print(work_thread) #⑦
print(456) #⑧ #结果:
123
['fdafd']
fdafd
456
import contextlib
import socket @contextlib.contextmanager
def context_sock(host,port):
sk = socket.socket()
sk.bind((host,port))
sk.listen(5)
try:
yield sk #将sk传给下面的“with context_sock...as sock”
finally:
sk.close()
with context_sock('localhost',8888) as sock:
print(sock) #此处的sock就是sk。

2.redis 补充

redis-py使用connection pool来管理对一个redis server的所有连接,避免每次建立、释放连接的开销。默认,每个Redis实例都会维护一个自己的连接池。可以直接建立一个连接池,然后作为参数Redis,这样就可以实现多个Redis实例共享一个连接池。

#!/usr/bin/env python
# -*- coding:utf-8 -*- import redis #创建一个连接池,之后与redis的操作就可以通过调用这个连接池来进行。
pool = redis.ConnectionPool(host='10.211.55.4', port=6379) r = redis.Redis(connection_pool=pool)
r.set('foo', 'Bar')
print(r.get('foo'))

2.1redis发布订阅

#redis_pub_sub.py
import redis
class RedisHelper(object):
def __init__(self):
self.__conn = redis.Redis(host='127.0.0.1') def public(self,msg,channel):
self.__conn.publish(channel,msg) #先channel后msg。
return True def subscribe(self,channel):
pub = self.__conn.pubsub()
pub.subscribe(channel)
pub.parse_response()
return pub #sub.py
import redis_pub_sub sub1 = redis_pub_sub.RedisHelper()
data = sub1.subscribe('fm104.99')
print(data.parse_response())
#可以起多个sub,当pub发布了消息,这些sub都能收到。 #pub.py
import redis_pub_sub pub1 = redis_pub_sub.RedisHelper()
pub1.public('avadv','fm104.99')

3. 初识rabbitMQ

rabbitmq实现发布订阅;pika是使用rabbitmq的插件。

#publisher

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel() channel.queue_declare(queue='hello') channel.basic_publish(exchange='',
routing_key='hello',
body='first')
print('publish ok')
connection.close() #consumer
import pika connection = pika.BlockingConnection(pika.ConnectionParameters('localhost')) channel = connection.channel()
channel.queue_declare(queue='hello') def callable(ch,method,properties,body):
print("[x] Received %r" % body) channel.basic_consume(callable,
queue='hello',
no_ack=True)
print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()

3.1 ackownledgment,消息不丢失

上面的代码实现了发布订阅,但是有个问题,假如consumer在接收消息的过程中宕了,就会出现consumer并没有接受完消息,但是消息队列里也没消息了,即使consumer恢复了也没法再重新获取到消息了,这时候就需要设置一下消息不丢失。

消息不丢失只需要修改consumer端的代码即可,其实是改成“consumer接受完消息后,会给消息队列一个接收完毕的消息,然后这条消息就从队列里移除了,如果consumer没有发确认消息,此条消息就一直存在消息队列里”。

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))

channel = connection.channel()
channel.queue_declare(queue='hello') def callable(ch,method,properties,body):
print("[x] Received %r" % body)
import time
time.sleep(50)
print('consumer ok')
ch.basic_ack(delivery_tag = method.delivery_tag) #接收完消息后,给消息队列发确认收到的消息。 channel.basic_consume(callable,
queue='hello',
no_ack=False #这一行表示需要消息确认;no_ack的全称是no ackownledge。
)
print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()

3.2 during,消息持久化

消息持久化是在publish端配置

#!/usr/bin/env python
import pika connection = pika.BlockingConnection(pika.ConnectionParameters(host='10.211.55.4'))
channel = connection.channel() # make message persistent
channel.queue_declare(queue='hello', durable=True) channel.basic_publish(exchange='',
routing_key='hello',
body='Hello World!',
properties=pika.BasicProperties(
delivery_mode=2, # 设置了这里,就使消息持久化了。
))
print(" [x] Sent 'Hello World!'")
connection.close()

publish端配置了持久化,consumer端也配置了持久化,这样无论哪端宕了都不会丢失消息。

3.3 消息获取顺序

默认的话,各个consumer获取消息的顺序是轮询来取的,consumer1取消息1,consumer2取消息2,consumer3取消息3,这时候如果consumer3先处理完了,需要再取消息,那consumer3取的是6,因为4和5之后会被consumer1和consumer2取走。

如果想做到哪个consumer先处理完了就接着取接下来的消息的话,即各个consumer顺序取消息,那就需要在consumer代码里加下述参数:channel.basic_qos(prefetch_count=1)

这样如果consumer3先处理完了,再取消息就是消息4了,而不是消息6。

3.4 发布和订阅

3.4.1 exchange

exchange是publisher和rabbitmq间的一个中间层,publisher给rabbitmq发消息,其实是先发给了exchange,然后exchange根据规则发到对应的消息队列里。

exchange的作用,比如你想给所有的消息队列发一条消息,此时rabbitmq里有100个消息队列,如果没有exchange的话,你需要自己发送100次消息,如果有了exchange,你需要做的仅仅是将消息发送给rabbitmq,然后选择一个对应的规则,比如说是广播,那exchange就会把消息发给所有绑定到exchange的队列。这里仅仅是举了一个广播的例子,exchange还有其他发布模式。

3.4.2 exchange的fanout模式,广播

publisher

#!/usr/bin/env python

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))

channel = connection.channel()

#声明一个exchange,名称和类型
channel.exchange_declare(exchange='logs_exchange' , type='fanout') message = 'hhh' #向这个exchange发送消息
channel.basic_publish(exchange='logs_exchange',routing_key='',body=message) print('publish ok') connection.close()

consumer

#!/usr/bin/env python

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel() #声明一个exchange
channel.exchange_declare(exchange='logs_exchange',type='fanout') #下面两行代码的作用是声明一个随机名字的消息队列,这样每次执行这些代码,就会生成不同的消息队列;如果指定了队列名字,那每次执行都是同一个队列。
result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue #绑定exchange
channel.queue_bind(exchange='logs_exchange',queue=queue_name) print('waiting the message coming...') def callable(ch,method,properties,body):
print('recieve the %s' % body) channel.basic_consume(callable,queue=queue_name,no_ack=True) channel.start_consuming()

多次执行consumer的代码,生成了多个消息队列,所有的consumer都会同时收到publisher的消息。

3.4.3 exchange的direct模式,基于关键字来发送消息

发送消息时明确指定某个队列并向其中发送消息,RabbitMQ还支持根据关键字发送,即:队列绑定关键字,发送者将数据根据关键字发送到消息exchange,exchange根据 关键字 判定应该将数据发送至指定队列。

publisher指定将消息发给绑定了info这个关键字的队列;consumer1绑定了info、error关键字;consumer2绑定了error关键字;则,只有consumer1能收到publisher的消息。如果publisher将消息发给绑定了error关键字的队列,则consumer1和consumer2都能收到消息。这就是基于关键字来管理消息。

生产者

#!/usr/bin/env python
import pika
import sys connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel() channel.exchange_declare(exchange='direct_logs',
type='direct') #输入一个关键字
severity = sys.argv[1] if len(sys.argv) > 1 else 'info'
message = ' '.join(sys.argv[2:]) or 'Hello World!'
channel.basic_publish(exchange='direct_logs',
routing_key=severity, #发送消息的关键字
body=message)
print(" [x] Sent %r:%r" % (severity, message))
connection.close()

消费者

#!/usr/bin/env python
import pika
import sys connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel() channel.exchange_declare(exchange='direct_logs',
type='direct') result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue #指定一个或多个接收消息的关键字
severities = sys.argv[1:]
if not severities:
sys.stderr.write("Usage: %s [info] [warning] [error]\n" % sys.argv[0])
sys.exit(1) #循环绑定关键字;routing_key是变化的
for severity in severities:
channel.queue_bind(exchange='direct_logs',
queue=queue_name,
routing_key=severity) print(' [*] Waiting for logs. To exit press CTRL+C') def callback(ch, method, properties, body):
print(" [x] %r:%r" % (method.routing_key, body)) channel.basic_consume(callback,
queue=queue_name,
no_ack=True) channel.start_consuming()

3.4.4 模糊匹配

在topic类型下,可以让队列绑定几个模糊的关键字,之后发送者将数据发送到exchange,exchange将传入”路由值“和 ”关键字“进行匹配,匹配成功,则将数据发送到指定队列。

  • # 表示可以匹配 0 个 或 多个 单词
  • *  表示只能匹配 一个 单词
发送者路由值              队列中
old.boy.python old.* -- 不匹配
old.boy.python old.# -- 匹配

saltstack支持模糊匹配,虽然saltstack用的zeromq,但是模糊匹配的原理跟这个类似。

生产者

#!/usr/bin/env python
import pika
import sys connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel() channel.exchange_declare(exchange='topic_logs',
type='topic') routing_key = sys.argv[1] if len(sys.argv) > 1 else 'anonymous.info'
message = ' '.join(sys.argv[2:]) or 'Hello World!'
channel.basic_publish(exchange='topic_logs',
routing_key=routing_key,
body=message)
print(" [x] Sent %r:%r" % (routing_key, message))
connection.close()

消费者

#!/usr/bin/env python
import pika
import sys connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel() channel.exchange_declare(exchange='topic_logs',
type='topic') result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue binding_keys = sys.argv[1:]
if not binding_keys:
sys.stderr.write("Usage: %s [binding_key]...\n" % sys.argv[0])
sys.exit(1) for binding_key in binding_keys:
channel.queue_bind(exchange='topic_logs',
queue=queue_name,
routing_key=binding_key) print(' [*] Waiting for logs. To exit press CTRL+C') def callback(ch, method, properties, body):
print(" [x] %r:%r" % (method.routing_key, body)) channel.basic_consume(callback,
queue=queue_name,
no_ack=True) channel.start_consuming()

redis补充和rabbitmq讲解的更多相关文章

  1. .NET 环境中使用RabbitMQ RabbitMQ与Redis队列对比 RabbitMQ入门与使用篇

    .NET 环境中使用RabbitMQ   在企业应用系统领域,会面对不同系统之间的通信.集成与整合,尤其当面临异构系统时,这种分布式的调用与通信变得越发重要.其次,系统中一般会有很多对实时性要求不高的 ...

  2. Redis 5.0.7 讲解,单机、集群模式搭建

    Redis 5.0.7 讲解,单机.集群模式搭建 一.Redis 介绍 不管你是从事 Python.Java.Go.PHP.Ruby等等... Redis都应该是一个比较熟悉的中间件.而大部分经常写业 ...

  3. Redis补充

    Redis补充 (1)redis基本概念 redis是一个key-value存储系统.和Memcached类似,它支持存储的value类型相对更多,包括string(字符串).list(链表).set ...

  4. Redis 补充

    Redis 补充 Redis 的主要用途 数据库 缓存和消息中间件 相当于一个字典 数据库切换 select 1 (默认36个数据库 默认在0) 1 基本数据类型 字符串 散列 hashes 列表 集 ...

  5. 小D课堂 - 零基础入门SpringBoot2.X到实战_第9节 SpringBoot2.x整合Redis实战_40、Redis工具类封装讲解和实战

    笔记 4.Redis工具类封装讲解和实战     简介:高效开发方式 Redis工具类封装讲解和实战         1.常用客户端 https://redisdesktop.com/download ...

  6. RabbitMq应用一的补充(RabbitMQ的应用场景)

    直接进入正题. 一.异步处理 场景:发送手机验证码,邮件 传统古老处理方式如下图 这个流程,全部在主线程完成,注册->入库->发送邮件->发送短信,由于都在主线程,所以要等待每一步完 ...

  7. Day10 - Python协程、异步IO、redis缓存、rabbitMQ队列

    Python之路,Day9 - 异步IO\数据库\队列\缓存   本节内容 Gevent协程 Select\Poll\Epoll异步IO与事件驱动 Python连接Mysql数据库操作 RabbitM ...

  8. Day11 - Python操作memcache、redis缓存、rabbitMQ队列

    本周课前必备: 1. Memcached 2. Python操作Memcached模块: https://pypi.python.org/pypi/python-memcached 3. Redis ...

  9. Redis for OPS 07:Redis 补充说明

    写在前面的话 redis 的各种架构搭建暂时就到这里,本文主要用于补充说明 Redis 的一些概念以及配置文件的相关信息. 常用词汇 缓存穿透: 类似热点数据存储 Redis 一样,对于非热点数据存储 ...

随机推荐

  1. [saiku] 简化/汉化/设置默认页

    上一篇分析了schema文件 [ http://www.cnblogs.com/avivaye/p/4877832.html] 在安装完毕Saiku后,由于是社区版本,所以界面上存在很多升级为商业版的 ...

  2. 1029c语言文法

    <程序>→<外部声明>|<程序><外部声明> <外部声明>→<函数定义>|<声明> <函数定义>→< ...

  3. Github/Eclipse管理Maven项目

    Eclipse和Git插件 (To-do: 直接从workspace导入也可以,弄明白这个repo管理的本质,查看sprigmvc是如何导入的) 最新版本的Eclipse都直接集成了Git插件 Ecl ...

  4. HDU-----(1083)Courses(最大匹配)

    Courses Time Limit: 20000/10000 MS (Java/Others)    Memory Limit: 65536/32768 K (Java/Others)Total S ...

  5. nyoj------170网络的可靠性

    网络的可靠性 时间限制:3000 ms  |  内存限制:65535 KB 难度:3   描述 A公司是全球依靠的互联网解决方案提供商,也是2010年世博会的高级赞助商.它将提供先进的网络协作技术,展 ...

  6. PHP FTP操作类( 上传、拷贝、移动、删除文件/创建目录 )

    /** * 作用:FTP操作类( 拷贝.移动.删除文件/创建目录 ) * 时间:2006/5/9 * 作者:欣然随风 * QQ:276624915 */ class class_ftp { publi ...

  7. mySql常用sql

    mysql sql语句大全1.说明:创建数据库CREATE DATABASE database-name2.说明:删除数据库drop database dbname3.说明:备份sql server- ...

  8. PowerMock遇到的问题——4

    当我们在测试一个方法的构造方法的时候,有的时候内部需要new一些对象,这是就需要用到PowerMock.exceptNew(),这个方法,但有时候传的参数有关键字this,比如SAPPublisher ...

  9. NOIP2010解题报告

    今天状态不错..1个小时AC了前3题,第四题第一次也拿到了80%的分数,后来换了算法才拿到全部分数.. 第一题: 小晨的电脑上安装了一个机器翻译软件,他经常用这个软件来翻译英语文章. 这个翻译软件的原 ...

  10. 纯JS省市区三级联动

    代码下载