一、铺垫:基于socket发送http请求

1、需求一:向百度发送请求搜索关键字“alex”,有如下两种方式:

    import requests
ret = requests.get('https://www.baidu.com/s?wd=alex')

方式一(用requests模块):

    import socket
sk = socket.socket()
# 与百度创建连接: 阻塞
sk.connect(('www.baidu.com',80))
# 跟说百度我要什么?
sk.sendall(b'GET /s?wd=alex HTTP/1.0\r\nhost:www.baidu.com\r\n\r\n')
# 等着接收百度给我的回复
chunk_list = []
while 1:
chunk = sk.recv(8096)
if not chunk:
break
chunk_list.append(chunk)
body = b''.join(chunk_list)
print(body.decode('utf8'))

方式二(socket方式,也是requests的原理):

2、需求二:向百度发送请求搜索三个关键字

    import requests
key_list = ['alex','db','sb']
for item in key_list:
ret = requests.get('https://www.baidu.com/s?wd=%s' %item)

方式一:

    import socket
def get_data(key):
client = socket.socket()
# 跟百度创建连接: 阻塞
client.connect(('www.baidu.com',80))
# 跟百度说我要什么?
client.sendall(b'GET /s?wd='+key.encode('utf-8')+b' HTTP/1.0\r\nhost:www.baidu.com\r\n\r\n')
# 我等着接收百度给我的回复
chunk_list = []
while True:
chunk = client.recv(8096)
if not chunk:
break
chunk_list.append(chunk) body = b''.join(chunk_list)
print(body.decode('utf-8')) key_list = ['alex','db','sb']
for item in key_list:
get_data(item)

方式二:

  分析上述需求二的代码,我们发现,这两种方式去向浏览器发送请求的时候都是串行的,也就是等第一个请求得到相应之后再发送下一个请求,并没有实现并发。现在你可能会想:可以创建多线程来分别去发送请求,代码如下:

    # #################### 解决并发:多线程 ####################
import threading key_list = ['alex','db','sb']
for item in key_list:
t = threading.Thread(target=get_data,args=(item,))
t.start()

  多线程虽然提高了效率,实现了并发,但是同时也浪费了资源,那我们想一下能不能用单线程实现并发,也就是这个线程去发送完第一个请求(IO请求)后不等待相应结果,而是直接去发送第二个请求,再继续发送第三个请求,等请求响应之后才去处理响应结果,这样就实现了单线程并发,即节省了资源又实现了并发,那具体怎么实现呢?首先需要解决两个问题:第一:如何判断是IO请求?第二:如何知道响应数据回来了?

二、基于IO多路复用+socket实现单线程并发

  # ################ 解决并发:单线程+IO不等待 ################
  import socket
  import select   client1 = socket.socket()
  client1.setblocking(False) # 将原来阻塞的位置变成非阻塞(报错)
  try:
  client1.connect(('www.baidu.com',80))
  except BlockingIOError as e:
  pass   client2 = socket.socket()
  client2.setblocking(False) # 将原来阻塞的位置变成非阻塞(报错)
  try:
  client2.connect(('www.sogou.com',80))
  except BlockingIOError as e:
  pass   client3 = socket.socket()
  client3.setblocking(False) # 将原来阻塞的位置变成非阻塞(报错)
  try:
  client3.connect(('www.sina.com.cn',80))
  except BlockingIOError as e:
  pass   socket_list = [client1,client2,client3]
  conn_list = [client1,client2,client3]   while True:
  rlist,wlist,elist = select.select(socket_list,conn_list,[],0.005)
  # rlist中表示已经接收到数据的socket对象
  # wlist中表示已经连接成功的socket对象
  for sk in wlist:
  if sk == client1:
  sk.sendall(b'GET /s?wd=alex HTTP/1.0\r\nhost:www.baidu.com\r\n\r\n')
  elif sk == client2:
  sk.sendall(b'GET /web?query=fdf HTTP/1.0\r\nhost:www.sogou.com\r\n\r\n')
  else:
  sk.sendall(b'GET /mid/search.shtml?q=alex HTTP/1.0\r\nhost:www.sina.com.cn\r\n\r\n')
  conn_list.remove(sk)
  for sk in rlist:
  chunk_list = []
  while True:
  try:
  chunk = sk.recv(8096)
  if not chunk:
  break
  chunk_list.append(chunk)
  except BlockingIOError as e:
  break
  body = b''.join(chunk_list)
  print('------------>',body)
  sk.close()
  socket_list.remove(sk)
  if not socket_list:
  break

上面示例可以进行封装,但是封装前先来看这样两段代码:

    # 代码一:
v = [
[11,22], # 每个都有一个append方法
[22,33], # 每个都有一个append方法
[33,44], # 每个都有一个append方法
]
for item in v:
print(item.append)
    # 代码二(为了不改变for循环代码,可以进行如下封装)
class Foo(object):
def __init__(self,data):
self.row = data def append(self,item):
self.row.append(item)
v = [
Foo([11,22]), # 每个都有一个append方法
Foo([22,33]), # 每个都有一个append方法
Foo([33,44]), # 每个都有一个append方法
] for item in v:
print(item.append)
    # ############## 单线程并发高级版:封装上面示例 ##############
import socket
import select class Req(object):
def __init__(self,sk,func):
self.sock = sk
self.func = func def fileno(self):
return self.sock.fileno() class Nb(object):
def __init__(self):
self.conn_list = []
self.socket_list = [] def add(self,url,func):
client = socket.socket()
client.setblocking(False) # 非阻塞
try:
client.connect((url, 80))
except BlockingIOError as e:
pass
obj = Req(client,func)
self.conn_list.append(obj)
self.socket_list.append(obj) def run(self):
while True:
rlist,wlist,elist = select.select(self.socket_list,self.conn_list,[],0.005)
for sk in wlist:
# 发生变换的req对象
sk.sock.sendall(b'GET /s?wd=alex HTTP/1.0\r\nhost:www.baidu.com\r\n\r\n')
self.conn_list.remove(sk)
for sk in rlist:
chunk_list = []
while True:
try:
chunk = sk.sock.recv(8096)
if not chunk:
break
chunk_list.append(chunk)
except BlockingIOError as e:
break
body = b''.join(chunk_list)
sk.func(body)
sk.sock.close()
self.socket_list.remove(sk)
if not self.socket_list:
break def baidu_repsonse(body):
print('百度下载结果:',body) def sogou_repsonse(body):
print('搜狗下载结果:', body) def sina_repsonse(body):
print('新浪下载结果:', body) t1 = Nb()
t1.add('www.baidu.com',baidu_repsonse)
t1.add('www.sogou.com',sogou_repsonse)
t1.add('www.sina.com.cn',sina_repsonse)
t1.run()

封装版

总结:

1、socket默认是否是阻塞的?阻塞体现在哪里?

是,体现在等待连接和等待接收数据。

2、如何让socket编程非阻塞?

通过设置client.setblocking(False)

3、IO多路复用作用?

检测多个socket是否已经发生变化(是否已经连接成功/是否已经获取数据)(可写/可读)

操作系统检测socket是否发生变化,有三种模式:

select:最多1024个socket,循环去检测;

poll:不限制监听socket个数,循环去检测(水平触发);

epoll:不限制监听socket个数,回调方式(边缘触发);

Python模块:

select.select

select.epoll(windows不支持,linux中可以用)

4、提高并发方案:

- 多进程

- 多线程

- 异步非阻塞模块(Twisted), 爬虫中学的scrapy框架(内部是用单线程完成并发)

5、什么是异步非阻塞?

- 非阻塞,不等待。

比如创建socket对某个地址进行connect、获取接收数据recv时默认都会等待(连接成功或接收到数据),才执行后续操作。

如果设置setblocking(False),以上两个过程就不再等待,但是会报BlockingIOError的错误,只要捕获即可。

- 异步,通知,执行完成之后自动执行回调函数或自动执行某些操作(通知)。

比如做爬虫中向某个地址baidu.com发送请求,当请求执行完成之后自动执行回调函数。

6、什么是同步阻塞?

- 阻塞:等

- 同步:按照顺序逐步执行,例如:

    key_list = ['alex','db','sb']
for item in key_list:
ret = requests.get('https://www.baidu.com/s? wd=%s' %item)
print(ret.text)

三、协程

进程和线程都是操作系统中存在的,而协程是由程序员创造出来的一个不是真实存在的东西。

协程:是微线程,对一个线程进行分片,使得线程在代码块之间进行来回切换执行,而不是原来的逐行执行。如下示例:

    import greenlet
# 引入greenlet模块帮助我们实现协程,安装方式:pip3 install greenlet def f1():
print(11)
gr2.switch()
print(22)
gr2.switch() def f2():
print(33)
gr1.switch()
print(44) gr1 = greenlet.greenlet(f1) # 创建协程 gr1
gr2 = greenlet.greenlet(f2) # 创建协程 gr2 gr1.switch() # 执行协程gr1

创建协程

  分析:单纯的协程没有意义,反而可能会让性能降低,那么协程的存在意义在哪里呢?结合上面单线程实现并发的示例,思考一下假如当我们执行了一段代码后遇到IO操作,此时我们不再等待,而是切换到另一段代码去执行,然后遇到IO操作的时候再去切换,这样是不是也能提高性能,实现并发,但是greenlet只能做协程,不能实现遇到IO就切换,所以协程如果再加上遇到IO就切换,那么便能实现单线程并发了。那么谁能做到遇到IO就切换呢?那就是另外一个模块geven,安装方法:pip3 install gevent。

  gevent内部要依赖greenlet,也就是greenlet + IO切换,所以gevent就牛逼了!写法如下:

  from gevent import monkey
  monkey.patch_all() # 以后代码中遇到IO都会自动执行greenlet的switch进行切换
  import requests
  import gevent   def get_page1(url):
  ret = requests.get(url)
  print(url,ret.content)   def get_page2(url):
  ret = requests.get(url)
  print(url,ret.content)   def get_page3(url):
  ret = requests.get(url)
  print(url,ret.content)   gevent.joinall([
  gevent.spawn(get_page1, 'https://www.python.org/'), # 创建协程1
  gevent.spawn(get_page2, 'https://www.yahoo.com/'), # 创建协程2
  gevent.spawn(get_page3, 'https://github.com/') # 创建协程3
  ])

  上面通过gevent实现了单线程并发,提高了效率,通过对比,我们发现,上面IO多路复用的示例中是一个线程在不停的执行,而是gevent是在代码间进行切换,虽然原理不行,但是都提高了效率,实现单线程并发。

总结:

1、协程可以提高并发吗?

协程自己本身无法实现并发,甚至性能会降低,而协程+IO切换性能就可以提高了。

2、单线程提高并发的方法有哪些?

a、协程+遇到就IO切换:gevent;   注意:不是异步,无回调函数,但本质也是基于事件循环

b、基于时间循环的异步非阻塞框架:Twisted;

3、线程、进程、协程的区别?

    进程cpu资源分配的最小单元,主要用来做数据隔离,那么线程是cpu工作的最小单元,一个应用程序可以有多个进程(默认有一个),一个进程可以有多个线程(默认有一个),这是它们的一个简单区别;基本上在其他语言中没有进程这个概念,大都用线程,而在python中由于有GIL锁,它保证了同一时刻一个进程中只能有一个线程被cpu调度,为了利用多核优势就要创建多个进程,多线程没有用,所以计算密集型的用多进程,IO密集型的用多线程就行,因为IO操作不占用CPU。而协程是程序员人为创造出来的不真实存在的,它可以让程序员控制代码执行顺序,在函数之间来回切换,本身协程存在没有意义,但是能跟IO切换放在一起就厉害了,相当于将线程切片,程序遇到IO就切换到其他代码,IO完成后再切回来,达到让线程不停去工作的效果,实现协程的模块是greenlet,实现协程+IO切换的模块是gevent,这就是三者的区别。

  4、手动实现协程:yield关键字生成器(没有意义,了解即可)

    def f1():
print(11)
yield
print(22)
yield
print(33) def f2():
print(55)
yield
print(66)
yield
print(77) v1 = f1()
v2 = f2() next(v1) # v1.send(None)
next(v2) # v1.send(None)
next(v1) # v1.send(None)
next(v2) # v1.send(None)
next(v1) # v1.send(None)
next(v2) # v1.send(None)

手动实现协程

IO多路复用、协程的更多相关文章

  1. Python IO 多路复用 \协程

    IO 多路复用 作用:  检测多个socket是否已经发生变化(是否已经连接成功/是否已经获取数据) 即(可读/可写) IO请求时 解决并发  :  单线程 def get_data(key): cl ...

  2. IO多路复用,协程

    https://www.cnblogs.com/wangjun187197/p/9642429.html Python之路--协程/IO多路复用 I/O复用模型 此模型用到select和poll函数, ...

  3. Python异步IO之协程(一):从yield from到async的使用

    引言:协程(coroutine)是Python中一直较为难理解的知识,但其在多任务协作中体现的效率又极为的突出.众所周知,Python中执行多任务还可以通过多进程或一个进程中的多线程来执行,但两者之中 ...

  4. 进程&线程(三):外部子进程subprocess、异步IO、协程、分布式进程

    1.外部子进程subprocess python之subprocess模块详解--小白博客 - 夜风2019 - 博客园 python subprocess模块 - lincappu - 博客园 之前 ...

  5. day41 - 异步IO、协程

    目录 (见右侧目录栏导航) - 1. 前言- 2. IO的五种模型- 3. 协程    - 3.1 协程的概念- 4. Gevent 模块    - 4.1 gevent 基本使用    - 4.2 ...

  6. 异步IO(协程,消息循环队列)

    同步是CPU自己主动查看IO操作是否完成,异步是IO操作完成后发出信号通知CPU(CPU是被通知的) 阻塞与非阻塞的区别在于发起IO操作之后,CPU是等待IO操作完成再进行下一步操作,还是不等待去做其 ...

  7. python---异步IO(asyncio)协程

    简单了解 在py3中内置了asyncio模块.其编程模型就是一个消息循环. 模块查看: from .base_events import * from .coroutines import * #协程 ...

  8. Python异步IO之协程(二):使用asyncio的不同方法实现协程

    引言:在上一章中我们介绍了从yield from的来源到async的使用,并在最后以asyncio.wait()方法实现协程,下面我们通过不同控制结构来实现协程,让我们一起来看看他们的不同作用吧- 在 ...

  9. python-gevent模块(自动切换io的协程)

    2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 import gevent     def foo() ...

  10. 异步IO和协程

    1-1.并行:真的多任务执行(CPU核数>=任务数):即在某个时刻点上,有多个程序同时运行在多个CPU上 1-2.并发:假的多任务执行(CPU核数<任务数):即一段时间内,有多个程序在同一 ...

随机推荐

  1. 深入研究mysql中group by与order by取分类最新时间内容

    鉴于项目的需要,就从网上找到该文章,文章分析得很详细也很易懂,在android里,(不知道是不是现在水平的限制,总之我还没找到在用 ContentProvider时可以使用子查询),主要方法是用SQL ...

  2. Linux内核设计基础(五)之内存管理

    我感觉学习操作系统首先要从内存分配和管理入手. 首先我们应该知道现代操作系统是以页为单位进行内存管理的,32位体系结构支持4KB的页.而64位体系结构支持8KB的页.页是用来分配的.怎样才干进行高效和 ...

  3. 收藏 Silverlight中子窗体关闭刷新父窗体(转载)

        public partial class MainPage : UserControl    {        public MainPage()        {            In ...

  4. java内存管理和gc回收机制

    Java垃圾回收概况 Java GC(Garbage Collection,垃圾收集,垃圾回收)机制,是Java与C++/C的主要区别之一,作为Java开发者,一般不需要专门编写内存回收和垃圾清理代码 ...

  5. active mq 配置

    <transportConnectors> <!-- DOS protection, limit concurrent connections to 1000 and frame s ...

  6. hdu2049 不容易系列之(4)——考新郎 错排+组合 一共有N对新婚夫妇,N个新娘随机坐成一排,每个新郎只能选一个, 其中有M个新郎找错了新娘,求发生这种情况一共有多少种可能.

    不容易系列之(4)——考新郎 Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 65536/32768 K (Java/Others)To ...

  7. OC 内存管理-01

    创建对象 .分配内存空间,存储对象 .初始化成员变量 .反回对象的指针地址 //过程 ()对象在完成创建的同时,内部会自动创建一个引用计数器,这个计数器,是系统用来判断是否回收对象的唯一依据, 当我们 ...

  8. LOCAL_SHARED_LIBRARIES 与 LOCAL_LDLIBS,LOCAL_LDFLAGS的区别

    LOCAL_LDLIBS :链接的库不产生依赖关系,一般用于不需要重新编译的库,如库不存在,则会报错找不到.且貌似只能链接那些存在于系统目录下本模块需要连接的库.如果某一个库既有动态库又有静态库,那么 ...

  9. SourceInsight 不断无响应的有关问题

    SourceInsight 不断无响应的问题 sourceinsight3使用过程中,如果是大工程,总是出现抽筋的现象,CPU使用.内存占用都很高,阅读android源码不断出现无响应.后发现主要是因 ...

  10. azure绑定ssl,godaddy的ssl证书

    域名是godaddy 申请的,证书也是godaddy 购买的,DV证书. godaddy购买证书后,申请ssl,需要输入,csr.网上找的csr生成工具,我使用  https://myssl.com/ ...