今日内容概要

  • 补充:进程,线程,协程
  • docker-compose一键部署演示
  • 搭建代理池
  • requests超时设置
  • requests认证设置
  • requests异常处理
  • requests上传文件

内容详细

1、进程,线程,协程

# 进程,线程,协程
# -进程是资源分配的最小单位
不是程序--》qq,迅雷程序---》运行一个程序,分配内存运行程序
一个py文件不一定是一个进程---》py运行在解释器之上---》一个解释器是一个进程
python中Process类开进程---》又拉起了一个解释器,再执行代码
只有在python上开进程用的多,其他语言一般不开多进程,只开多线程就够了
python有GIL锁的原因,同一个进程下多个线程实际上同一时刻,只有一个线程在执行
cpython解释器不能利用多核优势,只有开都进程才能利用多核优势,其他语言不存在这个问题 # 线程是cpu执行的最小单位
一个进程下可以开启多个线程
8核cpu电脑,充分利用起我这个8核,至少起8个线程,8条线程全是计算--->计算机cpu使用率是100%
如果不存在GIL锁,一个进程下,开启8个线程,它就能够充分利用cpu资源,跑满cpu
cpython解释器中好多代码,模块都是基于GIL锁机制写起来的,改不了了---》我们不能有8个核,但我现在只能用1核,----》开启多进程---》每个进程下开启的线程,可以被多个cpu调度执行
cpython解释器:io密集型使用多线程,计算密集型使用多进程
io密集型,遇到io操作会切换cpu,假设你开了8个线程,8个线程都有io操作---》io操作不消耗cpu---》一段时间内看上去,其实8个线程都执行了
计算密集型,消耗cpu,如果开了8个线程,第一个线程会一直占着cpu,而不会调度到其他线程执行,其他7个线程根本没执行,所以我们开8个进程,每个进程有一个线程,8个进程下的线程会被8个cpu执行,从而效率高
由于进程是资源分配的最小单位,起了一个进程,定义了变量,这个变量在多个线程下是共享的 进程间通信---IPC:进程间数据隔离,所以需要通信---》Queue(进程queue)---》一般使用消息队列--》redis
同一个进程下多线程数据是共享的
多线程同时操作一个数据,数据错乱,并发安全问题--->加锁--》让原本并发的操作,变成串行,牺牲效率,保证安全---》通过线程queue也可以避免并发安全的问题,所有queue的本质就是锁
互斥锁 ---》效率高低 --》自旋锁
死锁问题:a线程拿了a锁,想要拿b锁,b线程拿了b锁,想拿a锁
递归锁(可重入锁):让一把锁可以重复被同一个线程拿到 a和b都是一个锁,a可重入锁 多进程下的不同线程要通信如何做
等同于进程间通信 # 协程是单线程下程序层面控制任务的切换实现并发
本身cpu遇到io会切换到另一条线程执行---》线程间切换要保存线程状态,后来再切回来执行,要恢复状态,操作系统层面操作,消耗资源
程序员想:程序层面自己切换,task1(),task2(),当task1执行中遇到io操作,程序层面切换到task2中执行,操作系统只看到一条线程在执行,都在执行计算操作,操作系统层面就不会切,看到效果,一个时间段内,执行了很多任务,但都是在同一条线程下执行的
协程也只是针对io密集型的操作才效率高,如果纯计算密集型,它就不切,效率就不高
使用协程,遇到io就会切换---》task1(),task2(),当task1执行中遇到io操作,程序层面切换到task2中执行但是task2的io还没结束,不停来回切换空耗cpu # GIL:cpython解释器好多都是基于GIL锁机制写起来的,改不了了
全局解释器锁:最早,都是单核cpu,python是解释型语言,有垃圾回收机制---》开了多线程,多个线程引用了这个变量---》要做垃圾回收(垃圾回收线程)---》检索引用计数是不是0,必须要保证在垃圾回收线程在执行的时候,其它线程不能执行的,才能顺利做垃圾回收---》当时又是单核cpu,不存在多核的情况,最简单的方法,搞一把大锁,在同一个时刻,只要拿到gil锁,线程才能执行---》随着多核cpu的出现--->没办法了,作者写了开启多进程的方案来解决 cpu不能充分利用的问题 # 了解一下 go语言代码使用c调用
https://zhuanlan.zhihu.com/p/355538331 # 有了GIL锁,为什么还要互斥锁
同一时刻只有一个线程在执行,还会出并发安全的问题吗? 已经变成串行了,怎么还会有并发安全问题?
比如两个线程要把a=a+1,a一开始等于0
第一个线程取到了a,计算完了 a现在是1 ,还没赋值回顾
第二个线程取到了a,计算问了,a现在是1,线程切换回第一条线程,a变成了1 # 你用web框架写东西,用过多线程或者多进程吗?
可能用celery使用过多进程
如何保证项目的并发量?--》前面的web服务器干的---》wsgiref---》uwsgi使用c写的,c开启进程,线程,在c进程中执行django,执行python的代码
uwsgi是进程+线程模型
uwsgi+gevent 是进程+线程模型+协程模型

2、docker-compose一键部署演示

### 1 新的centos机器,安装docker和docker-compost
# 安装依赖
yum install -y yum-utils device-mapper-persistent-data lvm2 # 设置yum源
yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo # 安装docker
yum install -y docker-ce # 设置开机启动
systemctl enable docker # 启动 Docker
systemctl start docker # 查看版本
docker version ## 安装docker-compose
# 下载
curl -L https://get.daocloud.io/docker/compose/releases/download/v2.5.0/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose # 赋予执行权限
chmod +x /usr/local/bin/docker-compose # 查看版本
docker-compose --version ### 2 下载代码并启动
# 下载git
yum install git -y # 下载代码
git clone https://gitee.com/deity-jgx/luffy.git # 进入目录
cd luffy # 运行
docker-compose up
"""
https://gitee.com/liuqingzheng/luffy ### 修改 luffycity/src/assets/js/settings.js:
export default {
base_url: "http://139.224.254.58:8000(改为自己的服务器公网IP )/api/v1/"
} """ ### 3 导入测试数据
# 把luffy下luffy_api下的luffy.sql导入luffy库

3、搭建代理池

# https://github.com/jhao104/proxy_pool
python的爬虫+flask写的
本质使用爬虫技术爬取免费的代理,验证--》requests模块验证---》存到redis中
起一个web服务器,只要访问一个地址,他就随机给你一个ip地址 # 步骤:
第一步:git clone git@github.com:jhao104/proxy_pool.git 第二步:安装依赖:pip install -r requirements.txt 第三步: 修改代码,修改配置
# setting.py 为项目配置文件
# 配置API服务
HOST = "0.0.0.0" # IP
PORT = 5000 # 监听端口 # 配置数据库
DB_CONN = 'redis://:pwd@127.0.0.1:8888/0' # 配置 ProxyFetcher
PROXY_FETCHER = [
"freeProxy01", # 这里是启用的代理抓取方法名,所有fetch方法位于fetcher/proxyFetcher.py
"freeProxy02",
# ....
] 第四步:启动爬虫
python3 proxyPool.py schedule 第五步:启动服务
# 启动webApi服务
python proxyPool.py server
### 代理使用测试

import requests

# http://127.0.0.1:5010/get/
ip = "http://" + requests.get('http://139.155.237.73:5010/get/').json()['proxy']
print(ip)
proxies = {
'http': ip,
}
res = requests.get('http://47.104.165.24:8001/check/', proxies=proxies)
print(res.text)

4、requests超时设置

import requests

# http://127.0.0.1:5010/get/
ip = "http://" + requests.get('http://139.155.237.73:5010/get/').json()['proxy'] print(ip) proxies = {
'http': ip,
} res = requests.get('http://47.104.165.24:8001/check/', proxies=proxies, timeout=1) print(res.text)

5、requests认证设置

# 这种很少见,极个别公司内部可能还用这种

import requests
from requests.auth import HTTPBasicAuth r = requests.get('xxx', auth=HTTPBasicAuth('user', 'password'))
print(r.status_code) # HTTPBasicAuth可以简写为如下格式
import requests r = requests.get('xxx', auth=('user', 'password'))
print(r.status_code)

6、requests异常处理

from requests.exceptions import *  # 可以查看requests.exceptions获取异常类型

try:
r = requests.get('http://www.baidu.com', timeout=0.00001)
except ReadTimeout:
print('===:') # except ConnectionError: #网络不通
# print('-----')
# except Timeout:
# print('aaaaa') except Exception:
print('Error')

7、requests上传文件

# 上传文件--》爬虫一般不会用,但是咱们服务会用

import requests

files = {'file': open('a.jpg', 'rb')}
respone = requests.post('http://httpbin.org/post', files=files)
print(respone.status_code) # 咱们django项目
你们公司项目,使用了第三方服务,第三放服务提供了api接口,没提供sdk
就要使用request发送请求,获取数据 # 前端提交一个长链地址 www.cnblogs.com/liuqingzheng/p/233.html--->转成短链--》x.com/asdf--->存到自己数据库中 # 专门服务,处理长连转短链(go,java)---》接口--》post,带着地址---》返回json,短链地址

进程线程协程补充、docker-compose一键部署项目、搭建代理池、requests超时设置、认证设置、异常处理、上传文件的更多相关文章

  1. Docker Compose一键部署Nginx反向代理Tomcat集群

    目录结构如下 mysql/conf/my.cnf [mysqld] user=mysql port=3306 datadir=/var/lib/mysql socket=/var/lib/mysql/ ...

  2. 进程&线程&协程

    进程  一.基本概念 进程是系统资源分配的最小单位, 程序隔离的边界系统由一个个进程(程序)组成.一般情况下,包括文本区域(text region).数据区域(data region)和堆栈(stac ...

  3. Python并发编程系列之常用概念剖析:并行 串行 并发 同步 异步 阻塞 非阻塞 进程 线程 协程

    1 引言 并发.并行.串行.同步.异步.阻塞.非阻塞.进程.线程.协程是并发编程中的常见概念,相似却也有却不尽相同,令人头痛,这一篇博文中我们来区分一下这些概念. 2 并发与并行 在解释并发与并行之前 ...

  4. Python 进程线程协程 GIL 闭包 与高阶函数(五)

    Python 进程线程协程 GIL 闭包 与高阶函数(五) 1 GIL线程全局锁 ​ 线程全局锁(Global Interpreter Lock),即Python为了保证线程安全而采取的独立线程运行的 ...

  5. python自动化开发学习 进程, 线程, 协程

    python自动化开发学习 进程, 线程, 协程   前言 在过去单核CPU也可以执行多任务,操作系统轮流让各个任务交替执行,任务1执行0.01秒,切换任务2,任务2执行0.01秒,在切换到任务3,这 ...

  6. 多道技术 进程 线程 协程 GIL锁 同步异步 高并发的解决方案 生产者消费者模型

    本文基本内容 多道技术 进程 线程 协程 并发 多线程 多进程 线程池 进程池 GIL锁 互斥锁 网络IO 同步 异步等 实现高并发的几种方式 协程:单线程实现并发 一 多道技术 产生背景 所有程序串 ...

  7. Docker Compose 一键部署LNMP

    Docker Compose 一键部署LNMP 目录结构 [root@localhost ~]# tree compose_lnmp/ compose_lnmp/ ├── docker-compose ...

  8. Docker Compose 一键部署Nginx代理Tomcat集群

    Docker Compose 一键部署Nginx代理Tomcat集群 目录结构 [root@localhost ~]# tree compose_nginx_tomcat/ compose_nginx ...

  9. Docker Compose 一键部署多节点爬虫程序

    Docker Compose 一键部署多节点爬虫程序 目录结构 [root@localhost ~]# tree compose_crawler/ compose_crawler/ ├── cento ...

随机推荐

  1. memcached 是如何做身份验证的?

    没有身份认证机制!memcached 是运行在应用下层的软件(身份验证应该是应用 上层的职责).memcached 的客户端和服务器端之所以是轻量级的,部分原因就 是完全没有实现身份验证机制.这样,m ...

  2. Memcached 服务特点及工作原理是什么?

    a.完全基于内存缓存的 b.节点之间相互独立 c.C/S 模式架构,C 语言编写,总共 2000 行代码. d.异步I/O 模型,使用 libevent 作为事件通知机制. e.被缓存的数据以 key ...

  3. Markdown语法2

    二 . 低频使用的语法 下面是相对用得少的markdown语法,但也值得学习学习. 10.区块(块引用) 要创建块引用,请在段落前添加一个 >  符号: 块引用支持多段落: 块引用支持嵌套,即引 ...

  4. ajax解析json对象集合

    这个需求是我们做项目经常遇到的,当你想渲染表格的数据,你的数据在servlet中存在了arraylist中,你想把arraylist传到ajax的data中,这时候就需要用到ObjectMapper对 ...

  5. 用AltiumDesigner画完PCB生成gerber(光绘)文件详细说明

    什么是gerber文件             Gerber文件是所有电路设计软件都可以产生的文件,在电子组装行业又称为模版文件(stencil data),在PCB制造业又称为光绘文件.可以说Ger ...

  6. div 底部固定方法(不用position定位)

    方法一:全局增加一个负值下边距等于底部高度 <style> html, body { height: 100%; margin: 0; } .content { padding: 20px ...

  7. Linux 0.11源码阅读笔记-总览

    Linux 0.11源码阅读笔记-总览 阅读源码的目的 加深对Linux操作系统的了解,了解Linux操作系统基本架构,熟悉进程管理.内存管理等主要模块知识. 通过阅读教复杂的代码,锻炼自己复杂项目代 ...

  8. python爬取京东评论

    一.分析 1.找到京东商品评论所在位置(记得点击商品评论,否则找不到productPageComments.action)  2.解析文件 打开后发现是json数据,但不是那么规范,所以需要去点前面的 ...

  9. vue-cropper裁剪上传

    效果图: 全部代码: npm install vue-cropper //首先 安装vue-cropper main.js全局引用: import VueCropper from 'vue-cropp ...

  10. CentOS7 DHCP自动获取IP地址

    # 设置auto自动获取IP[root@localhost ~]# nmcli c modify eth0 ipv4.method auto //etho0 网卡名称     # 重新启动网卡并重新加 ...