flask + celery实现定时任务和异步
参考资料:
Celery 官网:http://www.celeryproject.org/
Celery 官方文档英文版:http://docs.celeryproject.org/en/latest/index.html
Celery 官方文档中文版:http://docs.jinkan.org/docs/celery/
Celery简介
除Celery是一个异步任务的调度工具。 Celery 是 Distributed Task Queue,分布式任务队列,分布式决定了可以有多个 worker 的存在,队列表示其是异步操作,即存在一个产生任务提出需求的工头,和一群等着被分配工作的码农。
Broker
在 Python 中定义 Celery 的时候,我们要引入 Broker(消息中间件),中文翻译过来就是“中间人”的意思,在这里 Broker 起到一个中间人的角色。在工头提出任务的时候,把所有的任务放到 Broker 里面,在 Broker 的另外一头,一群码农等着取出一个个任务准备着手做。
Backend
这种模式注定了整个系统会是个开环系统,工头对于码农们把任务做的怎样是不知情的。所以我们要引入 Backend 来保存每次任务的结果。这个 Backend 有点像我们的 Broker,也是存储任务的信息用的,只不过这里存的是那些任务的返回结果。我们可以选择只让错误执行的任务返回结果到 Backend,这样我们取回结果,便可以知道有多少任务执行失败了。
Celery应用场景
1.你想对100台机器执行一条批量命令,可能会花很长时间 ,但你不想让你的程序等着结果返回,而是给你返回 一个任务ID,你过一段时间只需要拿着这个任务id就可以拿到任务执行结果, 在任务执行ing进行时,你可以继续做其它的事情。
2.你想做一个定时任务,比如每天检测一下你们所有客户的资料,如果发现今天 是客户的生日,就给他发个短信祝福
Celery的特点
1.简单:一单熟悉了celery的工作流程后,配置和使用还是比较简单的
2.高可用:当任务执行失败或执行过程中发生连接中断,celery 会自动尝试重新执行任务
3.快速:一个单进程的celery每分钟可处理上百万个任务
3.灵活: 几乎celery的各个组件都可以被扩展及自定制
Celery工作基本流程
我们的项目
项目目录:
proj/celery.py
from __future__ import absolute_import, unicode_literals
from celery import Celery app = Celery('proj',
broker = 'amqp://',
backend = 'amqp://',
include = ['proj.tasks']) app.conf.update(
result_expires =
) if __name__ == '__main__':
app.start()
在这个模块中创建了Celery
实例(通常称为app
)
要在项目中使用Celery
只需要通过import
导入该实例就行了
broker
参数指定要使用的中间件的URLbackend
参数指定使用的result backend
用来跟踪任务状态和结果,虽然默认状态下结果不可用。以上例子中使用
RPC result backend
。当然,不同的result backend
都有自己的好处和坏处,根据自己实际情况进行选择,如果不需要最好禁用。通过设置@task(ignore_result=True)
选项来禁用耽搁任务)include
参数是当worker
启动时导入的模块列表需要在这里添加自己的任务莫夸这样worker
就可以找到任务
proj/tasks.py
from __future__ import absolute_import, unicode_literals
from .celery import app @app.task
def add(x, y):
return x + y @app.task
def mul(x, y):
return x * y @app.task
def xsum(numbers):
return sum(numbers)
启动worker
Celery
程序可以用来启动worker
:
celery -A proj worker -l info
-------------- celery@centos6 v4.1.0 (latentcall)
---- **** -----
--- * *** * -- Linux-2.6.32-696.el6.x86_64-x86_64-with-centos-6.9-Final 2018-03-26 12:27:49
-- * - **** ---
- ** ---------- [config]
- ** ---------- .> app: task:0x7fe5cfbd20d0
- ** ---------- .> transport: amqp://guest:**@localhost:5672//
- ** ---------- .> results: amqp://
- *** --- * --- .> concurrency: 4 (prefork)
-- ******* ---- .> task events: OFF (enable -E to monitor tasks in this worker)
--- ***** -----
-------------- [queues]
.> celery exchange=celery(direct) key=celery
[tasks]
[2018-03-26 12:27:49,921: INFO/MainProcess] Connected to amqp://guest:**@localhost:5672//
[2018-03-26 12:27:49,926: INFO/MainProcess] mingle: searching for neighbors
[2018-03-26 12:27:49,499: INFO/MainProcess] mingle: sync with 1 nodes
[2018-03-26 12:27:50,950: INFO/MainProcess] mingle: sync complete
[2018-03-26 12:27:50,957: INFO/MainProcess] celery@centos6 ready.
broker
是在celery
模块中指定的中间件参数的url,也可以在命令行中通过-b
选项指定不同的中间件Concurrent
是用于并行处理的任务的预创建worker
进程数量,当所有的任务都在忙于工作时,新的任务必须等待之前的执行完成才能处理
默认的并发数是机器上CPU的数量,可以通过
celery worker -c
选项指定自定义数量。没有推荐值,最佳数量取决于很多因素,但是如果你的任务主要是I/O相关的,就可以增加这个数量。实验表明,增加超过两倍CPU数量效果很差,而且可能会降低性能
除了prefork pool
,Celery
还支持Eventlet
、Gevent
并且还能在单线程上运行
Event
是一个可选项,当启用的时候,Celery
会发送监控(消息)来反映worker
的操作,也可以被用来监视像celery
、events
和Flower
(实时Celery
监控)这样的程序。Queues
是worker
将使用的任务的队列的集合,worker
可以一次接受几个队列,它用来将消息路由到特定的工作者以作为服务质量、关注点分离、和优化的一种方式
可以通过命令行获取完整的列表————celery worker --help
停止worker
ctrl-c
后台
生产环境中一般将worker
放到后台,后台脚本使用celery multi
命令后台启动一个或多个worker
celery multi start w1 -A proj -l info
控制台打印
celery multi v4.1.0 (latentcall)
> Starting nodes...
> w1@centos6: OK
Stale pidfile exists - Removing it.
也可以重启:
celery multi restart w1 -A proj -l info
celery multi v4.1.0 (latentcall)
> Stopping nodes...
> w1@centos6: TERM -> 23620
> Waiting for 1 node -> 23620.....
> w1@centos6: OK
> Restarting node w1@centos6: OK
> Waiting for 1 node -> None...
停止:
celery multi stop w1 -A proj -l info
stop
命令是异步的所以它不会等待worker
关闭,可以使用stopwait
命令来确保当前执行都任务在退出前都已执行完毕
celery multi stopwait w1 -A proj -l info
celery multi
不会存储关于worker
的信息,所以重启的时候需要使用同样的命令行参数。在停止时,必须使用相同的pidfile
和logfile
参数
默认情况下,程序将在当期目录创建pid
和log
文件,为了防止多个worker
运行出错,推荐将这些文件放在专门的目录:
mkdir -p /var/run/celery
mkdir -p /var/log/celery
celery multi start w1 -A proj -l info --pidfile=/var/run/celery/%n.pid --logfile=/var/log/celery/%n%I.log
使用multi
指令可以启动多个worker
,并且有一个强大的命令行语法来为不同的worker
指定参数:
celery multi start 10 -A proj -l info -Q:1-3 images, video -Q:4, 5 data -Q default -L:4,5 debug
--app
参数
--app
参数指定使用的Celery
应用实例,必须以module.path:attribute
的形式出现
但也支持快捷方式,只要包名指定了,就会尝试在应用实例中搜索
使用--app=proj
:
- 名为
proj.app
的属性 - 名为
proj.app
的属性 - 模块
proj
中的任何属性都是一个Celery
应用程序,如果都没有发现,它就会尝试一个名为proj.celery
的子模块 - 名为
proj.celery.app
的属性 - 名为
proj.celery.celery
的属性 - 模块
proj.celery
中的任何属性都是一个Celery
应用程序
任务调用
- 可以通过使用
delay()
方法来调用一个任务
add.delay(3, 3)
这个方法实际上是另一种叫做apply_async()
方法的快捷方式
add.applay_async((3, 3))
后者(applay_async()
)能够指定执行选项,比如运行时间(倒计时)、应该发送的队列等等:
add.apply_async((2, 2), queue='lopri', countdown=10)
上述案例中,任务会被发送给一个名为lopri
的队列,该任务会在信息发送后十秒执行
直接应用该任务会在当前进程中执行任务,不会发送消息
add(3, 3)
result:6
三种方法delay()
、apply_async()
和应用__call__
,代表了Celery
调用API,也同样用于签名
每一个任务调用都有一个唯一的标识符(UUID),这个就是任务的id
delay()
和apply_async
方法会返回一个AsyncResult
实例,可以被用来跟踪任务执行状态,但是需要开启result backend
这样状态才能被存储在某处Results
默认是禁用的,因为实际上没有一个result backend
适用于每个应用程序,所以要考虑到每个独立backend
的缺点来选择一个使用。对于许多保持返回值的任务来说都不是很有用,所以这个默认的禁用是很明智的。还需要注意的是,result backend
并不用来监控任务和worker
,对于Celery
有专门的事件消息
如果配置了result backend
就可以接收到任务的返回值
result = add.delay(2, 2)
res.get(timeout=1)
retult:4
- 可以通过查看
id
属性找到任务的id
res.id
result:073c568d-ca88-4198-b735-0f98f861218b
如果任务抛出异常也可以检查到异常,默认
result.get()
可以传播任何错误如果不希望错误传播,可以通过
propagete
属性禁用
res.get(propagate=False)
在这种情况下,它会返回所提出的异常实例,以便检查任务是否成功或失败,您将不得不在结果实例上使用相应的方法
res.failed()
res.successful()
也可以通过state
找到任务的状态
res.state
result:FAILUTE
- 一个任务只能有一个状态,但是可以在几个状态中发展,典型任务阶段可能是这样
PENDING -> STARTED -> SUCCESS
STARTED
状态是一个特殊的状态,只有在task_track_started
设置启用或者@task(track_started=True)
选项设置的时候才会被记录下来
PENDING
状态实际上不是记录状态,而是未知任务id的默认状态
from proj.celery import app
res = app.AsyncResult('this-id-does-not-exist')
res.state
result:PENDING
- 如果重新尝试这个任务可能会变得更复杂,对于一个尝试过两遍的任务来说阶段可能是这样:
PENDING -> STARTED -> RETRY -> STARTED -> RETRY -> STARTED -> SUCCESS
Canvas:设计任务流
前面学习了通过delay
方法调用任务,通常这样就够了,但是有时可能需要将任务调用的签名传递给另一个进程或者另一个函数的参数,对Celery
来说叫做signatures
签名以某种方式包装了单一任务调用的参数和执行选项,以便将其传递给函数,甚至序列化后发送。
可以使用参数(2, 2)
和十秒的计时器来为add
任务创建一个签名
add.signature((2, 2), countdown=10)
也可以简写:
add.s(2, 2)
调用API
签名的实例也支持调用API,意味着也可以有delay
和apply_async
方法
但是有一个区别,那就是签名可能已经指定了一个参数签名,add
任务接受两个参数,所以一个制定了两个参数的签名将会形成一个完整的签名
s1 = add.s(2, 2)
res = s1.delay()
res.get()
也可以使用不完成的签名,叫做partials
:
s1 = add.s(2)
s2
现在是部分签名,需要另一个参数才完整,则可以在调用signature
的时候处理
# resolves the partial: add(8, 2)
res = s2.delay(8)
res.get()
在这里,添加了参数8
,对已存在的参数2
组成了一个完整的签名add(8, 2)
关键字参数也可以延迟添加,会和已存在的关键字参数合并,新参数优先(新参数覆盖旧参数)
s3 = add.s(2, 2, debug=True)
s3.delay(debug=False)
已声明的签名支持调用API:
- sig.apply_async(arg=(), kwargs={}, **options
使用可选部分参数和部分关键字参数调用签名,也支持部分可执行选项 - sig.delay(*args, **kwargs)
apply_async
的星参版本,任何参数都会被预先记录在签名的参数你,关键字参数会和现有的keys
合并
基本体
- group
- chain
- chord
- map
- starmap
- chunks
这些基本体本身就是签名对象,因此,它们可以以任何多种方式组合起来组成复杂的工作流
Group
一个group
同时调用任务列表,返回一个特殊结果实例,这样可以以组的形式检查结果,并按顺序检索返回值
from celery import group
from proj.tasks import add
group(add.s(i, i) for in in range(10))().get()
result:[0, 2, 4, 6, 8, 10, 12, 14, 16, 18]
- Partial group
g = group(add.s(i, i) for i in range(10))
g(10).get()
result:[10, 11, 12, 13, 14, 15, 16, 17, 18, 19]
Chains
任务可以被相互连接起来,这样在一个任务返回后另一个任务被调用
from celery import chain
form proj.tasks import add, mul
// 用法1
chian(add.s(4, 4) | mul.s(8))().get()
// 用法2
g = chain(add.s(4) | mul.s(8))
g(4).get()
// 用法3
(add.s(4, 4) | mul.s(8))().get()
Chords
chord
是一个有返回值的group
from celery import chord
from proj.tasks import add, xsum
// 用法1
(group(add.s(i, i) for i in range(10)) | xsum.s())().get()
// 用法2
upload_document.s(file) | group(apply_filter.s() for filter in filters)
路由
Celery
支持AMQP提供的所有路由设施,但是它也支持简单路由,将消息发送到指定的队列
task_routes
设置可以是用户按名称对任务进行路由,并将一切集中在一个位置
app.conf.update{
task_routes = {
'proj.tasks.add': {'queue': 'hipri'},
}
}
可以在运行时通过queue
参数指定队列到apply_async
:
from proj.tasks import add
add.apply_async((2,2), queue='hipri')
然后可以通过指定celery worker -Q
选项使worker
从队列中消费
celery -A proj worker -Q hipri
也可以通过使用逗号分隔符(,
)来指定多个队列
celery -A proj worker -Q hipri, celery
默认队列因为历史原因命名为:
celery
队列的顺序无关紧要,因为worker
会给队列相同的权重
远程控制
如果使用RabbitMQ(AMQP)
、Redis
或者Qpid
作为中间件就可以在运行时监视worker
- 查看
worker
当前执行的任务
celery -A proj inspect active
这是通过使用广播消息实现的,因此,急群众的每一个工作人员都能接收到所有远程控制命令
- 也可以指令一个或多个
worker
使用--destination
选项请求行动,这是一个逗号分隔的worker
主机名列表
celery -A proj inspect active --destination=celery@example.com
如果没有提供目标,那么每个worker
都会对请求做出反应并回复
celery inspect
命令包含的命令不会改变worker
的任何东西,它只会回复关于worker
内部发生的事情的信息和统计信息,可以执行命令检查列表:
celery -A proj inspect --help
celery control
命令,包含在运行时实际改变worker
操作的命令
celery -A proj control --help
- 强制
worker
启用事件消息(用于监视任务和工作人员)
celery -A proj control enable_events
当事件激活,可以启动event dumper
查看worker
正在做什么
celery -A proj events --dump
或者
celery -A proj events
当完成监控可以再次禁用events
celery -A proj control disable_events
celery status
命令还能使用远程控制命令,并显示集群中的在线worker
列表
celery -A proj status
时区
所有的时间和日期、内部和消息多使用UTC时间区域
当worker
收到消息,例如使用倒计时设置,它将UTC时间转换为本地时间。如果希望使用与系统时区不同的地区,那么必须要使用时区设置来配置该时区:
app.conf.timezone = 'Asia/Shanghai'
最优化
默认的配置并没有针对吞吐量进行优化,它试图在许多短任务和更少的长任务之间走中间路线,这是吞吐量和公平调度之间的折中
“过一个平凡无趣的人生实在太容易了,你可以不读书,不冒险,不运动,不写作,不外出,不折腾……但是,人生最后悔的事情就是:我本可以。”——陈素封。
flask + celery实现定时任务和异步的更多相关文章
- celery(芹菜) 异步任务 定时任务 周期任务
什么是celery Celery是一个简单.灵活且可靠的,处理大量消息的分布式系统 专注于实时处理的异步任务队列 同时也支持任务调度 celery架构 celery的架构由三部分组成,消息中间件(me ...
- Celery完成定时任务
1.什么是Celery Celery是一个简单.灵活且可靠的,处理大量消息的分布式系统 专注于实时处理的异步任务队列 同时也支持任务调度 celery支持linux,如果windows使用celery ...
- flask插件系列之flask_celery异步任务神器
现在继续学习在集成的框架中如何使用celery. 在Flask中使用celery 在Flask中集成celery需要做到两点: 创建celery的实例对象的名字必须是flask应用程序app的名字,否 ...
- 【SpringBoot】整合定时任务和异步任务
========================10.SpringBoot整合定时任务和异步任务处理 =============================== 1.SpringBoot定时任务s ...
- Django中使用Celery实现定时任务(用djcelery)
一.引言 Django是python语言下的一个比较热门的Web框架,越来越多的企业和开发者使用Django实现自己的Web服务器.在Web服务器开发过程中,有时候我们不仅仅是要实现Web服务器端和用 ...
- django+celery 实现定时任务
利用 celery 实现定时任务 celery支持定时任务,设定好任务的执行时间,celery就会定时自动帮你执行, 这个定时任务模块叫celery beat Celery安装 由于celery 4. ...
- SpringBoot2.x整合定时任务和异步任务处理
SpringBoot2.x整合定时任务和异步任务处理 一.项目环境 springboot2.x本身已经集成了定时任务模块和异步任务,可以直接使用 二.springboot常用定时任务配置 1.在启动类 ...
- 【SpringBoot】SpringBoot2.x整合定时任务和异步任务处理
SpringBoot2.x整合定时任务和异步任务处理 一.项目环境 springboot2.x本身已经集成了定时任务模块和异步任务,可以直接使用 二.springboot常用定时任务配置 1.在启动类 ...
- 三、celery执行定时任务
三.Celery执行定时任务 设定时间让celery执行一个 定时任务,product_task.py from celery_task import send_email from datetime ...
随机推荐
- httpClient4.5.2工具类总结
使用背景: 因项目使用非结构化存储,http相关jar包统一升级到httpClient4.5.2,查阅相关文档总结如下,以咨分享,望不吝指教. 依赖jar包 httpclient-4.5.2.jar. ...
- numpy.hstack(tup)
numpy.hstack(tup) Stack arrays in sequence horizontally (column wise). Take a sequence of arrays and ...
- VS编译器问题总结
error C2236: 意外的“class”“CTsgBaseTask”.是否忘记了“;”? 出现这个问题的原因是在引用的一个头文件中定义的一个类最后没有加分号";".
- MYSQL安装相关知识
将mysql安装为winsow服务 1.执行命令: mysqld-nt.exe --install (安装到windows的服务) 或者是mysqld -install 2.执行命令: net sta ...
- 总结下Nginx的功能模块
nginx-1.10.3]# ./configure \ --prefix=/usr/local/nginx \ #指定安装路径 --user=nginx --group=ngin ...
- FastDFS 集群
FastDFS 集群 克隆虚拟机 VMware修改mac 修改 ip地址 rm -f /etc/udev/rules.d/70-persistent-net.rules reboot Tracker集 ...
- python代码优化-----cpu和内存监控
1.memory_profiler可以监控代码的内存消耗及增长量,以下面的代码为例. 发现在for循环里增加了0.3MB,这个工具可以帮助我们定位内存泄露的问题. 2.profile与cProfile ...
- HMM 传统后向算法
HMM 传统后向算法,已实现,仅供参考. package jxutcm.edu.cn.hmm.model; import jxutcm.edu.cn.hmm.bean.HMMHelper; impor ...
- 牛顿迭代法——C语言
include <stdio.h> include <math.h> int main() { flaot solution(float a,flaot b,float c,f ...
- python openpyxl 简单使用
1. 加载excel import openpyxl from openpyxl.utils import get_column_letter,column_index_from_string fro ...