celery 实例进阶
认识
这里有几个概念,task、worker、broker。
顾名思义,task 就是老板交给你的各种任务,worker 就是你手下干活的人员。
那什么是 Broker 呢?
老板给你下发任务时,你需要 把它记下来, 这个它 可以是你随身携带的本子,也可以是 电脑里地记事本或者excel,或者是你的 任何时间管理工具。
Broker 则是 Celery 记录task的地方。
作为一个任务管理者的你,将老板(前端程序)发给你的 安排的工作(Task) 记录到你的本子(Broker)里。接下来,你就安排你手下的IT程序猿们(Worker),都到你的本子(Broker)里来取走工作(Task)
1. broker为rabbitmq
#tasks.py

- from celery import Celery
- app = Celery('tasks', broker='amqp://admin:admin@localhost:5672')
- @app.task
- def add(x, y):
- return x + y

启动
- celery -A tasks worker --loglevel=info
运行

- >>> from tasks import add
- >>> add(1, 3)
- 4
- >>> add.delay(1,3)
- <AsyncResult: 07614cef-f314-4c7b-a33f-92c080cadb83>
- >>>

注:delay是使用异步的方式,会压入到消息队列。否则,不会使用消息队列。
文件名为tasks.py,则其中代码app = Celery('tasks', broker=),Celery第一个参数为工程名,启动时也是celery -A tasks worker --loglevel=info
对比
注:投入到指定的队列用:add.delay(1, 3, queue='queue_add1')
test_2.py

- from celery import Celery
- app = Celery('proj', broker='amqp://admin:admin@localhost:5672', include='test_2')
- @app.task
- def add(x, y):
- return x + y

2. 以python+文件名的方式启动
例1:
#test.py

- from celery import Celery
- import time
- app = Celery('test', backend='amqp', broker='amqp://admin:admin@localhost:5672')
- @app.task
- def add(x, y):
- print "------>"
- time.sleep(5)
- print "<--------------"
- return x + y
- if __name__ == "__main__":
- app.start()

启动
- python test.py worker
celery默认启动的worker数为内核个数,如果指定启动个数,用参数-c,例
- python test.py worker -c 2
例2:
#test.py

- from celery import Celery
- import time
- app = Celery('test', backend='amqp', broker='amqp://admin:admin@localhost:5672')
- @app.task
- def add(x, y):
- print "------>"
- time.sleep(2)
- print "<--------------"
- return x + y
- if __name__ == "__main__":
- app.start()

#eg.py

- from test import *
- import time
- rev = []
- for i in range(3):
- rev.append(add.delay(1,3))
- print "len rev:", len(rev)
- while 1:
- tag = 1
- for key in rev:
- if not key.ready():
- tag = 0
- time.sleep(1)
- print "sleep 1"
- if tag:
- break
- print "_____________________>"

3. broker为redis
#test_redis.py

- from celery import Celery
- import time
- #app = Celery('test_redis', backend='amqp', broker='redis://100.69.201.116:7000')
- app = Celery('test_redis', backend='redis', broker='redis://100.69.201.116:7000')
- @app.task
- def add(x, y):
- print "------>"
- time.sleep(5)
- print "<--------------"
- return x + y
- if __name__ == "__main__":
- app.start()

启动
- python test_redis.py worker -c 2
测试

- from celery import group
- from test_redis import *
- g = group(add.s(2, 3)).apply_async()
- g = group(add.s(2, 3)).apply_async()
- g = group(add.s(2, 3)).apply_async()
- g = group(add.s(2, 3)).apply_async()
- g = group(add.s(2, 3)).apply_async()
- for ret in g.get():
- print ret
- print "end-----------------------------------"

结果
- 5
- end-----------------------------------
4. 两个队列(redis)
#test_redis.py

- from celery import Celery
- import time
- #app = Celery('test_redis', backend='amqp', broker='redis://100.69.201.116:7000')
- app = Celery('test_redis', backend='redis', broker='redis://100.69.201.116:7000')
- @app.task
- def add(x, y):
- print "------>"
- time.sleep(5)
- print "<--------------"
- return x + y
- if __name__ == "__main__":
- app.start()

#test_redis_2.py

- from celery import Celery
- import time
- #app = Celery('test_redis', backend='amqp', broker='redis://100.69.201.116:7000')
- app = Celery('test_redis_2', backend='redis', broker='redis://100.69.201.116:7001')
- @app.task
- def add_2(x, y):
- print "=======>"
- time.sleep(5)
- print "<================="
- return x + y
- if __name__ == "__main__":
- app.start()

测试

- from celery import group
- from test_redis import *
- from test_redis_2 import *
- ll = [(1,2), (3,4), (5,6)]
- g = group(add.s(key[0], key[1]) for key in ll).apply_async()
- for ret in g.get():
- print ret
- print "end redis_1 -----------------------------------"
- ll = [(1,2), (3,4), (5,6)]
- g = group(add_2.s(key[0], key[1]) for key in ll).apply_async()
- for ret in g.get():
- print ":", ret
- print "end redis_2 -----------------------------------"

结果

- 3
- 7
- 11
- end redis_1 -----------------------------------
- : 3
- : 7
- : 11
- end redis_2 -----------------------------------

5. 两个队列(同一个rabbitmq)
注释:需要提前设置下队列
##例1
#test.py

- from celery import Celery
- import time
- app = Celery('test', backend='amqp', broker='amqp://admin:admin@localhost:5672//')
- @app.task
- def add(x, y):
- print "------>"
- time.sleep(5)
- print "<--------------"
- return x + y
- if __name__ == "__main__":
- app.start()

#test_2.py

- from celery import Celery
- import time
- app = Celery('test_2', backend='amqp', broker='amqp://admin:admin@localhost:5672//hwzh')
- @app.task
- def add_2(x, y):
- print "=====>"
- time.sleep(5)
- print "<=========="
- return x + y
- if __name__ == "__main__":
- app.start()

测试

- from celery import group
- from test import *
- from test_2 import *
- ll = [(1,2), (3,4), (7,8)]
- g = group(add.s(key[0], key[1]) for key in ll).apply_async()
- for ret in g.get():
- print ret
- ll = [(1,2), (3,4), (7,8)]
- g = group(add_2.s(key[0], key[1]) for key in ll).apply_async()
- for ret in g.get():
- print ret

结果

- 3
- 7
- 15
- 3
- 7
- 15

##例2
#test.py

- from celery import Celery
- import time
- app = Celery('test', backend='amqp', broker='amqp://admin:admin@localhost:5672//mq4')
- @app.task
- def add(x, y):
- print "------>"
- time.sleep(2)
- print "<--------------"
- return x + y
- @app.task
- def sum(x, y):
- print "------>"
- time.sleep(2)
- print "<--------------"
- return x + y
- if __name__ == "__main__":
- app.start()

#eg2.py

- from test import *
- import time
- rev = []
- for i in range(3):
- rev.append(add.delay(1,3))
- for i in range(3):
- rev.append(sum.delay(1,3))
- print "len rev:", len(rev)
- while 1:
- tag = 1
- for key in rev:
- if not key.ready():
- tag = 0
- time.sleep(1)
- print "sleep 1"
- if tag:
- break
- print "_____________________>"

6. 保存结果

- from celery import Celery
- app = Celery('tasks', backend='amqp', broker='amqp://admin:admin@localhost')
- @app.task
- def add(x, y):
- return x + y

启动
- celery -A tasks_1 worker --loglevel=info
与前例不同:
- ** ---------- [config]
- ** ---------- .> app: tasks:0x7f8057931810
- ** ---------- .> transport: amqp://admin:**@localhost:5672//
- ** ---------- .> results: amqp
运行

- >>> from tasks_1 import add
- >>> result = add.delay(1, 3)
- >>> result.ready()
- True
- >>> result.get()
- 4

7. 多个队列

- from celery import Celery
- from kombu import Exchange, Queue
- BROKER_URL = 'amqp://admin:admin@localhost//'
- app = Celery('tasks', backend='amqp',broker=BROKER_URL)
- app.conf.update(
- CELERY_ROUTES={
- "add1":{"queue":"queue_add1"},
- "add2":{"queue":"queue_add2"},
- "add3":{"queue":"queue_add3"},
- "add4":{"queue":"queue_add4"},
- },
- )
- @app.task
- def add1(x, y):
- return x + y
- @app.task
- def add2(x, y):
- return x + y
- @app.task
- def add3(x, y):
- return x + y
- @app.task
- def add4(x, y):
- return x + y

8. 消息路由
文件:tasks.py

- from celery import Celery, platforms
- import time
- import os
- app = Celery('proj', broker='amqp://admin:admin@ip:5672',
- include=['tasks']
- )
- app.conf.update(
- CELERY_ROUTES={
- 'tasks.fun_1': {
- 'queue': "q_1"
- },
- 'tasks.fun_2': {
- 'queue': "q_2"
- }
- }
- )
- platforms.C_FORCE_ROOT = True
- @app.task
- def fun_1(n):
- print "(((((((((((((((func_1", n
- return 1
- @app.task
- def fun_2(n):
- print n, ")))))))))))))))"
- return 2
- if __name__ == "__main__":
- app.start()

启动
- python tasks.py worker -c 2 -Q q_1
- python tasks.py worker -c 2 -Q q_2
两个消息队列:q_1, q_2,调用示例

- >>> from tasks import *
- >>> fun_1(1)
- (((((((((((((((func_1 1
- 1
- >>> fun_1.delay(1)
- <AsyncResult: 528a2ad1-bc16-4bdc-beff-cd166fe3e885>
- >>> fun_2.delay(2)
- <AsyncResult: ee5881eb-b384-4a39-ba00-08aa8ee53504>

9. woker内启多进程
#tasks.py

- from celery import Celery
- import time
- import multiprocessing as mp
- app = Celery('proj', broker='amqp://admin:admin@ip:5672', include="tasks")
- def test_func(i):
- print "beg...:", i
- time.sleep(5)
- print "....end:", i
- return i * 5
- @app.task
- def fun_1(n):
- curr_proc = mp.current_process()
- curr_proc.daemon = False
- p = mp.Pool(mp.cpu_count())
- curr_proc.daemon = True
- for i in range(n):
- p.apply_async(test_func, args=(i,))
- p.close()
- p.join()
- return 1
- if __name__ == "__main__":
- app.start()

说明
直接启动多进程是肯定不可以的,因为是守候进程(curr_proc.daemon=True),所以启多进程之前主动设置为非守候进程:curr_proc.daemon=False,启动了以后再设为守候进程
#tasks_callback.py

- from celery import Celery
- import time
- import multiprocessing as mp
- app = Celery('proj', broker='amqp://admin:admin@ip:5672', include="tasks_callback")
- rev = []
- def test_func(i):
- print "beg...:", i
- time.sleep(5)
- print "....end:", i
- return i * 5
- def callback_log(rev_val):
- rev.append(rev_val)
- @app.task
- def fun_1(n):
- print "before rev:", rev
- curr_proc = mp.current_process()
- curr_proc.daemon = False
- p = mp.Pool(mp.cpu_count())
- curr_proc.daemon = True
- for i in range(n):
- p.apply_async(test_func, args=(i,), callback=callback_log)
- p.close()
- p.join()
- print "after rev:", rev
- return 1
- if __name__ == "__main__":
- app.start()

10. 常用参数配置
1. CELERYD_PREFETCH_MULTIPLIER
同时预取得消息个数,比如如果CELERYD_PREFETCH_MULTIPLIER=2,那么如果现在对于1个worker,有一个状态是STARTED, 那么可以有2个处于RECEVED状态(如果有的话),这样就避免了如果消息很多全部分下取,后起来的worker领不到消息的尴尬。
参考代码

- from celery import Celery, platforms
- import time
- import os
- app = Celery('proj', broker='amqp://admin:admin@localhost:5672',
- include=['tasks']
- )
- app.conf.update(
- CELERYD_PREFETCH_MULTIPLIER=2,
- CELERY_ROUTES={
- 'tasks.fun_1': {
- 'queue': "q_1"
- },
- 'tasks.fun_2': {
- 'queue': "q_2"
- }
- }
- )
- platforms.C_FORCE_ROOT = True
- @app.task
- def fun_1(n):
- print "(((((((((((((((func_1", n
- time.sleep(20)
- return 1
- @app.task
- def fun_2(n):
- print n, ")))))))))))))))"
- return 2

调用

- >>> from tasks import *
- >>> fun_1.delay(3)
- <AsyncResult: 609f2216-6785-409e-9f6f-85ae3fcce084>
- >>> fun_1.delay(3)
- <AsyncResult: 0230b8bd-b237-40ef-bc73-88929f8f8290>
- >>> fun_1.delay(3)
- <AsyncResult: 8fce172a-93c9-41f8-8c08-377a4363389c>
- >>> fun_1.delay(3)

celery 实例进阶的更多相关文章
- Laravel5.0学习--02 实例进阶
本文以laravel5.0.22为例. 本节以新建一个简单的博客作为实例. 准备工作 数据库配置 .env文件(也可以直接修改config/database.php) DB_HOST=localhos ...
- 分布式任务队列Celery入门与进阶
一.简介 Celery是由Python开发.简单.灵活.可靠的分布式任务队列,其本质是生产者消费者模型,生产者发送任务到消息队列,消费者负责处理任务.Celery侧重于实时操作,但对调度支持也很好,其 ...
- Celery(三)实例Application
Celery必须实例化后才可以使用,实例称之为application或者简称app.实例是线程安全的,多个Celery实例(不同的配置.部件和任务)都可以在一个进程空间中运行. 创建一个最简单的app ...
- Celery初识及简单实例
Celery是一个“自带电池”的任务队列.易于使用,可以轻易入门,它遵照最佳实践设计,使产品可以扩展,或与其他语言集成,并且它自带了在生产环境中运行这样一个系统所需的工具和支持.本文介绍基础部分: 选 ...
- celery 基础教程(二):简单实例
前言 使用celery包含三个方面:1. 定义任务函数.2. 运行celery服务.3. 客户应用程序的调用. 实例一: #1. 定义任务函数 创建一个文件 tasks.py输入下列代码: from ...
- celery 框架
转自:http://www.cnblogs.com/forward-wang/p/5970806.html 生产者消费者模式 在实际的软件开发过程中,经常会碰到如下场景:某个模块负责产生数据,这些数据 ...
- celery 异步任务小记
这里有一篇写的不错的:http://www.jianshu.com/p/1840035cb510 自己的"格式化"后的内容备忘下: 我们总在说c10k的问题, 也做了不少优化, 然 ...
- Celery 框架学习笔记
在学习Celery之前,我先简单的去了解了一下什么是生产者消费者模式. 生产者消费者模式 在实际的软件开发过程中,经常会碰到如下场景:某个模块负责产生数据,这些数据由另一个模块来负责处理(此处的模块是 ...
- Celery,Tornado,Supervisor构建和谐的分布式系统
Celery 分布式的任务队列 与rabbitmq消息队列的区别与联系: rabbitmq 调度的是消息,而Celery调度的是任务. Celery调度任务时,需要传递参数信息,传输载体可以选择rab ...
随机推荐
- easymock快速入门
easymock是众多mock之中的很容易用的mock,今天刚开始学习,来个简单的教程.以购物车结算为例子,比如首先是每一个商品项的pojo. public class Item { private ...
- UIAlertView 点击按钮后控制其是否消失
新建NotDismissAlertView类,继承UIAlertView. 设置控制是否消失的标示符 重写 在-(void)dismissWithClickedButtonIndex:(NSInte ...
- [MSP430] 对MSP430单片机__delay_cycles精确延时的说明及改正
在这里, 我来讨论一下关于MSP430单片机使用__delay_cycles延时的问题. IAR for MSP430编译器提供了一个编译器内联的精确延时函数(并非真正的 函数)以提供用户精确延时使用 ...
- cron执行service
在Cron的环境下,是没有定义路径的,所以,service xxx start等等要使用绝对路径 => /sbin/service xxx start service的路径可以用whereis ...
- SharePoint 关于拓扑错误的解决方案
Issue Topology报错信息:SharePoint Web Services Round Robin Service Load Balancer Event: EndpointFailure. ...
- JSP相关知识
1.JSP的3个编译指令 pag include taglib 2.JSP的7个动作指令 forward include useBean setProperty getProperty plugin ...
- UnicodeDecodeError: 'utf-8' codec can't decode byte
for line in open('u.item'): #read each line whenever I run this code it gives the following error: U ...
- update关联其他表批量更新数据-跨数据库-跨服务器Update时关联表条件更新
1.有时在做项目时会有些期初数据更新,从老系统更新到新系统.如果用程序循环从老系统付给新系统. 2.有时在项目中需要同步程序,或者自动同步程序时会有大量数据更新就可能用到如下方法了. 3.为了做分析, ...
- DCOS中监控和弹性伸缩方案经验
监控的选型 我们的DCOS 主要是面向2种业务形态:互联网应用,NFV组件和相关的数据库.2种不同的业务虽然说都是跑在容器内部,但是其实需要监控的信息和指标都是各不相同.因此在选择监控方案的时候我们更 ...
- Android:使用 DownloadManager 进行版本更新,出现 No Activity found to handle Intent 及解决办法
项目中,进行版本更新的时候,用的是自己写的下载方案,最近看到了使用系统服务 DownloadManager 进行版本更新,自己也试试. 在下载完成以后,安装更新的时候,出现了一个 crash,抓取的 ...