认识

这里有几个概念,task、worker、broker。
顾名思义,task 就是老板交给你的各种任务,worker 就是你手下干活的人员。

那什么是 Broker 呢?

老板给你下发任务时,你需要 把它记下来, 这个它 可以是你随身携带的本子,也可以是 电脑里地记事本或者excel,或者是你的 任何时间管理工具。

Broker  则是 Celery 记录task的地方。
作为一个任务管理者的你,将老板(前端程序)发给你的 安排的工作(Task) 记录到你的本子(Broker)里。接下来,你就安排你手下的IT程序猿们(Worker),都到你的本子(Broker)里来取走工作(Task)

1. broker为rabbitmq

#tasks.py

  1. from celery import Celery
  2.  
  3. app = Celery('tasks', broker='amqp://admin:admin@localhost:5672')
  4.  
  5. @app.task
  6. def add(x, y):
  7. return x + y

启动

  1. celery -A tasks worker --loglevel=info

运行

  1. >>> from tasks import add
  2. >>> add(, )
  3.  
  4. >>> add.delay(,)
  5. <AsyncResult: 07614cef-f314-4c7b-a33f-92c080cadb83>
  6. >>>

:delay是使用异步的方式,会压入到消息队列。否则,不会使用消息队列。

文件名为tasks.py,则其中代码app = Celery('tasks', broker=),Celery第一个参数为工程名,启动时也是celery -A tasks worker --loglevel=info

对比

:投入到指定的队列用:add.delay(1, 3, queue='queue_add1')

test_2.py

  1. from celery import Celery
  2.  
  3. app = Celery('proj', broker='amqp://admin:admin@localhost:5672' include='test_2')
  4.  
  5. @app.task
  6. def add(x, y):
  7. return x + y

2. 以python+文件名的方式启动

例1:

#test.py

  1. from celery import Celery
  2. import time
  3. app = Celery('test', backend='amqp', broker='amqp://admin:admin@localhost:5672')
  4.  
  5. @app.task
  6. def add(x, y):
  7. print "------>"
  8. time.sleep(5)
  9. print "<--------------"
  10. return x + y
  11.  
  12. if __name__ == "__main__":
  13. app.start()

启动

  1. python test.py worker

celery默认启动的worker数为内核个数,如果指定启动个数,用参数-c,例

  1. python test.py worker -c 2

例2:

#test.py

  1. from celery import Celery
  2. import time
  3. app = Celery('test', backend='amqp', broker='amqp://admin:admin@localhost:5672')
  4.  
  5. @app.task
  6. def add(x, y):
  7. print "------>"
  8. time.sleep(2)
  9. print "<--------------"
  10. return x + y
  11.  
  12. if __name__ == "__main__":
  13. app.start()

#eg.py

  1. from test import *
  2. import time
  3.  
  4. rev = []
  5. for i in range(3):
  6. rev.append(add.delay(1,3))
  7.  
  8. print "len rev:", len(rev)
  9. while 1:
  10. tag = 1
  11. for key in rev:
  12. if not key.ready():
  13. tag = 0
  14. time.sleep(1)
  15. print "sleep 1"
  16. if tag:
  17. break
  18. print "_____________________>"

3. broker为redis

#test_redis.py

  1. from celery import Celery
  2. import time
  3. #app = Celery('test_redis', backend='amqp', broker='redis://100.69.201.116:7000')
  4. app = Celery('test_redis', backend='redis', broker='redis://100.69.201.116:7000')
  5.  
  6. @app.task
  7. def add(x, y):
  8. print "------>"
  9. time.sleep(5)
  10. print "<--------------"
  11. return x + y
  12.  
  13. if __name__ == "__main__":
  14. app.start()

启动

  1. python test_redis.py worker -c 2

测试

  1. from celery import group
  2. from test_redis import *
  3. g = group(add.s(2, 3)).apply_async()
  4. g = group(add.s(2, 3)).apply_async()
  5. g = group(add.s(2, 3)).apply_async()
  6. g = group(add.s(2, 3)).apply_async()
  7. g = group(add.s(2, 3)).apply_async()
  8. for ret in g.get():
  9. print ret
  10. print "end-----------------------------------"

结果

  1. 5
  2. end-----------------------------------

4. 两个队列(redis)

#test_redis.py

  1. from celery import Celery
  2. import time
  3. #app = Celery('test_redis', backend='amqp', broker='redis://100.69.201.116:7000')
  4. app = Celery('test_redis', backend='redis', broker='redis://100.69.201.116:7000')
  5.  
  6. @app.task
  7. def add(x, y):
  8. print "------>"
  9. time.sleep(5)
  10. print "<--------------"
  11. return x + y
  12.  
  13. if __name__ == "__main__":
  14. app.start()

#test_redis_2.py

  1. from celery import Celery
  2. import time
  3. #app = Celery('test_redis', backend='amqp', broker='redis://100.69.201.116:7000')
  4. app = Celery('test_redis_2', backend='redis', broker='redis://100.69.201.116:7001')
  5.  
  6. @app.task
  7. def add_2(x, y):
  8. print "=======>"
  9. time.sleep(5)
  10. print "<================="
  11. return x + y
  12.  
  13. if __name__ == "__main__":
  14. app.start()

测试

  1. from celery import group
  2. from test_redis import *
  3. from test_redis_2 import *
  4. ll = [(1,2), (3,4), (5,6)]
  5. g = group(add.s(key[0], key[1]) for key in ll).apply_async()
  6. for ret in g.get():
  7. print ret
  8. print "end redis_1 -----------------------------------"
  9.  
  10. ll = [(1,2), (3,4), (5,6)]
  11. g = group(add_2.s(key[0], key[1]) for key in ll).apply_async()
  12. for ret in g.get():
  13. print ":", ret
  14. print "end redis_2 -----------------------------------"

结果

  1. 3
  2. 7
  3. 11
  4. end redis_1 -----------------------------------
  5. : 3
  6. : 7
  7. : 11
  8. end redis_2 -----------------------------------

5. 两个队列(同一个rabbitmq)

注释:需要提前设置下队列

##例1

#test.py

  1. from celery import Celery
  2. import time
  3. app = Celery('test', backend='amqp', broker='amqp://admin:admin@localhost:5672//')
  4.  
  5. @app.task
  6. def add(x, y):
  7. print "------>"
  8. time.sleep(5)
  9. print "<--------------"
  10. return x + y
  11.  
  12. if __name__ == "__main__":
  13. app.start()

#test_2.py

  1. from celery import Celery
  2. import time
  3. app = Celery('test_2', backend='amqp', broker='amqp://admin:admin@localhost:5672//hwzh')
  4.  
  5. @app.task
  6. def add_2(x, y):
  7. print "=====>"
  8. time.sleep(5)
  9. print "<=========="
  10. return x + y
  11.  
  12. if __name__ == "__main__":
  13. app.start()

测试

  1. from celery import group
  2. from test import *
  3. from test_2 import *
  4.  
  5. ll = [(1,2), (3,4), (7,8)]
  6. g = group(add.s(key[0], key[1]) for key in ll).apply_async()
  7. for ret in g.get():
  8. print ret
  9.  
  10. ll = [(1,2), (3,4), (7,8)]
  11. g = group(add_2.s(key[0], key[1]) for key in ll).apply_async()
  12. for ret in g.get():
  13. print ret

结果

  1. 3
  2. 7
  3. 15
  4. 3
  5. 7
  6. 15

##例2

#test.py

  1. from celery import Celery
  2. import time
  3. app = Celery('test', backend='amqp', broker='amqp://admin:admin@localhost:5672//mq4')
  4.  
  5. @app.task
  6. def add(x, y):
  7. print "------>"
  8. time.sleep(2)
  9. print "<--------------"
  10. return x + y
  11.  
  12. @app.task
  13. def sum(x, y):
  14. print "------>"
  15. time.sleep(2)
  16. print "<--------------"
  17. return x + y
  18.  
  19. if __name__ == "__main__":
  20. app.start()

#eg2.py

  1. from test import *
  2. import time
  3.  
  4. rev = []
  5. for i in range(3):
  6. rev.append(add.delay(1,3))
  7.  
  8. for i in range(3):
  9. rev.append(sum.delay(1,3))
  10.  
  11. print "len rev:", len(rev)
  12. while 1:
  13. tag = 1
  14. for key in rev:
  15. if not key.ready():
  16. tag = 0
  17. time.sleep(1)
  18. print "sleep 1"
  19. if tag:
  20. break
  21. print "_____________________>"

6. 保存结果

  1. from celery import Celery
  2.  
  3. app = Celery('tasks', backend='amqp', broker='amqp://admin:admin@localhost')
  4.  
  5. @app.task
  6. def add(x, y):
  7. return x + y

启动

  1. celery -A tasks_1 worker --loglevel=info

与前例不同:

- ** ---------- [config]
- ** ---------- .> app: tasks:0x7f8057931810
- ** ---------- .> transport: amqp://admin:**@localhost:5672//
- ** ---------- .> results: amqp

运行

  1. >>> from tasks_1 import add
  2. >>> result = add.delay(, )
  3. >>> result.ready()
  4. True
  5. >>> result.get()

7. 多个队列

  1. from celery import Celery
  2. from kombu import Exchange, Queue
  3. BROKER_URL = 'amqp://admin:admin@localhost//'
  4. app = Celery('tasks', backend='amqp',broker=BROKER_URL)
  5. app.conf.update(
  6. CELERY_ROUTES={
  7. "add1":{"queue":"queue_add1"},
  8. "add2":{"queue":"queue_add2"},
  9. "add3":{"queue":"queue_add3"},
  10. "add4":{"queue":"queue_add4"},
  11. },
  12. )
  13. @app.task
  14. def add1(x, y):
  15. return x + y
  16.  
  17. @app.task
  18. def add2(x, y):
  19. return x + y
  20.  
  21. @app.task
  22. def add3(x, y):
  23. return x + y
  24.  
  25. @app.task
  26. def add4(x, y):
  27. return x + y

8. 消息路由

文件:tasks.py

  1. from celery import Celery, platforms
  2. import time
  3. import os
  4.  
  5. app = Celery('proj', broker='amqp://admin:admin@ip:5672',
  6. include=['tasks']
  7. )
  8. app.conf.update(
  9. CELERY_ROUTES={
  10. 'tasks.fun_1': {
  11. 'queue': "q_1"
  12. },
  13. 'tasks.fun_2': {
  14. 'queue': "q_2"
  15. }
  16. }
  17. )
  18. platforms.C_FORCE_ROOT = True
  19.  
  20. @app.task
  21. def fun_1(n):
  22. print "(((((((((((((((func_1", n
  23. return 1
  24.  
  25. @app.task
  26. def fun_2(n):
  27. print n, ")))))))))))))))"
  28. return 2
  29.  
  30. if __name__ == "__main__":
  31. app.start()

启动

  1. python tasks.py worker -c 2 -Q q_1
  2. python tasks.py worker -c 2 -Q q_2

两个消息队列:q_1, q_2,调用示例

  1. >>> from tasks import *
  2. >>> fun_1(1)
  3. (((((((((((((((func_1 1
  4. 1
  5. >>> fun_1.delay(1)
  6. <AsyncResult: 528a2ad1-bc16-4bdc-beff-cd166fe3e885>
  7. >>> fun_2.delay(2)
  8. <AsyncResult: ee5881eb-b384-4a39-ba00-08aa8ee53504>

9. woker内启多进程

#tasks.py

  1. from celery import Celery
  2. import time
  3. import multiprocessing as mp
  4.  
  5. app = Celery('proj', broker='amqp://admin:admin@ip:5672', include="tasks")
  6.  
  7. def test_func(i):
  8. print "beg...:", i
  9. time.sleep(5)
  10. print "....end:", i
  11. return i * 5
  12.  
  13. @app.task
  14. def fun_1(n):
  15. curr_proc = mp.current_process()
  16. curr_proc.daemon = False
  17. p = mp.Pool(mp.cpu_count())
  18. curr_proc.daemon = True
  19. for i in range(n):
  20. p.apply_async(test_func, args=(i,))
  21. p.close()
  22. p.join()
  23. return 1
  24.  
  25. if __name__ == "__main__":
  26. app.start()

说明

直接启动多进程是肯定不可以的,因为是守候进程(curr_proc.daemon=True),所以启多进程之前主动设置为非守候进程:curr_proc.daemon=False,启动了以后再设为守候进程

#tasks_callback.py

  1. from celery import Celery
  2. import time
  3. import multiprocessing as mp
  4.  
  5. app = Celery('proj', broker='amqp://admin:admin@ip:5672', include="tasks_callback")
  6. rev = []
  7. def test_func(i):
  8. print "beg...:", i
  9. time.sleep(5)
  10. print "....end:", i
  11. return i * 5
  12.  
  13. def callback_log(rev_val):
  14. rev.append(rev_val)
  15.  
  16. @app.task
  17. def fun_1(n):
  18. print "before rev:", rev
  19. curr_proc = mp.current_process()
  20. curr_proc.daemon = False
  21. p = mp.Pool(mp.cpu_count())
  22. curr_proc.daemon = True
  23. for i in range(n):
  24. p.apply_async(test_func, args=(i,), callback=callback_log)
  25. p.close()
  26. p.join()
  27. print "after rev:", rev
  28. return 1
  29.  
  30. if __name__ == "__main__":
  31. app.start()

10. 常用参数配置

1. CELERYD_PREFETCH_MULTIPLIER

同时预取得消息个数,比如如果CELERYD_PREFETCH_MULTIPLIER=2,那么如果现在对于1个worker,有一个状态是STARTED, 那么可以有2个处于RECEVED状态(如果有的话),这样就避免了如果消息很多全部分下取,后起来的worker领不到消息的尴尬。

参考代码

  1. from celery import Celery, platforms
  2. import time
  3. import os
  4.  
  5. app = Celery('proj', broker='amqp://admin:admin@localhost:5672',
  6. include=['tasks']
  7. )
  8. app.conf.update(
  9. CELERYD_PREFETCH_MULTIPLIER=2,
  10. CELERY_ROUTES={
  11. 'tasks.fun_1': {
  12. 'queue': "q_1"
  13. },
  14. 'tasks.fun_2': {
  15. 'queue': "q_2"
  16. }
  17. }
  18. )
  19. platforms.C_FORCE_ROOT = True
  20.  
  21. @app.task
  22. def fun_1(n):
  23. print "(((((((((((((((func_1", n
  24. time.sleep(20)
  25. return 1
  26.  
  27. @app.task
  28. def fun_2(n):
  29. print n, ")))))))))))))))"
  30. return 2

调用

  1. >>> from tasks import *
  2. >>> fun_1.delay(3)
  3. <AsyncResult: 609f2216-6785-409e-9f6f-85ae3fcce084>
  4. >>> fun_1.delay(3)
  5. <AsyncResult: 0230b8bd-b237-40ef-bc73-88929f8f8290>
  6. >>> fun_1.delay(3)
  7. <AsyncResult: 8fce172a-93c9-41f8-8c08-377a4363389c>
  8. >>> fun_1.delay(3)

参考:http://windrocblog.sinaapp.com/?p=1585

celery 入门的更多相关文章

  1. Celery入门指北

    Celery入门指北 其实本文就是我看完Celery的官方文档指南的读书笔记.然后由于我的懒,只看完了那些入门指南,原文地址:First Steps with Celery,Next Steps,Us ...

  2. 分布式队列Celery入门

    Celery 是一个简单.灵活且可靠的,处理大量消息的分布式系统,并且提供维护这样一个系统的必需工具.它是一个专注于实时处理的任务队列,同时也支持任务调度.Celery 是语言无关的,虽然它是用 Py ...

  3. celery入门

    认识 这里有几个概念,task.worker.broker.顾名思义,task 就是老板交给你的各种任务,worker 就是你手下干活的人员. 那什么是 Broker 呢? 老板给你下发任务时,你需要 ...

  4. 分布式任务队列Celery入门与进阶

    一.简介 Celery是由Python开发.简单.灵活.可靠的分布式任务队列,其本质是生产者消费者模型,生产者发送任务到消息队列,消费者负责处理任务.Celery侧重于实时操作,但对调度支持也很好,其 ...

  5. 异步任务神器 Celery-入门

    一.Celery入门介绍 在程序的运行过程中,我们经常会碰到一些耗时耗资源的操作,为了避免它们阻塞主程序的运行,我们经常会采用多线程或异步任务.比如,在 Web 开发中,对新用户的注册,我们通常会给他 ...

  6. 初识Celery

    本系列文章的开发环境: window + python2. + pycharm5 + celery3.1.25 + django1.9.4 在我们日常的开发工作中,经常会遇到这几种情况: 1.在web ...

  7. Celery异步调度框架(一)基本使用

    介绍 之前部门开发一个项目我们需要实现一个定时任务用于收集每天DUBBO接口.域名以及TOMCAT(核心应用)的访问量,这个后面的逻辑就是使用定时任务去ES接口抓取数据存储在数据库中然后前台进行展示. ...

  8. Django中使用Celery

    一.前言 Celery是一个基于python开发的分布式任务队列,如果不了解请阅读笔者上一篇博文Celery入门与进阶,而做python WEB开发最为流行的框架莫属Django,但是Django的请 ...

  9. 转 Celery 使用

    http://www.mamicode.com/info-detail-1798782.html https://blog.csdn.net/lu1005287365/article/details/ ...

随机推荐

  1. Jquery&JS简单选项卡

    结果,如图 为了明显,用绿色+红色 第一步:静态布局 先写html代码和css样式 要点一:  ul li都为块级元素,可以用height,但是里面字体不居中,我们用line-height,即达到居中 ...

  2. 用MSoffice里的绘图工具

    试过一些绘图表的工具,在xbeta推荐的替代visio一文中介绍的一些软件.之前用得最多的就是Dia,在linux下也有.现在才发现在微软的office下的绘图工具已经足够我使用了,不需要专业的图形符 ...

  3. ubuntu下用virtualbox安装windows虚拟机

    按照这个教程: http://jingyan.baidu.com/article/eae07827856ac21fed54856f.html 安装. 会出现问题:"VT-x is disab ...

  4. CodeForces 577B 模和vecto

    上一年的最后一次训练赛被卡了AK... 一开始天真的认为每个数字都进行取模 然后认为它是一个vol为取模后的数 val为0的01背包 去计算dp[m]能否被装满 只想到了其中的一点..简直天真 后来看 ...

  5. PHP fwrite() 函数与 file_put_contents() 函数的比较

    两个 PHP 函数都可以把字符串保存到文件中,fwrite() 函数的格式是: int fwrite ( resource handle , string string [ , int length] ...

  6. js 获取checkbox选中项目

    # //获取选中项 $('#submit').click(function () { var check_list = [] $("input[name='ck']:checked" ...

  7. 综合支撑【恶灵附身 Psycho Break】的世界观的概念艺术

    综合支撑[恶灵附身  Psycho Break]的世界观的概念艺术 三上真司监督提出的,是对着重表现讲述内心恐怖的哪个世界观的创作和统一做了很大贡献的概念艺术. 这里以他经手的艺术为例,来看看稀少的恐 ...

  8. Java ArrayListSerialise

    import java.io.*; import java.util.*; //ArrayListSerialise public class A { public static void main( ...

  9. 哈哈,好像swift 以后有可能用来开发安卓喔

    好像swift  以后有可能用来开发安卓喔,哈哈

  10. java类加载过程

    类(型)的生命周期--装载.连接.初始化.卸载 Java虚拟机通过装载.连接和初始化一个Java类型,使该类型可以被正在运行的Java程序所使用. 1.       装载 装载阶段包括三个基本动作: ...