celery介绍

Celery是一个功能完备即插即用的任务队列。它使得我们不需要考虑复杂的问题,使用非常简单。celery看起来似乎很庞大,本章节我们先对其进行简单的了解,然后再去学习其他一些高级特性。 celery适用异步处理问题,当发送邮件、或者文件上传, 图像处理等等一些比较耗时的操作,我们可将其异步执行,这样用户不需要等待很久,提高用户体验。 celery的特点是:

  • 简单,易于使用和维护,有丰富的文档。
  • 高效,单个celery进程每分钟可以处理数百万个任务。
  • 灵活,celery中几乎每个部分都可以自定义扩展。

celery非常易于集成到一些web开发框架中.

1.快速入门(一)

Task Queue

  任务队列是一种跨线程、跨机器工作的一种机制.

  任务队列中包含称作任务的工作单元。有专门的工作进程持续不断的监视任务队列,并从中获得新的任务并处理.

  celery通过消息进行通信,通常使用一个叫Broker(中间人)来协client(任务的发出者)和worker(任务的处理者). clients发出消息到队列中,broker将队列中的信息派发给worker来处理。

  一个celery系统可以包含很多的worker和broker,可增强横向扩展性和高可用性能。

Celery 安装

我们可以使用python的包管理器pip来安装:

  1. pip install -U Celery

也可从官方直接下载安装包:https://pypi.python.org/pypi/celery/

  1. tar xvfz celery-0.0.0.tar.gz
  2. cd celery-0.0.0
  3. python setup.py build
  4. python setup.py install

Broker

Celery需要一种解决消息的发送和接受的方式,我们把这种用来存储消息的的中间装置叫做message broker, 也可叫做消息中间人。 作为中间人,我们有几种方案可选择:

1.RabbitMQ

RabbitMQ是一个功能完备,稳定的并且易于安装的broker. 它是生产环境中最优的选择。使用RabbitMQ的细节参照以下链接: http://docs.celeryproject.org/en/latest/getting-started/brokers/rabbitmq.html#broker-rabbitmq

如果我们使用的是Ubuntu或者Debian发行版的Linux,可以直接通过下面的命令安装RabbitMQ: sudo apt-get install rabbitmq-server 安装完毕之后,RabbitMQ-server服务器就已经在后台运行。如果您用的并不是Ubuntu或Debian, 可以在以下网址: http://www.rabbitmq.com/download.html 去查找自己所需要的版本软件。

2.Redis

Redis也是一款功能完备的broker可选项,但是其更可能因意外中断或者电源故障导致数据丢失的情况。 关于是有那个Redis作为Broker,可访下面网址: http://docs.celeryproject.org/en/latest/getting-started/brokers/redis.html#broker-redis

Application

使用celery第一件要做的最为重要的事情是需要先创建一个Celery实例,我们一般叫做celery应用,或者更简单直接叫做一个app。app应用是我们使用celery所有功能的入口,比如创建任务,管理任务等,在使用celery的时候,app必须能够被其他的模块导入。

1.创建应用

我们首先创建tasks.py模块, 其内容为:

  1. from celery import Celery
  2.  
  3. # 我们这里案例使用redis作为broker
  4. app = Celery('demo', broker='redis://:332572@127.0.0.1/1')
  5.  
  6. # 创建任务函数
  7. @app.task
  8. def my_task():
  9. print("任务函数正在执行....")

Celery第一个参数是给其设定一个名字, 第二参数我们设定一个中间人broker, 在这里我们使用Redis作为中间人。my_task函数是我们编写的一个任务函数, 通过加上装饰器app.task, 将其注册到broker的队列中。

  现在我们在创建一个worker, 等待处理队列中的任务.打开终端,cd到tasks.py同级目录中,执行命令:

  1. celery -A tasks worker --loglevel=info

2.调用任务

  任务加入到broker队列中,以便刚才我们创建的celery workder服务器能够从队列中取出任务并执行。如何将任务函数加入到队列中,可使用delay()。

进入python终端, 执行如下代码:

  1. from tasks import my_task
  2. my_task.delay()

执行效果如下:

  我们通过worker的控制台,可以看到我们的任务被worker处理。调用一个任务函数,将会返回一个AsyncResult对象,这个对象可以用来检查任务的状态或者获得任务的返回值。

3.存储结果

  如果我们想跟踪任务的状态,Celery需要将结果保存到某个地方。有几种保存的方案可选:SQLAlchemy、Django ORM、Memcached、 Redis、RPC (RabbitMQ/AMQP)。

  例子我们仍然使用Redis作为存储结果的方案,任务结果存储配置我们通过Celery的backend参数来设定。我们将tasks模块修改如下:

  1. from celery import Celery
  2.  
  3. # 我们这里案例使用redis作为broker
  4. app = Celery('demo',
  5. backend='redis://:332572@127.0.0.1:6379/2',
  6. broker='redis://:332572@127.0.0.1:6379/1')
  7.  
  8. # 创建任务函数
  9. @app.task
  10. def my_task(a, b):
  11. print("任务函数正在执行....")
  12. return a + b

我们给Celery增加了backend参数,指定redis作为结果存储,并将任务函数修改为两个参数,并且有返回值。

更多关于result对象信息,请参阅下列网址:http://docs.celeryproject.org/en/latest/reference/celery.result.html#module-celery.result

配置

  Celery使用简单,配置也非常简单。Celery有很多配置选项能够使得celery能够符合我们的需要,但是默认的几项配置已经足够应付大多数应用场景了。

  配置信息可以直接在app中设置,或者通过专有的配置模块来配置。

1.直接通过app来配置

  1. from celery import Celery
  2. app = Celery('demo')
  3. # 增加配置
  4. app.conf.update(
  5. result_backend='redis://:332572@127.0.0.1:6379/2',
  6. broker_url='redis://:332572@127.0.0.1:6379/1',
  7. )

2.专有配置

  对于比较大的项目,我们建议配置信息作为一个单独的模块。我们可以通过调用app的函数来告诉Celery使用我们的配置模块。

  配置模块的名字我们取名为celeryconfig, 这个名字不是固定的,我们可以任意取名,建议这么做。我们必须保证配置模块能够被导入。 配置模块的名字我们取名为celeryconfig, 这个名字不是固定的,我们可以任意取名,建议这么做。我们必须保证配置模块能够被导入。

  下面我们在tasks.py模块 同级目录下创建配置模块celeryconfig.py:

  1. result_backend = 'redis://:332572@127.0.0.1:6379/2'
  2. broker_url = 'redis://:332572@127.0.0.1:6379/1'

  tasks.py文件修改为:

  1. from celery import Celery
  2. import celeryconfig
  3.  
  4. # 我们这里案例使用redis作为broker
  5. app = Celery('demo')
  6.  
  7. # 从单独的配置模块中加载配置
  8. app.config_from_object('celeryconfig')

2.快速入门

项目中使用celery

  我的项目目录:

TestCelery/ ├── proj │ ├── celeryconfig.py │ ├── celery.py │ ├── init.py │ └── tasks.py └── test.py

  celery.py内容如下:

  1. from celery import Celery
  2.  
  3. # 创建celery实例
  4. app = Celery('demo')
  5. app.config_from_object('proj.celeryconfig')
  6.  
  7. # 自动搜索任务
  8. app.autodiscover_tasks(['proj'])

celeryconfig.p模块内容如下:

  1. from kombu import Exchange, Queue
  2. BROKER_URL = 'redis://:332572@127.0.0.1:6379/1'
  3. CELERY_RESULT_BACKEND = 'redis://:332572@127.0.0.1:6379/2'

tasks.py模块内容如下:

  1. from proj.celery import app as celery_app
  2.  
  3. # 创建任务函数
  4. @celery_app.task
  5. def my_task1():
  6. print("任务函数(my_task1)正在执行....")
  7.  
  8. @celery_app.task
  9. def my_task2():
  10. print("任务函数(my_task2)正在执行....")
  11.  
  12. @celery_app.task
  13. def my_task3():
  14. print("任务函数(my_task3)正在执行....")

启动worker:

  1. celery -A proj worker -l info

键入ctrl+c可关闭worker.

调用任务(Calling Task)

调用任务,可使用delay()方法:

  1. my_task.delay(2, 2)

也可以使用apply_async()方法,该方法可让我们设置一些任务执行的参数,例如,任务多久之后才执行,任务被发送到那个队列中等等.

  1. my_task.apply_async((2, 2), queue='my_queue', countdown=10)

任务my_task将会被发送到my_queue队列中,并且在发送10秒之后执行。

  如果我们直接执行任务函数,将会直接执行此函数在当前进程中,并不会向broker发送任何消息。

  无论是delay()还是apply_async()方式都会返回AsyncResult对象,方便跟踪任务执行状态,但需要我们配置result_backend.

  每一个被吊用的任务都会被分配一个ID,我们叫Task ID.

Designing Work-flows

1.signature

  我们到目前为止只是学习了如何使用delay()方法,当然这个方法也是非常常用的。但是有时我们并不想简单的将任务发送到队列中,我们想将一个任务函数(由参数和执行选项组成)作为一个参数传递给另外一个函数中,为了实现此目标,Celery使用一种叫做signatures的东西。

  一个signature包装了一个参数和执行选项的单个任务调用。我们可将这个signature传递给函数。

  我们先看下tasks.py模块中定义的任务函数:

  1. from proj.celery import app as celery_app
  2.  
  3. # 创建任务函数
  4. @celery_app.task
  5. def my_task1():
  6. print("任务函数(my_task1)正在执行....")
  7.  
  8. @celery_app.task
  9. def my_task2():
  10. print("任务函数(my_task2)正在执行....")
  11.  
  12. @celery_app.task
  13. def my_task3():
  14. print("任务函数(my_task3)正在执行....")

我们将my_task1()任务包装称一个signature:

  1. t1 = my_task1.signatures(countdown=10)
  2. t1.delay()

2.Primitives

  这些primitives本身就是signature对象,因此它们可以以多种方式组合成复杂的工作流程。primitives如下:

  group: 一组任务并行执行,返回一组返回值,并可以按顺序检索返回值。

  chain: 任务一个一个执行,一个执行完将执行return结果传递给下一个任务函数.

  tasks.py模块如下:

  1. from proj.celery import app as celery_app
  2.  
  3. # 创建任务函数
  4. @celery_app.task
  5. def my_task1(a, b):
  6. print("任务函数(my_task1)正在执行....")
  7. return a + b
  8.  
  9. @celery_app.task
  10. def my_task2(a, b):
  11. print("任务函数(my_task2)正在执行....")
  12. return a + b
  13.  
  14. @celery_app.task
  15. def my_task3(a, b):
  16. print("任务函数(my_task3)正在执行....")
  17. return a + b

group案例如下(test.py模块):

  1. from proj.tasks import my_task1
  2. from proj.tasks import my_task2
  3. from proj.tasks import my_task3
  4. from celery import group
  5.  
  6. # 将多个signature放入同一组中
  7. my_group = group((my_task1.s(10, 10), my_task2.s(20, 20), my_task3.s(30, 30)))
  8. ret = my_group() # 执行组任务
  9. print(ret.get()) # 输出每个任务结果 

chain案例如下(test.py模块):

  1. from proj.tasks import my_task1
  2. from proj.tasks import my_task2
  3. from proj.tasks import my_task3
  4. from celery import chain
  5.  
  6. # 将多个signature组成一个任务链
  7. # my_task1的运行结果将会传递给my_task2
  8. # my_task2的运行结果会传递给my_task3
  9. my_chain = chain(my_task1.s(10, 10) | my_task2.s(20) | my_task3.s(30))
  10. ret = my_chain() # 执行任务链
  11. print(ret.get()) # 输出最终结果 

Routing

  假如我们有两个worker,一个worker专门用来处理邮件发送任务和图像处理任务,一个worker专门用来处理文件上传任务。

  我们创建两个队列,一个专门用于存储邮件任务队列和图像处理,一个用来存储文件上传任务队列。

  Celery支持AMQP(Advanced Message Queue)所有的路由功能,我们也可以使用简单的路由设置将指定的任务发送到指定的队列中.

  我们需要配置在celeryconfig.py模块中配置 CELERY_ROUTES 项, tasks.py模块修改如下:

  1. from proj.celery import app as celery_app
  2.  
  3. @celery_app.task
  4. def my_task1(a, b):
  5. print("my_task1任务正在执行....")
  6. return a + b
  7.  
  8. @celery_app.task
  9. def my_task2(a, b):
  10. print("my_task2任务正在执行....")
  11. return a + b
  12.  
  13. @celery_app.task
  14. def my_task3(a, b):
  15. print("my_task3任务正在执行....")
  16. return a + b
  17.  
  18. @celery_app.task
  19. def my_task4(a, b):
  20. print("my_task3任务正在执行....")
  21. return a + b
  22.  
  23. @celery_app.task
  24. def my_task5():
  25. print("my_task5任务正在执行....")
  26.  
  27. @celery_app.task
  28. def my_task6():
  29. print("my_task6任务正在执行....")
  30.  
  31. @celery_app.task
  32. def my_task7():
  33. print("my_task7任务正在执行....")
  34.   我们通过配置,将send_emailupload_file任务发送到queue1队列中,将image_process发送到queue2队列中。
  35.  
  36.   我们修改celeryconfig.py:
  37.  
  38. broker_url='redis://:@127.0.0.1:6379/1'
  39. result_backend='redis://:@127.0.0.1:6379/2'
  40.  
  41. task_routes=({
  42. 'proj.tasks.my_task5': {'queue': 'queue1'},
  43. 'proj.tasks.my_task6': {'queue': 'queue1'},
  44. 'proj.tasks.my_task7': {'queue': 'queue2'},
  45. },
  46. )

test.py:

  1. from proj.tasks import *
  2.  
  3. # 发送任务到路由指定的队列中

my_task5.delay() my_task6.delay() my_task7.delay()

  1.   开启两个worker服务器,分别处理两个队列:
  2. ```python
  3. celery -A proj worker --loglevel=info -Q queue1
  4. celery -A proj worker --loglevel=info -Q queue2

我们同样也可以通过apply_aynsc()方法来设置任务发送到那个队列中:

  1. my_task1.apply_async(queue='queue1')

我们也可设置一个worker服务器处理两个队列中的任务:

  1. celery -A proj worker --loglevel=info -Q queue1,queue2

3.Periodic Tasks

celery beat是一个调度器,它可以周期内指定某个worker来执行某个任务。如果我们想周期执行某个任务需要增加beat_schedule配置信息.

  1. broker_url='redis://:@127.0.0.1:6379/1'
  2. result_backend='redis://:@127.0.0.1:6379/2'
  3.  
  4. # 指定任务发到那个队列中
  5. task_routes=({
  6. 'proj.tasks.my_task5': {'queue': 'queue1'},
  7. 'proj.tasks.my_task6': {'queue': 'queue1'},
  8. 'proj.tasks.my_task7': {'queue': 'queue2'},
  9. },
  10. )
  11.  
  12. # 配置周期性任务, 或者定时任务
  13. beat_schedule = {
  14. 'every-5-seconds':
  15. {
  16. 'task': 'proj.tasks.my_task8',
  17. 'schedule': 5.0,
  18. # 'args': (16, 16),
  19. }
  20. }

tasks.py模块内容如下:

  1. from proj.celery import app as celery_app
  2.  
  3. @celery_app.task
  4. def my_task1(a, b):
  5. print("my_task1任务正在执行....")
  6. return a + b
  7.  
  8. @celery_app.task
  9. def my_task2(a, b):
  10. print("my_task2任务正在执行....")
  11. return a + b
  12.  
  13. @celery_app.task
  14. def my_task3(a, b):
  15. print("my_task3任务正在执行....")
  16. return a + b
  17.  
  18. @celery_app.task
  19. def my_task4(a, b):
  20. print("my_task3任务正在执行....")
  21. return a + b
  22.  
  23. @celery_app.task
  24. def my_task5():
  25. print("my_task5任务正在执行....")
  26.  
  27. @celery_app.task
  28. def my_task6():
  29. print("my_task6任务正在执行....")
  30.  
  31. @celery_app.task
  32. def my_task7():
  33. print("my_task7任务正在执行....")
  34.  
  35. # 周期执行任务
  36. @celery_app.task
  37. def my_task8():
  38. print("my_task8任务正在执行....")
  39.   启动woker处理周期性任务:
  40.  
  41. celery -A proj worker --loglevel=info --beat
  42.   如果我们想指定在某天某时某分某秒执行某个任务,可以执行cron任务, 增加配置信息如下:
  43.  
  44. beat_schedule = {
  45. 'every-5-minute':
  46. {
  47. 'task': 'proj.tasks.period_task',
  48. 'schedule': 5.0,
  49. 'args': (16, 16),
  50. },
  51. 'add-every-monday-morning': {
  52. 'task': 'proj.tasks.period_task',
  53. 'schedule': crontab(hour=7, minute=30, day_of_week=1),
  54. 'args': (16, 16),
  55. },
  56.  
  57. }

crontab例子: http://docs.celeryproject.org/en/latest/userguide/periodic-tasks.html

  开启一个celery beat服务:

  1. celery -A proj beat

celery需要保存上次任务运行的时间在数据文件中,文件在当前目录下名字叫celerybeat-schedule. beat需要访问此文件:

  1. celery -A proj beat -s /home/celery/var/run/celerybeat-schedule

4.使用Django使用Celery

配置celery

创建django项目celery_demo, 创建应用demo:

  1. django-admin startproject celery_demo
  2. python manage.py startapp demo

  在celery_demo模块中创建celery.py模块, 文件目录为:

我们在文件内创建一个任务函数my_task:

  1. from celery_demo.celery import app
  2. import time
  3.  
  4. # 加上app对象的task装饰器
  5. # 此函数为任务函数
  6. @app.task
  7. def my_task():
  8. print("任务开始执行....")
  9. time.sleep(5)
  10. print("任务执行结束....")

在views.py模块中创建视图index:

  1. from django.shortcuts import render
  2. from django.http import HttpResponse
  3. from .tasks import my_task
  4.  
  5. def index(request):
  6. # 将my_task任务加入到celery队列中
  7. # 如果my_task函数有参数,可通过delay()传递
  8. # 例如 my_task(a, b), my_task.delay(10, 20)
  9. my_task.delay()
  10.  
  11. return HttpResponse("<h1>服务器返回响应内容!</h1>")

在celey_demo/settings.py配置视图路由:

  1. from django.conf.urls import url
  2. from django.contrib import admin
  3. from demo.views import index
  4.  
  5. urlpatterns = [
  6. url(r'^admin/', admin.site.urls),
  7. url(r'^$', index),
  8. ]

创建worker等待处理celery队列中任务, 在终端执行命令:

  1. celery -A celery_demo worker -l info

启动django测试服务器:

  1. python manage.py runserver 

保存任务结果

此处需要用到额外包django_celery_results, 先安装包:

  1. pip install django-celery-results

在celery_demo/settings.py中安装此应用:

  1. INSTALLED_APPS = [
  2. 'django.contrib.admin',
  3. 'django.contrib.auth',
  4. 'django.contrib.contenttypes',
  5. 'django.contrib.sessions',
  6. 'django.contrib.messages',
  7. 'django.contrib.staticfiles',
  8. 'demo',
  9. 'django_celery_results', # 注意此处应用名为下划线
  10. ]

回到celery_demo/celery.py模块中,增加配置信息如下:

  1. from celery import Celery
  2. from django.conf import settings
  3. import os
  4.  
  5. # 为celery设置环境变量
  6. os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'celery_demo.settings')
  7.  
  8. # 创建应用
  9. app = Celery("demo")
  10. # 配置应用
  11. app.conf.update(
  12. # 配置broker, 这里我们用redis作为broker
  13. BROKER_URL='redis://:332572@127.0.0.1:6379/1',
  14. # 使用项目数据库存储任务执行结果
  15. CELERY_RESULT_BACKEND='django-db',
  16. )
  17. # 设置app自动加载任务
  18. # 从已经安装的app中查找任务
  19. app.autodiscover_tasks(settings.INSTALLED_APPS)

创建django_celery_results应用所需数据库表, 执行迁移文件:

  1. python manage.py migrate django_celery_results

我这里使用的是django默认的数据库sqlit, 执行迁移之后,会在数据库中创建一张用来存储任务结果的表:

定时任务

如果我们想某日某时执行某个任务,或者每隔一段时间执行某个任务,也可以使用celery来完成.   使用定时任务,需要安装额外包:

  1. pip install django_celery_beat

首先在settings.py中安装此应用:

  1. INSTALLED_APPS = [
  2. 'django.contrib.admin',
  3. 'django.contrib.auth',
  4. 'django.contrib.contenttypes',
  5. 'django.contrib.sessions',
  6. 'django.contrib.messages',
  7. 'django.contrib.staticfiles',
  8. 'demo',
  9. 'django_celery_results',
  10. 'django_celery_beat', # 安装应用
  11. ]

在celery_demo/celery.py模块中增加定时任务配置:

  1. from celery import Celery
  2. from django.conf import settings
  3. import os
  4.  
  5. # 为celery设置环境变量
  6. os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'celery_demo.settings')
  7.  
  8. # 创建应用
  9. app = Celery("demo")
  10. # 配置应用
  11. app.conf.update(
  12. # 配置broker, 这里我们用redis作为broker
  13. BROKER_URL='redis://:332572@127.0.0.1:6379/1',
  14. # 使用项目数据库存储任务执行结果
  15. CELERY_RESULT_BACKEND='django-db',
  16. # 配置定时器模块,定时器信息存储在数据库中
  17. CELERYBEAT_SCHEDULER='django_celery_beat.schedulers.DatabaseScheduler',
  18.  
  19. )
  20. # 设置app自动加载任务
  21. # 从已经安装的app中查找任务
  22. app.autodiscover_tasks(settings.INSTALLED_APPS)

由于定时器信息存储在数据库中,我们需要先生成对应表, 对diango_celery_beat执行迁移操作,创建对应表:

  1. python manage.py migrate django_celery_beat 

我们可登录网站后台Admin去创建对应任务, 首先我们先在tasks.py模块中增加新的任务,用于定时去执行(5秒执行一次)

  1. from celery_demo.celery import app
  2. import time
  3.  
  4. # 用于定时执行的任务
  5. @app.task
  6. def interval_task():
  7. print("我每隔5秒钟时间执行一次....")

首先创建后台管理员帐号:

  1. python manage.py createsuperuser

登录管理后台Admin:

 其中Crontabs用于定时某个具体时间执行某个任务的时间,Intervals用于每隔多久执行任务的事件,具体任务的执行在Periodic tasks表中创建。

  我们要创建每隔5秒执行某个任务,所以在Intervals表名后面点击Add按钮:

然后在Periodic tasks表名后面,点击Add按钮,添加任务:

启动定时任务:

  1. celery -A celery_demo worker -l info --beat 

任务每隔5秒中就会执行一次,如果配置了存储,那么每次任务执行的结果也会被保存到对应的数据库中。

celery概述的更多相关文章

  1. 任务队列 与 Celery概述

    一.任务队列(Task Queues) 1.1 什么是任务队列? 任务队列用于管理后台工作,通常这些后台工作必须在 HTTP请求-响应循环 之外执行. 1.2 为什么需要任务队列? 对于那些不是由客户 ...

  2. 1.celery概述

    1. 问题抛出 我们在做网站后端程序开发时,会碰到这样的需求:用户需要在我们的网站填写注册信息,我们发给用户一封注册激活邮件到用户邮箱,如果由于各种原因,这封邮件发送所需时间较长,那么客户端将会等待很 ...

  3. Python学习笔记 - day14 - Celery异步任务

    Celery概述 关于celery的定义,首先来看官方网站: Celery(芹菜) 是一个简单.灵活且可靠的,处理大量消息的分布式系统,并且提供维护这样一个系统的必需工具. 简单来看,是一个基于pyt ...

  4. Celery异步处理

    1.Celery概述 1.1问题抛出 我们在做网站后端程序开发时,会碰到这样的需求:用户需要在我们的网站填写注册信息,我们发给用户一封注册激活邮件到用户邮箱,如果由于各种原因,这封邮件发送所需时间较长 ...

  5. Celery 源码解析三: Task 对象的实现

    Task 的实现在 Celery 中你会发现有两处,一处位于 celery/app/task.py,这是第一个:第二个位于 celery/task/base.py 中,这是第二个.他们之间是有关系的, ...

  6. Celery 源码解析五: 远程控制管理

    今天要聊的话题可能被大家关注得不过,但是对于 Celery 来说确实很有用的功能,曾经我在工作中遇到这类情况,就是我们将所有的任务都放在同一个队列里面,然后有一天突然某个同学的代码写得不对,导致大量的 ...

  7. Celery 源码解析六:Events 的实现

    在 Celery 中,除了远程控制之外,还有一个元素可以让我们对分布式中的任务的状态有所掌控,而且从实际意义上来说,这个元素对 Celery 更为重要,这就是在本文中将要说到的 Event. 在 Ce ...

  8. Odoo 中使用 celery 实现高性能异步任务队列

    详见:http://www.oejia.net/blog/2018/07/09/odoo_task_queue.html 概述 在 odoo 中可以用自带的cron实现异步任务,这个cron基于多线程 ...

  9. Using Celery with Django

    参考1: http://docs.celeryproject.org/en/latest/django/first-steps-with-django.html#using-celery-with-d ...

随机推荐

  1. pm2通过配置文件部署nodejs代码到服务器

    一.pm2文档地址: http://pm2.keymetrics.io/ 二.在本地项目下新建ecosystem.config.js文件,并且推送到远端(记得node_modules这个文件夹也得推送 ...

  2. DS控件库 DS开放式下拉列表

    在一些场合中,需要使用组合式下拉列表控件,比如带treeivew的combobox,但是代码较多,使用不便.为此,本人制作了一个超级易用的DS开放式下拉列表. 以下演示使用过程. Private Su ...

  3. Mysql 的 create as 和create like 区别

    大家可能使用Navicat Premium时发现很方便,比如复制表或数据结构等,其实这种复制表数据或结构方法就是create table as 和create table like 这种方式实现细心的 ...

  4. Java中nextLine()与其他next(),nextInt(),nextFloat()的区别

    最近学习Java过程中遇到一个小问题,就是用nextInt()来接收输入内容时,按完回车之后会产生后面的内容无法输入的结果,因此来做个小记录.有不足的地方还请大家指出. 区别一  读取返回结果 nex ...

  5. 折腾Java设计模式之中介者模式

    博文原址:折腾Java设计模式之中介者模式 中介者模式 中介者模式(Mediator Pattern)是用来降低多个对象和类之间的通信复杂性.这种模式提供了一个中介类,该类通常处理不同类之间的通信,并 ...

  6. Android 注解框架对比

    Java的注解(Annotation)相当于一种标记,在程序中加入注解就等于为程序打上某种标记,标记可以加在包,类,属性,方法,本地变量上.然后你可以写一个注解处理器去解析处理这些注解(人称编译时注解 ...

  7. 从零学习Fluter(六):Flutter仿boss直聘v1.0重构

    今天继续学习flutter,觉得这个优秀的东西,许多方面还需要完善,作为一个后来者,要多向别人学习.俗话说,“学无先后,达者为师”.今天呢,我又重新把flutter_boss这个项目代码 从头到脚看了 ...

  8. iBatis第一章:基础知识概述 & MVC思想

    一.java是一门十分受开发人员欢迎的语言,在开发语言排行榜中名列前茅,人们对其看法不尽相同,就我自身感受而言,我觉得java语言的主要优势体现在如下几方面:1.java属于开源语言,开发人员可以找到 ...

  9. 【视频】设计模式(Java)视频讲解

    设计模式(JAVA) 视频网址: http://www.qghkt.com/ 设计模式(JAVA)视频地址: https://ke.qq.com/course/318643?tuin=a508ea62 ...

  10. 我为什么要花大力气从头研发智表ZCELL(一个仿EXCEL的前端插件)

    为什么呢,一个前端用的,类似EXCEL的操作的JS 插件,从头研发真的有必要吗?可能你会觉得没有必要吧,其实我自己也问过自己好多遍.因为业界有更加强大的spreadjs,也有比较轻型的JEXCEL,自 ...