Celery - 分布式任务队列[转载]
2022/5/27 23:20:48
本文主要是介绍Celery - 分布式任务队列[转载],对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
原文:https://www.cnblogs.com/pyedu/p/12461819.html
一、什么是Celery
1.1、celery是什么
Celery是一个简单、灵活且可靠的,处理大量消息的分布式系统,专注于实时处理的异步任务队列,同时也支持任务调度。
Celery的架构由三部分组成,消息中间件(message broker),任务执行单元(worker)和任务执行结果存储(task result store)组成。
消息中间件
Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成。包括,RabbitMQ, Redis等等
任务执行单元
Worker是Celery提供的任务执行的单元,worker并发的运行在分布式的系统节点中。
任务结果存储
Task result store用来存储Worker执行的任务的结果,Celery支持以不同方式存储任务的结果,包括AMQP, redis等
另外, Celery还支持不同的并发和序列化的手段
- 并发:Prefork, Eventlet, gevent, threads/single threaded
- 序列化:pickle, json, yaml, msgpack. zlib, bzip2 compression, Cryptographic message signing 等等
1.2、使用场景
celery是一个强大的 分布式任务队列的异步处理框架,它可以让任务的执行完全脱离主程序,甚至可以被分配到其他主机上运行。我们通常使用它来实现异步任务(async task)和定时任务(crontab)。
异步任务:将耗时操作任务提交给Celery去异步执行,比如发送短信/邮件、消息推送、音视频处理等等
定时任务:定时执行某件事情,比如每天数据统计
1.3、Celery具有以下优点
Simple(简单) Celery 使用和维护都非常简单,并且不需要配置文件。 Highly Available(高可用) woker和client会在网络连接丢失或者失败时,自动进行重试。并且有的brokers 也支持“双主”或者“主/从”的方式实现高可用。 Fast(快速) 单个的Celery进程每分钟可以处理百万级的任务,并且只需要毫秒级的往返延迟(使用 RabbitMQ, librabbitmq, 和优化设置时) Flexible(灵活) Celery几乎每个部分都可以扩展使用,自定义池实现、序列化、压缩方案、日志记录、调度器、消费者、生产者、broker传输等等。
1.4、Celery安装
你可以安装Celery通过Python包管理平台(PyPI)或者源码安装
使用pip安装:
pip install Celery
或着:
sudo easy_install Celery
二、Celery执行异步任务
2.1、基本使用
创建项目celerypro
创建异步任务执行文件celery_task(相当于是消费者)
安装环境 python3.9.5 pip install Celery==5.2.6 pip install redis==4.3.1 # 如果我们要使用redis作为消息中间件,则需要安装redis模块 pip install eventlet==0.33.1
import celery import time backend = 'redis://127.0.0.1:6379/1' broker = 'redis://127.0.0.1:6379/2' cel = celery.Celery('test', backend=backend, broker=broker) @cel.task def send_email(name): """ 我们这个函数就是任务执行单元(worker) 在cel装饰器中,指定了消息中间件(broker)为redis的2库 在cel装饰器中,指定了任务结果存储(result)为redis的1库 """ print("向%s发送邮件..." % name) time.sleep(5) print("向%s发送邮件完成" % name) return "ok"
命令行启动celery监听消息队列: celery -A celery_task worker -l info -P eventlet
启动后可以看下redis的broker
创建执行任务文件,produce_task.py(相当于是生产者)
from celery_task import send_email # 使用 celery 提供的 delay 方法启动异步任务 result = send_email.delay("发送邮件啦!") print(result.id) result2 = send_email.delay("我再发!") print(result2.id)
右键点击运行produce_task.py,我们立刻能看到返回的任务id
再看celery任务那边,可以看到也是立刻先打印发送邮件的提示,五秒后,两个任务差不多同时打印发送邮件完成
此时也可以看看redis任务结果保存的result
当我们想使用这个异步任务的结果时:
创建py文件:result.py,查看任务执行结果
from celery.result import AsyncResult from celery_task import cel # 使用celery提供的AsyncResult,根据任务id获取结果 async_result = AsyncResult(id="70652522-17bc-4d87-b829-0c24603f783a", app=cel) if async_result.successful(): # 任务执行成功 result = async_result.get() print("任务执行成功,结果是:%s" % result) # result.forget() # 将结果删除 elif async_result.failed(): # 任务执行失败 print('执行失败') elif async_result.status == 'PENDING': # 任务等待被执行 print('任务等待被执行') elif async_result.status == 'RETRY': # 任务重试 print('任务异常后正在重试') elif async_result.status == 'STARTED': # 任务正在执行 print('任务已经开始被执行')
2.1、多任务结构
celery.py:
from celery import Celery cel = Celery('celery_demo', broker='redis://127.0.0.1:6379/1', backend='redis://127.0.0.1:6379/2', # 包含以下两个任务文件,去相应的py文件中找任务,对多个任务做分类 include=['celery_tasks.task01', 'celery_tasks.task02' ]) # 时区 cel.conf.timezone = 'Asia/Shanghai' # 是否使用UTC cel.conf.enable_utc = False
task01.py,task02.py:
#task01 import time from celery_tasks.celery import cel @cel.task def send_email(res): time.sleep(5) return "完成向%s发送邮件任务"%res #task02 import time from celery_tasks.celery import cel @cel.task def send_msg(name): time.sleep(5) return "完成向%s发送短信任务"%name
produce_task.py:
from celery_tasks.task01 import send_email from celery_tasks.task02 import send_msg # 立即告知celery去执行test_celery任务,并传入一个参数 result = send_email.delay('yuan') print(result.id) result = send_msg.delay('yuan') print(result.id)
check_result.py:
from celery.result import AsyncResult from celery_tasks.celery import cel async_result = AsyncResult(id="562834c6-e4be-46d2-908a-b102adbbf390", app=cel) if async_result.successful(): result = async_result.get() print(result) # result.forget() # 将结果删除,执行完成,结果不会自动删除 # async.revoke(terminate=True) # 无论现在是什么时候,都要终止 # async.revoke(terminate=False) # 如果任务还没有开始执行呢,那么就可以终止。 elif async_result.failed(): print('执行失败') elif async_result.status == 'PENDING': print('任务等待中被执行') elif async_result.status == 'RETRY': print('任务异常后正在重试') elif async_result.status == 'STARTED': print('任务已经开始被执行')
开启work:celery worker -A celery_task -l info -P eventlet,添加任务(执行produce_task.py),检查任务执行结果(执行check_result.py)
三、Celery执行定时任务
设定时间让celery执行一个定时任务,produce_task.py:
from celery_task import send_email from datetime import datetime # 方式一 # v1 = datetime(2020, 3, 11, 16, 19, 00) # print(v1) # v2 = datetime.utcfromtimestamp(v1.timestamp()) # print(v2) # result = send_email.apply_async(args=["egon",], eta=v2) # print(result.id) # 方式二 ctime = datetime.now() # 默认用utc时间 utc_ctime = datetime.utcfromtimestamp(ctime.timestamp()) from datetime import timedelta time_delay = timedelta(seconds=10) task_time = utc_ctime + time_delay # 使用apply_async并设定时间 result = send_email.apply_async(args=["egon"], eta=task_time) print(result.id)
多任务结构中celery.py修改如下:
from datetime import timedelta from celery import Celery from celery.schedules import crontab cel = Celery('tasks', broker='redis://127.0.0.1:6379/1', backend='redis://127.0.0.1:6379/2', include=[ 'celery_tasks.task01', 'celery_tasks.task02', ]) cel.conf.timezone = 'Asia/Shanghai' cel.conf.enable_utc = False cel.conf.beat_schedule = { # 名字随意命名 'add-every-10-seconds': { # 执行tasks1下的test_celery函数 'task': 'celery_tasks.task01.send_email', # 每隔2秒执行一次 # 'schedule': 1.0, # 'schedule': crontab(minute="*/1"), 'schedule': timedelta(seconds=6), # 传递参数 'args': ('张三',) }, # 'add-every-12-seconds': { # 'task': 'celery_tasks.task01.send_email', # 每年4月11号,8点42分执行 # 'schedule': crontab(minute=42, hour=8, day_of_month=11, month_of_year=4), # 'args': ('张三',) # }, }
# 启动 Beat 程序$ celery beat -A proj # Celery Beat进程会读取配置文件的内容,周期性的将配置中到期需要执行的任务发送给任务队列 # 之后启动 worker 进程.$ celery -A proj worker -l info 或者$ celery -B -A proj worker -l info
四、Django中使用celery
项目根目录创建celery包,目录结构如下:
mycelery/ ├── config.py ├── __init__.py ├── main.py └── sms/ ├── __init__.py ├── tasks.py
配置文件config.py:
broker_url = 'redis://127.0.0.1:6379/15' result_backend = 'redis://127.0.0.1:6379/14'
任务文件tasks.py:
# celery的任务必须写在tasks.py的文件中,别的文件名称不识别!!! from mycelerys.main import app import time import logging log = logging.getLogger("django") @app.task # name表示设置任务的名称,如果不填写,则默认使用函数名做为任务名 def send_sms(mobile): """发送短信""" print("向手机号%s发送短信成功!"%mobile) time.sleep(5) return "send_sms OK" @app.task # name表示设置任务的名称,如果不填写,则默认使用函数名做为任务名 def send_sms2(mobile): print("向手机号%s发送短信成功!" % mobile) time.sleep(5) return "send_sms2 OK"
最后在main.py主程序中对django的配置文件进行加载
# 主程序 import os from celery import Celery # 创建celery实例对象 app = Celery("sms") # 把celery和django进行组合,识别和加载django的配置文件 os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'celeryPros.settings.dev') # 通过app对象加载配置 app.config_from_object("mycelerys.config") # 加载任务 # 参数必须必须是一个列表,里面的每一个任务都是任务的路径名称 # app.autodiscover_tasks(["任务1","任务2"]) app.autodiscover_tasks(["mycelerys.sms",]) # 启动Celery的命令 # 强烈建议切换目录到mycelery根目录下启动 # celery -A mycelery.main worker --loglevel=info
Django视图调用:
from django.shortcuts import render # Create your views here. from django.shortcuts import render,HttpResponse from mycelerys.sms.tasks import send_sms,send_sms2 from datetime import timedelta from datetime import datetime def test(request): ################################# 异步任务 # 1. 声明一个和celery一模一样的任务函数,但是我们可以导包来解决 # send_sms.delay("110") # send_sms2.delay("119") # send_sms.delay() 如果调用的任务函数没有参数,则不需要填写任何内容 ################################# 定时任务 # ctime = datetime.now() # # 默认用utc时间 # utc_ctime = datetime.utcfromtimestamp(ctime.timestamp()) # time_delay = timedelta(seconds=10) # task_time = utc_ctime + time_delay # result = send_sms.apply_async(["911", ], eta=task_time) # print(result.id) return HttpResponse('ok')
这篇关于Celery - 分布式任务队列[转载]的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-12-29uni-app 中使用 Vant Weapp,怎么安装和配置npm ?-icode9专业技术文章分享
- 2024-12-27Nacos多环境配置学习入门
- 2024-12-27Nacos快速入门学习入门
- 2024-12-27Nacos快速入门学习入门
- 2024-12-27Nacos配置中心学习入门指南
- 2024-12-27Nacos配置中心学习入门
- 2024-12-27Nacos做项目隔离学习入门
- 2024-12-27Nacos做项目隔离学习入门
- 2024-12-27Nacos初识学习入门:轻松掌握服务发现与配置管理
- 2024-12-27Nacos初识学习入门:轻松掌握Nacos基础操作