怎么在python爬虫中利用celery调取文件

本篇文章给大家分享的是有关怎么在python爬虫中利用celery调取文件,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。

创新互联公司咨询热线:18980820575,为您提供成都网站建设网页设计及定制高端网站建设服务,创新互联公司网页制作领域10年,包括垃圾桶等多个行业拥有丰富的网站运维经验,选择创新互联公司,为企业锦上添花。

除了通过```import```然后```add.delay()```这种方式,我们还可以通过```send_task()```这种方式,我们在项目根目录另外新建一个py文件叫做 `excute_tasks.py`,在其中写下如下的代码

from tasks import add
 
if __name__ == '__main__':
add.delay(5, 10)

这时候可以在celery的worker界面看到执行的结果

[2017-05-19 14:25:48,039: INFO/MainProcess] Received task: tasks.add[f5ed0d5e-a337-45a2-a6b3-38a58efd9760]
 
[2017-05-19 14:25:48,074: INFO/MainProcess] Task tasks.add[f5ed0d5e-a337-45a2-a6b3-38a58efd9760] succeeded in 0.03369094600020617s: 15

此外,我们还可以通过```send_task()```来调用,将```excute_tasks.py```改成这样

from tasks import app
if __name__ == '__main__':
app.send_task('tasks.add', args=(10, 15),)

这种方式也是可以的。`send_task()`还可能接收到为注册(即通过`@app.task`装饰)的任务,这个时候worker会忽略这个消息

[2017-05-19 14:34:15,352: ERROR/MainProcess] Received unregistered task of type 'tasks.adds'.
 
The message has been ignored and discarded.

以上就是怎么在python爬虫中利用celery调取文件,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注创新互联行业资讯频道。


文章标题:怎么在python爬虫中利用celery调取文件
文章位置:http://bzwzjz.com/article/ggpggc.html

其他资讯

Copyright © 2007-2020 广东宝晨空调科技有限公司 All Rights Reserved 粤ICP备2022107769号
友情链接: 成都网站设计 成都网站建设 重庆企业网站建设 成都网站制作 高端网站设计 广安网站设计 成都网站建设推广 成都网站建设公司 梓潼网站设计 重庆网站建设 外贸营销网站建设 成都网站建设 手机网站制作 成都商城网站制作 成都网站制作 成都网站建设 自适应网站设计 重庆网站设计 手机网站建设 营销型网站建设 手机网站制作 品牌网站建设