Python3爬虫利器中Scrapy-Redis的安装方法是什么-创新互联

创新互联www.cdcxhl.cn八线动态BGP香港云服务器提供商,新人活动买多久送多久,划算不套路!

创新互联公司从2013年创立,是专业互联网技术服务公司,拥有项目成都网站设计、成都网站制作网站策划,项目实施与项目整合能力。我们以让每一个梦想脱颖而出为使命,1280元华池做网站,已为上家服务,为华池各地企业和个人服务,联系电话:18980820575

这篇文章将为大家详细讲解有关Python3爬虫利器中Scrapy-Redis的安装方法是什么,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

Scrapy-Redis是Scrapy的分布式扩展模块,有了它,我们就可以方便地实现Scrapy分布式爬虫的搭建。本节中,我们将介绍Scrapy-Redis的安装方式。

相关链接

GitHub:https://github.com/rmax/scrapy-redis

PyPI:https://pypi.python.org/pypi/scrapy-redis

官方文档:http://scrapy-redis.readthedocs.io

pip安装

这里推荐使用pip安装,命令如下:

pip3 install scrapy-redis

wheel安装

此外,也可以到PyPI下载wheel文件安装(详见https://pypi.python.org/pypi/scrapy-redis#downloads),如当前的最新版本为0.6.8,则可以下载scrapy_redis-0.6.8-py2.py3-none-any.whl,然后通过pip安装即可:

pip3 install scrapy_redis-0.6.8-py2.py3-none-any.whl

测试安装

安装完成之后,可以在Python命令行下测试:

$ python3
>>> import scrapy_redis

如果没有错误报出,则证明库已经安装好了。

关于Python3爬虫利器中Scrapy-Redis的安装方法是什么就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。


新闻标题:Python3爬虫利器中Scrapy-Redis的安装方法是什么-创新互联
本文URL:http://bzwzjz.com/article/hdhps.html

其他资讯

Copyright © 2007-2020 广东宝晨空调科技有限公司 All Rights Reserved 粤ICP备2022107769号
友情链接: 响应式网站设计 定制网站设计 成都网站设计公司 成都网站设计 成都网站建设 网站建设 网站设计 成都网站建设 四川成都网站建设 企业网站设计 成都网站建设公司 成都商城网站建设 专业网站建设 网站建设改版 公司网站建设 成都网站设计制作公司 成都网站建设 成都网站制作 网站制作 定制级高端网站建设 企业网站设计 手机网站建设