怎么用Docker部署Scrapy

本篇内容主要讲解“怎么用Docker部署Scrapy”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么用Docker部署Scrapy”吧!

站在用户的角度思考问题,与客户深入沟通,找到连山网站设计与连山网站推广的解决方案,凭借多年的经验,让设计与互联网技术结合,创造个性化、用户体验好的作品,建站类型包括:做网站、成都做网站、企业官网、英文网站、手机端网站、网站推广、空间域名、雅安服务器托管、企业邮箱。业务覆盖连山地区。

1. 部署步骤

1.1 上传本地scrapy爬虫代码除了settings外到git 服务器

1.2 编写dockerfile文件,把settings和requirements.txt 也拷贝到image里,一起打包成一个image

dockerfile内容:

from ubuntu
run apt-get update
run apt-get install -y git
run apt-get install -y nano 
run apt-get install -y redis-server  
run apt-get -y dist-upgrade
run apt-get install -y openssh-server
run apt-get install -y python3.5 python3-pip
run apt-get install -y zlib1g-dev libffi-dev libssl-dev
run apt-get install -y libxml2-dev libxslt1-dev
run mkdir /code
workdir /code
add ./requirements.txt /code/
add ./settings.py /code/
run mkdir /code/myspider
run pip3 install -r requirements.txt
volume [ "/data" ]

requirements.txt 内容:

beautifulsoup4
scrapy
setuptools
scrapy_redis
redis
sqlalchemy
pyMySQL
pillow

整个目录结构:

怎么用Docker部署Scrapy

docker build -t fox6419/scrapy:scrapytag .

fox6419是用户名,scrapytag是tag

成功后,执行docker images可以在本地看到image

1.3 打包的image 上传到docker hub中

docker push username/repository:tag

push的命令格式是这样的,我这边就是:

docker push fox6419/scrapy:scrapytag

1.4 在digitalocean这种主机商创建带docker应用的ubuntu 16.04版本

1.5 登陆docker,拉下1.3的image,然后run起来

docker run -it fox6419/scrapy:scrapytag /bin/bash

1.6 命令进去后,git clone 1.1中的爬虫,然后复制images里的settings到爬虫目录,然后执行scrapy crawl xxx即可

到此,相信大家对“怎么用Docker部署Scrapy”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!


文章题目:怎么用Docker部署Scrapy
网页地址:http://bzwzjz.com/article/igecjg.html

其他资讯

Copyright © 2007-2020 广东宝晨空调科技有限公司 All Rights Reserved 粤ICP备2022107769号
友情链接: 品牌网站建设 成都网站建设 盐亭网站设计 成都网站建设公司 达州网站设计 网站制作报价 成都网站建设 企业手机网站建设 成都网站制作 定制网站建设多少钱 成都网站制作 成都网站建设 成都定制网站建设 成都网站建设 网站制作 响应式网站设计 重庆电商网站建设 品牌网站建设 高端网站建设 成都网站建设公司 网站建设 成都网站制作