项目,依赖包如上
运行项目步骤
在安装好依赖包并且解压项目文件,pip install -r requirements.txt
执行命令scrapy crawl duanzi --nolog
配置Scrapyd...打包Scrapy上传到Scrapyd
上述只是启动了Scrapyd,但是并没有将Scrapy项目部署到Scrapy上,需要配置以下Scrapy的scrapy.cfg文件
?
配置如下
?...、Scrapyd、Scrapyd-Client、Scrapy-Redis、Scrapyd-API、Scrapy-Splash、Jinjia2、Django、Vue.js 开发
配置步骤
Gerapy和Scrapy...然后在主机列表,调度中,就可以运行爬虫了
?
运行爬虫
?
获取结果,结果已经写入本地
?...刷新页面,点击项目管理,可以看到可配置和打包都是x号状态
?
点击部署,写好描述,点击打包
?
再次回到主界面,可以发现打包已经是正确的了
?
至此,基本整个流程结束。