腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Scrapy
不
获取
设置
从
curl
获取
scrapyd
设置
、
、
、
我想通过以下方式将
设置
发送到爬网程序:setting=request_user=2
scrapyd
.schedule(project,spider,settings={'request_user':2})from
scrapy
.utils
浏览 14
提问于2018-08-05
得票数 0
2
回答
使
scrapyd
覆盖文件
、
、
我正在寻找一种在
scrapyd
中
设置
作业的方法,它在本地创建一个文件,然后在下一次爬网时覆盖它的内容,而不是附加它。据我所知,只有使用
scrapy
我才能使用这个命令但是似乎没有办法在
scrapyd
或
curl
命令行(我用来
设置
scrapyd
)中
浏览 9
提问于2018-12-03
得票数 1
4
回答
在后台/作为服务运行
Scrapyd
的首选方法
、
、
我试图在虚拟Ubuntu16.04服务器上运行
Scrapyd
,我通过SSH连接到该服务器。当我通过简单的跑来跑去的时候我可以通过连接到web界面。但是,一旦我关闭了SSH连接,web接口就不再可用了,因此,我认为我需要以某种方式在后台运行
Scrapyd
。
浏览 4
提问于2017-11-01
得票数 9
回答已采纳
1
回答
如何在
Scrapyd
中
设置
max_proc_per_cpu
、
、
我有以下两个具有以下配置的
Scrapy
项目[settings][deploy]和项目2的
scrapy
.cfgdefault = Project2.settings
浏览 6
提问于2017-12-09
得票数 1
1
回答
禁用存储在.jl提要中的
Scrapyd
项
、
我试过什么但是,
Scrapyd
记录每个刮过的
Scrapy
项目。在检查
scrapyd
时可以看到这一点。我在一个Docker容器中运行
scrapyd
,它占用了太多的存储空间。 我尝试过,但这似乎对刮伤日志没有任何作用。所有蜘蛛日志记录
设置
似乎都被
scrapyd
忽略了。如果省略items_dir
设置
,似乎不会发生项日志记录。据说默认情况下这是禁用的。我没有
浏览 4
提问于2016-04-24
得票数 1
回答已采纳
1
回答
动态抓取
设置
、
我有一个带有多个蜘蛛的
Scrapy
项目。此项目托管在一个
scrapyd
实例上。我希望能够动态地更改项目settings.py文件(如DOWNLOADER_MIDDLEWARES)中的
设置
。是否可以在向
scrapyd
实例发送请求时更改这些
设置
。请注意,我
不
希望创建多个项目,因为这将导致跨项目重复公共代码。 谢谢
浏览 0
提问于2014-09-23
得票数 0
回答已采纳
1
回答
Scrapyd
在环境变量中的降级
设置
上失败
、
我们在ubuntu18.04上运行python3.6中的
scrapy
2.1.0和
scrapyd
,遇到了一个问题,需要帮助我理解如何解决正确的方法。usr/local/lib/python3.6/dist-packages/
scrapy
/utils/project.py:94: ScrapyDeprecationWarning:
不
建议使用以
SCRAPY
_为前缀的环境变量来覆盖
设置
。我可以在
scrapy
项
浏览 2
提问于2020-05-22
得票数 3
2
回答
使用多个配置启动
Scrapyd
、
、
我正在尝试根据我的环境(例如开发、生产)使用多种配置来开发我的
Scrapy
应用程序。我的问题是,有一些
设置
我不确定如何
设置
它们。例如,如果我必须
设置
我的数据库,在开发中应该是"localhost",在生产中必须是另一个。 在执行
scrapy
deploy时,如何指定这些
设置
?我可以在命令行中使用变量来
设置
它们吗?
浏览 1
提问于2014-05-13
得票数 1
1
回答
Scrapy
中的动态DEPTH_LIMIT作为参数,
从
Scrapyd
传递
、
、
我目前正在使用
Scrapyd
启动爬行器,并且在
Scrapy
设置
中
设置
了
设置
。由于@John响应,我发现有可能将
设置
传递给
scrapyd
的schedule方法 'unique_id': unique_id, # unique ID for2.1; +htt
浏览 0
提问于2018-07-23
得票数 1
回答已采纳
1
回答
无法导入
Scrapy
的
设置
模块或其
scrapy
.cfg
、
、
、
例如,调用没有问题。现在,我想
设置
scrapyd
web服务来部署我的蜘蛛。由于上面提到的内容不起作用,我尝试让
scrapyd
服务器只使用
scrapy
命令
从
我的
Scrapy
项目目录中运行。
从
我的
Scrapy
项目的顶层目录执行
scrapy
server将产生以下结果:User
浏览 7
提问于2012-08-31
得票数 10
5
回答
如何在
scrapy
spider中传递用户定义的参数
、
、
我试图将用户定义的参数传递给
scrapy
的爬行器。有谁能建议一下如何做到这一点吗? 我在某处读到过一个参数-a,但不知道如何使用它。
浏览 7
提问于2013-03-25
得票数 121
回答已采纳
1
回答
Scrapyd
暂停/继续作业
、
、
看起来没有合法的方式来暂停/继续使用
Scrapyd
进行爬行,就像
Scrapy
本身一样(抓取爬行器-s JOBDIR=jobdir/ spider -1)。那么,是否可以使用
Scrapyd
暂停/继续作业? 耽误您时间,实在对不起
浏览 0
提问于2017-09-26
得票数 4
1
回答
生产中的刮刮+ Django
、
、
、
、
我正在编写一个Django web应用程序,它利用了
Scrapy
,并且在本地都很好,但是我想知道如何建立一个生产环境,在这个环境中,我的蜘蛛会定期和自动地启动(我的意思是,一旦蜘蛛完成它的工作,它会在一定时间后重新启动目前,我使用一个定制Django命令启动我的蜘蛛,该命令的主要目标是允许使用Django的ORM存储已刮过的项目,因此我运行: python manage.py
scrapy
crawl myspider我安装了,因为这似乎是在生产中运行
scrapy
的首选方法,但不幸的是,我不能在
不
编写猴子补丁(我想避免)的
浏览 4
提问于2014-10-27
得票数 0
2
回答
Scrapy
在所有爬行器关闭时获得通知
、
、
我正在使用django开始抓取抓取spiders =
scrapyd
.list_spiders("default")
scrapyd
.schedule("default", spider, list_id=list.id, spiders_number将信息
从
spider发送到django很
浏览 1
提问于2020-03-26
得票数 0
1
回答
如何通过setuptools安装Crawlera
、
、
、
、
在我的
scrapy
.cfg文件中有:url = http://localhost:6800/我用
scrapyd
-deploy -l测试test http://localhost:6800/setup( vers
浏览 3
提问于2017-03-24
得票数 1
回答已采纳
1
回答
“-l”打开一个文件,而不是在Windows中运行命令
我正试图将我的项目
从
scrapy
更改为
scrapyd
,因为我的主机提供者告诉我这样做更容易。然而,我发现可用的文档确实令人困惑。在我的
scrapy
.cfg文件中,我取消了[deploy]下面的注释。问题是,当我运行
scrapyd
-deploy -l (如中所指出的)时,它没有获得一个包含可用目标的列表,而是要求我在文本编辑器中打开一个文件。打开的文件如下:当我运行默认
设置
时,这个文件也会打开。或者只是剪贴-部署。以及应该
设置
的用户名和密码。 如果这是基本问题
浏览 0
提问于2016-05-27
得票数 0
回答已采纳
2
回答
在
Scrapy
中拥有“
设置
配置文件”最简单的方法是什么?
Scrapy
从
settings.py
获取
设置
(有默认
设置
、项目
设置
、每个爬行器的
设置
)。我正在寻找的是能够有一个以上的文件与
设置
,并能够在它们之间切换,因为我启动我的蜘蛛快速。如果你
从
Java世界了解Spring Boot,就会有一个关于配置文件的概念。您有包含基本
设置
的application.settings文件。我已经找到了一种不需要支持代码的
Scrapy
方法。方法是使用
SCRAPY</
浏览 0
提问于2019-03-14
得票数 3
2
回答
Scrapy
的
Scrapyd
调度蜘蛛太慢了
、
、
我正在运行
Scrapyd
,在同时启动4个爬虫时遇到了一个奇怪的问题。Process finished: project='thz' spider='spider_4' job='abb7bb8e50ce11e19123c8bcc8cc6233' pid=2549 [
scrapyd
]为什么
Scrapyd
没有在同一时间运行蜘蛛,就像他们计划的那样快?
浏览 0
提问于2012-02-06
得票数 9
回答已采纳
23
回答
刮擦蜘蛛找不到错误
、
这是Windows 7和python 2.7我的蜘蛛位于caps\caps\spiders\campSpider.py我加入了这个项目,然后尝试运行我犯了一个错误,就是找不到蜘蛛。spider = self.crawler.spiders.create(spname, **opts.spargs) File "c:\Python27\lib\site-packages\<
浏览 6
提问于2012-03-26
得票数 43
回答已采纳
1
回答
在
scrapyd
中调度一个蜘蛛并传递蜘蛛配置选项
、
、
、
我正在尝试配置使用slyd创建的蜘蛛以使用,因此我发送-d parameter=value来配置它:ELASTICSEARCH_USERNAME = ''ELASTICSEARCH_INDEX = '
scrapy
' ELASTICSEARCH_TYPE = 'i
浏览 2
提问于2014-09-11
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
分布式爬虫的部署之Scrapyd分布式部署
芝麻小客服深入了解客户资料的获取与设置
网站接入CDN后如何设置获取真实的用户IP地址信息
百度统计独立查看密码设置以及站点ID的获取
Python爬虫解析html:lxml的HtmlElement对象获取和设置inner html
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券