腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(226)
视频
沙龙
2
回答
链
接到
下一
页
的
CSS
选择器
在
Scrapy
shell
中
返
回空
列表
、
、
、
我是新来
Scrapy
的
。我尝试从此站点https://book24.ru/knigi-bestsellery/?section_id=1592获取到
下一
页
的
链接 html是什么样子
的
:enter image description here
在
scrapy
shell
中
,我写了这个命令: response.
css
_next a::attr(href)'
浏览 46
提问于2021-10-15
得票数 2
回答已采纳
2
回答
提取所有分页链
接到
有刮痕
的
网页?
、
、
import
scrapy
name = 'quotes' def parse(self, response): next_page_url = response.
css
if nex
浏览 8
提问于2017-12-11
得票数 1
回答已采纳
2
回答
如何获得与
Scrapy
一起使用
的
正确
选择器
(
CSS
/XPath)?
、
、
、
、
我想从这个网站上抓取信息: (全国驾驶学校
列表
),
在
地图上映射邮政编码和公司名称(我已经从邮政编码映射到坐标),以找到学校聚集区。最佳结果将是一个
选择器
,它提取710家公司()
的
所有相关信息。我已经尝试复制了想要
的
表()
的
CSS
"selector“和,但是
在
Scrapy
中
运行
CSS
选择器
/ XPath时,它什么也不返回。复制
的
CSS<
浏览 2
提问于2020-04-04
得票数 0
回答已采纳
1
回答
为什么我使用
Scrapy
shell
得到一个空
列表
?
、
、
、
我正试图
在
href
中
搜索“
下一
页
”。 ? 但是为什么
scrapy
shell
返回一个空
列表
呢?我使用
的
语句是: response.
css
("li.ais-pagination--item ais-pagination--item__next a").xpath("@href") 请告诉我如何使用
Scrapy
刮这个。
浏览 28
提问于2020-01-07
得票数 0
1
回答
当解析url时,
scrapy
选择器
返
回空
,
在
解析保存
的
url时返回ok。
、
、
、
我试着使用刮除
选择器
从网络上抓取数据表,但是得到了一个空数组。有趣
的
是,当我试图保存该文件并对其进行刮除时,我得到了预期
的
数组(非空)。有关
Scrapy
版本、
选择器
命令和预期响应
的
信息可以在下面找到。刮伤版lxml : 3.2.3.0Twisted : 13.1.0连
接到
web
的
浏览 2
提问于2013-09-23
得票数 1
3
回答
从多个页面中提取数据
、
、
class HomedepotcrawlSpider(
scrapy
.Spider): allowed_domains = ['homedepot.com(next_page), )我获得..hd页面化__链接
的
方式是使用
CSS
选择器
扩展google,并选择
下一
个页面图标因此,我尝试了一些事情,这是我最有意义
的
浏览 4
提问于2020-02-13
得票数 5
回答已采纳
1
回答
如何从xpath
中
抓取业务名称并获取csv文件
、
i am trying to scrape yellow page by using
scrapy
and python getting all other result right but notgetting the business name 尝试更改xpath,甚至尝试
css
选择器
,但没有得到正确
的
结果
浏览 20
提问于2020-04-05
得票数 0
回答已采纳
1
回答
让xpath选择
下一
步按钮时遇到问题
mode=advanced&name=&operator=%3E%3D&query=&species=&status%5B0%5D=available&status%5B1%5D=on-hold 有一些奇怪
的
事情正在发生,我不知道如何获得某些元素,比如Next按钮
中
的
href。'>] 但是当我查看控制台时,我看到了一个附加
的
<section class="specimen-list">,它没有显示在那里,并且其中包含导航按钮。我
浏览 14
提问于2021-03-29
得票数 1
1
回答
Python没有通过所有标签
、
、
、
、
我正在尝试写一个ebay脚本,它在一个页面
中
遍历每个产品,然后进入
下一
个页面,并执行相同
的
操作。但是问题是,刮伤只通过页面
中
的
第一个链接,跳过页面的其余部分,然后转到
下一
个页面。 对于每一
页
,刮除只取一
浏览 0
提问于2017-05-12
得票数 0
回答已采纳
2
回答
在所有页面被刮掉之前
的
刮擦整理过程
我坐了一个测试刮刀,它看起来是这样
的
: name = 'test' nr_pages = response.xpath('//div[@class="desktop-buttons"]/a[@class="
css
response):
浏览 4
提问于2020-10-22
得票数 0
回答已采纳
2
回答
Scrapy
- Xpath可以
在
shell
中
运行,但不能在代码
中
运行
、
、
、
、
我正在尝试抓取一个网站(我得到了他们
的
授权),我
的
代码
在
scrapy
shell
中
返回了我想要
的
东西,但我
的
爬行器什么也得不到。我想要理解为什么xpath
选择器
与
scrapy
shell
一起工作(我得到
的
正是我需要
的
链接),但是当我
在
我
的
爬行器
中
运行它时,我总是得到一个null
列表
。如果它能提
浏览 36
提问于2018-04-25
得票数 1
回答已采纳
1
回答
刮破
的
蜘蛛不会跳到
下一
页
、
我正在为瑞典电子商务网站Blocket.se建立一个与
Scrapy
有关
的
替罪羊。它正在按原样刮第一
页
,但
下一
页
不会跳。
下一
个url
的
命令当我
在
Scrapy
shell
中
尝试时,输出一个“q=cyke
浏览 1
提问于2018-11-03
得票数 0
回答已采纳
1
回答
在
CSS
选择器
中选择“金额”
、
、
我试图
在
CSS
选择器
中
为
下一
页
选择一个价格; response.
css
('strong.object-header__price').xpath('normalize-space()').extract(']&
浏览 6
提问于2021-12-12
得票数 1
回答已采纳
1
回答
网站被抓取,但没有抓取
Scrapy
、
、
我一直
在
抓取这个网站,并试图存储属性,虽然有些属性确实被抓取了,但有些只是抓取而不是抓取: class CapeWaterfrontSpider(
scrapy
.Spider): bedrooms = prop.
c
浏览 11
提问于2019-07-03
得票数 0
回答已采纳
1
回答
Scrapy
不从
css
路径返回数据
、
、
我正在尝试抓取指向此第一
页
上
的
列表
的
链接(或者更确切地说,是
列表
ID)。我认为正确
的
css
选择器
必须是至少当我
在
Element Inspector
中
搜索这个
选择器
(没有::attr(href))时,它似乎应该返回正确
的
数据。我对<
浏览 9
提问于2019-11-13
得票数 0
2
回答
抓取时难以使用Xpath/
CSS
、
、
、
我正在试着废弃这个网站: https://www.coolblue.nl/en/our-assortment 我正在收集产品类别的所有网址
的
列表
。几乎所有的我都能买到。出于某种原因,那些“更多..”标签
页
真的很难得到。 我相信这与我
的
选择器
有关。在这一点上,我试图得到那些具体
的
“更多..”
shell
中
的
URL,只是为了弄清楚如何正确地选择它们。例如,
在
“笔记本电脑、台式机和显示
浏览 22
提问于2019-03-14
得票数 0
回答已采纳
2
回答
刮伤:
在
登录后爬
下一
页
、
、
、
在
成功登录到quotes.toscrape.com网站之后,我正在尝试
在
页面上爬行。我
的
代码(scrapytest/spiders/quotes_spider.py)如下:from
scrapy
.http import FormRequest from .(VSC)上通过$
scrapy
爬行剪贴引用运行这段代码时,代码只会设法刮到登录和刮取第一
页
。它总是不能爬到第二
页
。] INFO: Spider cl
浏览 5
提问于2020-10-10
得票数 0
回答已采纳
2
回答
抓取RSS:
Scrapy
没有返回数据
这是我
的
代码抓取RSS BBC,但它没有返回任何东西。 name = "bbc" allowed_domains = ["feeds.bbci.co.uk
浏览 1
提问于2019-11-12
得票数 0
回答已采纳
1
回答
无法使用
Scrapy
转到
下一
页
、
我试图告诉
Scrapy
移动到
下一
页
并抓取内容,但它停在第一
页
。import
scrapy
from
scrapy
.linkextractors import LinkExtractor'//*[@id="__next"]/div[2]/div[2]/div[1]/div/ul
浏览 12
提问于2021-09-16
得票数 0
回答已采纳
2
回答
刮刮识别重定向和停止循环
、
、
、
我
在
试着重复几页。网站
的
不同页面都标有or10、or20、or30等。即是第一
页
是第二
页
第3
页
等 return break问题是,即使页面不存在,我也需
浏览 0
提问于2019-02-13
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Scrapy向导
Scrapy框架的使用之Selector的用法
零基础想学爬虫的看过来了!手把手从安装开始教你如何爬取网页!
Scrapy框架的使用之Scrapy入门
python爬虫系列开发scrapy掌握(一)
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券