腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
无法
使用
漂亮
的
汤
4
在
亚马逊
页
面上
找到
元素
、
、
您好,我正在尝试确定
亚马逊
项目的价格
使用
美丽
的
汤
4
包
在
python上,但我一直得到一个无类型
的
对象错误,所以它找不到价格 我已经尝试切换span和id
元素
,以查看这是否可能导致问题,但没有任何改变 mypriceblock_ourprice" class="a-size-medium a-color-price priceBlockBuyingPriceString">$239.99</span&g
浏览 12
提问于2019-05-20
得票数 0
回答已采纳
4
回答
BS "find_all“方法不匹配所有目标
、
当我在这个页
面上
使用
find_all方法时,
漂亮
的
汤
并不能
找到
所有的目标。此代码:返回1,但有
4
。 是
汤
的
网址。
浏览 0
提问于2019-04-03
得票数 0
1
回答
如何
使用
Python
在
具有相同URL
的
HTML表中刮取多个页面?
、
、
我试着从以下公共网站上搜集招聘信息: import requests soup = Beautiful
浏览 5
提问于2022-06-21
得票数 0
回答已采纳
1
回答
为什么
漂亮
汤
找不到我要找
的
html
元素
?
、
我正试图从coinbase中获取加密货币价格
的
变化,方法是用
漂亮
的
汤
进行解析。
在
coinbase网站()上,我可以
找到
价格变化
的
html
元素
。<h
4
class="TextElement__Spacer-hxkcw5-0 caIgfs Header__StyledHeader-sc-1xiyexz-0 dLILyj">+0.33%</h
4
>然后,
在</em
浏览 1
提问于2020-06-14
得票数 2
回答已采纳
3
回答
python请求&
漂亮
汤
机器人检测
、
、
、
、
我试图
使用
请求&
漂亮
的
汤
来抓取页面的所有HTML
元素
。我正在
使用
ASIN (
亚马逊
标准标识号)来获取页面的产品细节。我
的
代码如下:import requestssoup = BeautifulSoup(respon
浏览 1
提问于2018-08-29
得票数 2
回答已采纳
2
回答
抓取特定文本
的
网页(字符串)
在
stackoverflow上
的
第一个帖子,所以如果我没有正确发帖,我道歉。我试图抓取网页
的
信息,只有当一个特定
的
文本字符串存在。我只是
使用
了
漂亮
的
汤
,但找不到包含我正在寻找
的
文本
的
元素
。经过更多
的
研究,我尝试
使用
selenium,因为我知道一些动态加载
的
元素
在
漂亮
的
浏览 0
提问于2020-06-06
得票数 1
1
回答
使用
python抓取“我
的
书”节目的座位布局页面
、
、
、
、
我试图
在
bookmyshow网站上找出电影
的
细节,比如什么时候有票,有多少个座位。我必须
找到
如何得到演出
的
时间表,在哪些座位是可用
的
,但现在我想得到
的
总座位在那个节目中。我
的
代码是:from bs
4
import BeautifulSoupbase_url = "https://in.bookmyshow.comc=bookmyshow&v=1.9
浏览 0
提问于2018-02-04
得票数 0
2
回答
使用
漂亮
的
汤
python访问html源代码中
的
不可见
元素
、
、
我正在尝试刮
的
所有按钮
的
链接(EP 212,211,210,.)在这个页
面上
,
使用
了
漂亮
的
汤
4
和python 3。这是我用来检索网页源代码
的
代码:import requests as rq webpage=rq.get('https://gogoanime.pepython代码获得
的
源代码与我
在</
浏览 0
提问于2021-08-22
得票数 1
回答已采纳
2
回答
用
漂亮
汤
解析div子级
、
、
、
、
我用
漂亮
的
汤
在
一
页
纸上
找到
和解析街道地址。最后,我想把街道地址写到excel文档中。所讨论
的
页面中
的
div
元素
列
在
类下面的同一级别上。我一直
无法
解析各个行。相反,我
的
代码只是把类下
的
所有内容都吐出来了。到目前为止我
的
代码是:
浏览 2
提问于2016-02-02
得票数 2
回答已采纳
1
回答
用BeautifulSoup
在
蒸汽中抓取多个页面
、
、
我
的
目标是抓取动作游戏
的
信息,如游戏名称,标签,价格。用过
的
图书馆是请求,
漂亮
的
汤
。网址: 我设法把它编码到第一
页
,然后我试着刮掉15
页
。由于某些原因,即使我尝试
使用
"#p=15",这也不起作用,我得到了第一
页
的
html。然后我检查了页面
元素
(1,2,3,4.)但它们不包含任何链接。接下来,我开始
在
“检查>网络选项卡”中检查是否可以拦截任
浏览 11
提问于2022-04-19
得票数 1
回答已采纳
2
回答
使用
漂亮
的
汤
正确解析空html标记
、
、
HTML有一个空
元素
的
概念,如所列。然而,
漂亮
的
汤
似乎不能很好地处理它们: '<div><input name=the-input><label for=问题:有什么方法可以得到
漂亮
的
汤
来正确地解析这个吗?或者我还没有
找到
对这种行为
的
官方解释?至少我希望这样<
浏览 7
提问于2017-03-24
得票数 1
回答已采纳
1
回答
具有动态href
的
BeautifulSoup
、
、
尝试python3.4
漂亮
汤
从网页抓取一个压缩文件,这样我就可以解压缩并下载到文件夹中。我可以让
漂亮
的
汤
打印()页
面上
的
所有href,但我想要一个特定
的
href,以结尾,"=Hospital_Revised_Flatfiles.zip“。这有可能吗?到目前为止,我只有网址上
的
href列表。 文件
的
全部内容是,但是中间
的
疯狂内容
在
更新文件时会发生变化,并且
无法</e
浏览 3
提问于2016-03-22
得票数 0
回答已采纳
1
回答
在
页面中
找到
具有以下属性
的
项
、
css class=fb_pagZ和该类下
的
所有li a。 所以
在
css中是:fb_pagZ li a,但是我很难理解如何用
漂亮
的
汤
来表示它。我目前有
漂亮
的
代码,可以
找到
页
面上
所有具有fb_pagZ名称
的
类,但我似乎
无法
进一步过滤到列表项中,特别是li a中,只解析href值。
浏览 0
提问于2018-04-27
得票数 1
回答已采纳
1
回答
机械地打开多个页面
、
、
、
我正在
使用
机械化和
漂亮
的
汤
来创建一个python脚本来从网页中提取一些数据。抓取工作正常,但我遇到
的
问题是移动到多个页面。
在
机械循环中,有没有办法
在
页面之间移动?以下是我尝试过
的
方法但它会转到下一
页
,这很好,但如果“下一步”按钮不存在,它就会死掉。我不确定如何做一个更好
的
循环,或者在运行上面的follow link
浏览 4
提问于2011-03-04
得票数 2
回答已采纳
1
回答
如何为学院安装
漂亮
的
汤
?
我安装了蟒蛇,并能
使用
jupyter笔记本以及熊猫。我该如何安装
漂亮
的
汤
?我要把这个放在命令提示符中吗?
在
jupyter笔记本里?我得到
的
错误是:(C:\Users\skull\Anaconda3\lib\site-packages\bs
4
_init_.py):ImportError:
无法
从“bs
4
”导入名称“
漂亮
汤
”
浏览 0
提问于2020-09-29
得票数 1
回答已采纳
1
回答
只
使用
文本属性从'a‘
元素
中提取href
、
我正在尝试
在
python中构建一个函数,该函数移动到结果列表中
的
下一
页
。我很难
在
漂亮
的
汤
中
找到
元素
,因为链接位于许多其他标记
的
末尾,并且没有任何属性,如class或ID。下面是html
的
一个片段: Next </a> 我一直
浏览 4
提问于2020-09-01
得票数 4
回答已采纳
1
回答
为什么通过
漂亮
汤
导入
的
html与实际
的
html不同?
、
我编写了代码以获得某些结果
的
最大页面。下面是关于div标记
的
信息,它
的
类名是s-paginatino,通过开发工具。 import requests url = "https://stackoverflow.com&
浏览 1
提问于2020-08-30
得票数 1
2
回答
如何读取HTML表格数据w美丽
汤
?返回“无”
、
、
、
我正在
使用
Beautiful从HTML表读取数据。为什么我没有从桌子上得到一个结果,我如何修正它?我
的
代码返回“无”。我
使用
了soup.prettify()来检查HTML,它似乎没有给我完整
的
源代码。我不确定这是不是个问题。2017-02-01 02:20 AM</td>
浏览 6
提问于2017-02-05
得票数 0
1
回答
返回RSS
的
所有页面
、
、
我正在
使用
python从rss页面抓取xml。我正在
使用
漂亮
的
汤
来解析xml。每个URL
的
数据
使用
urllib2下载并保存在变量xml中 然后,我
的
python代码<e
浏览 0
提问于2014-12-04
得票数 0
1
回答
Selenium未完全下载文件
、
、
、
、
我已经用
漂亮
的
汤
、硒(铬)和蟒蛇建立了一个网络刮板。 它非常简单,
漂亮
的
汤
解析了一个充满链接
的
页面,selenium每次遵循这些链接1。Selenium
在
每个页
面上
找到
一个特定
的
下载链接,然后单击它,开始下载。我会用这个
漂亮
的
汤
,但如果我不
使用
浏览器点击链接,它将发送我到一个页面的captcha。无论如何,当selenium开始
浏览 0
提问于2014-09-06
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
北京网站建设单页式网站为什么越来越受欢迎?
如何找到有效的亚马逊PPC关键字?
零基础入门Python爬虫,一文掌握爬虫核心原理!
使用亚马逊新推出的动态ASIN优化有哪些注意事项?
Javascript将HTML 页面生成 PDF 并下载
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券