腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
BeautifulSoup
-访问
更多
评论
、
、
、
我试图从一个IMDB电影链接的网络刮评论和提取评论的用户名,我只得到25个用户名,因为这是页面显示,直到你按下“显示
更多
”。ref_=tt_urv'responsesoup=bs4.
BeautifulSoup
(response.content
浏览 2
提问于2020-10-30
得票数 1
2
回答
为什么
BeautifulSoup
没有
找到所有的标签?
、
当我使用
BeautifulSoup
4解析,然后查找表标记时,它会找到2。当我查看页面的html时,我会看到10个表。为什么
BeautifulSoup
不返回全部10个?from bs4 import
BeautifulSoup
soup =
BeautifulSoup
(page) print len(soup.find
浏览 3
提问于2014-01-15
得票数 0
回答已采纳
3
回答
如何使用
BeautifulSoup
从网页中读取
更多
内容来抓取评论
、
、
我试图从一个网站刮评论,并
没有
能力刮评论有一个‘读
更多
’选项。我只能在阅读
更多
之前才能得到数据。我正在使用
BeautifulSoup
。任何帮助都是非常感谢的。
浏览 1
提问于2017-08-17
得票数 0
1
回答
从一个单一页面的网站获取与
BeautifulSoup
的所有链接(“加载
更多
”功能)
、
、
、
我想刮所有的链接,从一个网站,
没有
分页,即,有一个‘加载
更多
’按钮,但网址不改变取决于多少数据,你已经要求。当我
BeautifulSoup
的网页,并要求所有的链接,它只是显示的数量的链接在香草第一页的网站。我可以通过单击“加载
更多
”按钮来手动单击旧的内容,但是有一种以编程方式这样做的方法吗?这就是我的意思:soup = soup = <
浏览 1
提问于2016-03-07
得票数 1
回答已采纳
1
回答
不能把所有的评论都刮掉
、
、
、
要加载
更多
,您必须单击“显示
更多
的评论”,我不知道如何获得所有的数据,因为
没有
页面链接,而且“显示
更多
的评论”
没有
一个URL去探索,地址保持不变。url = "“ from bs4 import
BeautifulSoup
import pandas as pdhtml = url.text soup =
BeautifulSoup
(h
浏览 1
提问于2019-06-01
得票数 1
回答已采纳
1
回答
我在jupyter笔记本上安装了
BeautifulSoup
4。尝试使用"from bs4 import
BeautifulSoup
“时出现错误
、
、
、
selenium.webdriver.chrome.service import Service from bs4 import
BeautifulSoup
浏览 7
提问于2022-09-24
得票数 0
1
回答
or或Selenium不会单击按钮或链接
、
、
、
、
我正在抓取一个名为skechers的运动鞋网站,现在当LOAD MORE链接/按钮出现时,向下滚动以加载
更多
产品,它单击该元素但
没有
加载。下面是我的代码:import time time.sleep(10)
浏览 0
提问于2021-03-14
得票数 0
3
回答
如何抓取页面中未加载的内容?
、
、
、
但是页面并
没有
完全加载。在页面的底部是按钮"Pokażwięcej“,这意味着显示
更多
。如果我点击它,它会加载
更多
的关注点。这个脚本只抓取了第一部分。我怎么才能刮掉整个列表呢?import requestsurl = "https://www.gpw.pl/spolki" soup =
BeautifulSoup
(respon
浏览 0
提问于2020-04-28
得票数 0
1
回答
如何用Python,
BeautifulSoup
构建子树?
、
我正在尝试使用
BeautifulSoup
编写网页。 当我通过string设置标记的内部内容时,它会自动转义字符串。我还
没有
找到一种技术,比如html方法/属性,其中BS不会自动转义所有东西。from bs4 import
BeautifulSoup
soup =
BeautifulSoup
(f.read(), 'html.parserdiv>example</div>&qu
浏览 13
提问于2019-06-24
得票数 0
回答已采纳
4
回答
涉及具有属性的HTML标记的Python web抓取
、
、
、
除此之外,我不确定是应该
更多
地依赖
BeautifulSoup
还是lxml,还是两者的组合。我该怎么办?import
BeautifulSoup
, NavigableString html = urllib2.urlopen(address).read() html=soup.prettify() html=htm
浏览 0
提问于2009-09-08
得票数 8
回答已采纳
1
回答
如何使用python和漂亮的汤抓取所有事件的位置
、
链接:import requestspage = requests.get(URL) soup =
BeautifulSoup
(page.conten
浏览 7
提问于2021-08-17
得票数 0
回答已采纳
1
回答
使用python解析互联网页面中的特定值
、
我正在尝试从如下格式的页面中解析一个名为secu的值:https://www.ariva.de/[WKN-input]/historische_kurse 我可以在查看页面的源代码中找到: <input type="hidden" name="secu" value="717816" /> 例如:https://www.ariva.de/A0D9PT/historische_kurse 最后,我想将其存储到CSV中。这是我已经有的代码,缺少解析部分: import pandas as pd # read WKN names fr
浏览 22
提问于2021-01-20
得票数 0
回答已采纳
3
回答
使用
BeautifulSoup
4查找包含文本的所有终端节点。
、
、
我是Python和
BeautifulSoup
4的新手和content = soup.find_all(tags, text=True, recursive=False) 这两个都
没有
输出编辑-添加
更多
代码和我正在测试的
浏览 1
提问于2019-01-19
得票数 5
回答已采纳
1
回答
findAll返回空的html
、
、
、
、
我正在使用
BeautifulSoup
模块解析一个html文件,我想从中提取某些信息。特别是比赛分数和球队名称。import urllibimport refrom bs4 import
BeautifulSoup
浏览 3
提问于2017-05-12
得票数 1
2
回答
在Beautiful Soup中添加文本到p标签
、
、
、
文档中
没有
提到在哪里可以做到这一点。
浏览 6
提问于2010-02-18
得票数 6
3
回答
通过bs4打印刮过的网页时出错
、
、
、
、
代码:import urllibsoup =
BeautifulSoup
(page1) print(soup.get_text())
浏览 3
提问于2015-01-07
得票数 1
回答已采纳
1
回答
AttributeError:'str‘对象在使用
BeautifulSoup
时
没有
属性’子代‘错误
、
、
@ayivima在下面有一个很好的答案,但我要补充的是,网站本身最终
没有
被
BeautifulSoup
正确地刮掉,因为它有大量的Javascript。。我使用的代码主要来自google:import requests page = requests.get(url)soup =
Beautifu
浏览 0
提问于2019-06-24
得票数 2
2
回答
如何抓取与某一期刊/文章的每一位教授相关的附属关系
、
、
、
、
在单击“显示
更多
的”按钮后,该从属关系将可用。我可以点击它,但我不能刮的从属关系,这是加载后点击显示
更多
的按钮,这里是代码。for循环
没有
打印包含从属关系的dl-标记。from selenium import webdriver driver.get('https://www.s
浏览 4
提问于2019-11-14
得票数 1
回答已采纳
3
回答
如何使用
BeautifulSoup
Python在web上浏览“显示
更多
”按钮?
、
、
我在python上使用
BeautifulSoup
从这个网站上获取足球统计数据:https://www.skysports.com/premier-league-results/2020-21。然而,该网站只显示了本赛季的前200场比赛,而180场比赛的其余比赛都在“显示
更多
”按钮后面。该按钮不会更改url,因此我不能简单地替换url。这是我的代码: from bs4 import
BeautifulSoup
scores_html_text = requests.ge
浏览 48
提问于2021-09-09
得票数 2
2
回答
“NoneType”对象在获取google结果时
没有
属性“text”
、
、
、
在这篇文章中,我询问了
更多
关于如何在日期范围内从谷歌获得结果的信息,但结果被关闭为重复。不幸的是,所建议的另外两项结果并
没有
解决我在获得这个数字方面的问题。使用以下代码:from bs4 import
BeautifulSoup
print (soup.find('div',{'id':'resultStats'}).text) 我
浏览 9
提问于2020-03-08
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
总结 BeautifulSoup
初识BeautifulSoup
Python学习-BeautifulSoup简单爬虫
BeautifulSoup网络数据信息采集(一)
Python爬虫之BeautifulSoup解析之路
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券