腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Beautifulsoup
find_all
丢失
的
项目
、
br', }soup =
BeautifulSoup
浏览 9
提问于2020-03-29
得票数 0
回答已采纳
1
回答
美汤结果缺失
的
部分
、
这里只是它
的
一部分 <a class="fBlackLink"></a> <span> … </我
的
Python代码如下div = soup.find('td', attrs={'class':
浏览 3
提问于2013-09-04
得票数 9
回答已采纳
1
回答
使用<a>提取
BeautifulSoup
标记
、
、
、
下面是代码,它给了我一组空
的
“链接”。from bs4 import
BeautifulSoup
soup =
BeautifulSoup
(response, 'html.parser')print(links) 对于其他u
浏览 0
提问于2015-12-26
得票数 1
回答已采纳
2
回答
BeautifulSoup
中"findAll“和"
find_all
”
的
区别
、
、
、
我想用Python解析一个HTML文件,我使用
的
模块是
BeautifulSoup
。import urllib, urllib2, cookielibsite = "http://share.dmhy.orgteam_id%3A407" r
浏览 5
提问于2012-09-09
得票数 39
回答已采纳
1
回答
漂亮汤: bs4.element.ResultSet对象或列表上
的
find_all
?
、
、
、
嗨,所以我在
beautifulsoup
object上应用了
find_all
,发现了一些东西,它是bs4.element.ResultSet object或list。我想在那里进一步做
find_all
,但在bs4.element.ResultSet object上是不允许
的
。我可以遍历bs4.element.ResultSet object
的
每个元素来执行
find_all
。但是我能不能避免循环,直接把它转换回
beautifulsoup
object呢?B<
浏览 0
提问于2016-03-18
得票数 22
回答已采纳
1
回答
find_all
()函数和
BeautifulSoup
包
的
SoupStrainer有什么区别?
、
以下代码用于在屏幕上打印html_doc
的
标签,它是一个包含html代码
的
变量:下面的代码返回相同
的
结果: print(
BeautifulSoup
(html_doc, "
浏览 1
提问于2017-11-10
得票数 1
4
回答
Web抓取给出了整个html
、
、
我感兴趣
的
是收集生产预算,全国毛收入,全球毛收入和标题。通过利用以下代码,我获得了整个HTML,而我只需要文本:import requestsURL = 'https://www.the-numbers.com/movie/budgets/all' page = requests.get(link) soup =
Beautifu
浏览 43
提问于2018-06-06
得票数 0
回答已采纳
2
回答
如何在python脚本中导入.py
、
我试图在python脚本中直接导入
BeautifulSoup
库,但我无法安装它,因为我在语法DS213+中使用它,所以我尝试这样做: soup =
BeautifulSoup
(html) for link in soup.find_all('a'):line 17, in <module> sou
浏览 3
提问于2014-02-24
得票数 0
回答已采纳
1
回答
BeautifulSoup
文档中给出
的
不工作
的
示例
、
我正在尝试
BeautifulSoup
文档中给出
的
示例,其中一个例子是没有给出预期
的
结果。</p>soup =
BeautifulSoup
(html_doc)soup.find_all('b')但是,当我尝试相同
的
命令时
浏览 3
提问于2015-01-19
得票数 1
回答已采纳
1
回答
如何从我
的
函数调用导入库
的
函数?
在尝试使用
BeautifulSoup
从某些网页获取信息时,有许多重叠
的
代码,因此我想将其作为一个函数,但我想在bs中调用一个函数,比如
find_all
和select。我该怎么做呢?import requests soup =
BeautifulSoup
(result.text, "lxml&qu
浏览 4
提问于2022-07-01
得票数 0
回答已采纳
1
回答
BeautifulSoup
中文本和字符串
的
区别
、
当我搜索
BeautifulSoup
中包含特定文本
的
标记时,我使用
find_all
(string='text I want')soup.find_all(string='stackoverflow')soup.find_all(text='stackoverflow') 我查看了
浏览 4
提问于2016-03-26
得票数 1
回答已采纳
1
回答
bs4正确地分析了页面,但是
find_all
没有返回任何内容。
、
我正试着刮这个网站如果我打印lxml解析
的
结果,我就可以在结果中看到我想要
的
结果。但是,
find_all
不返回任何内容。我已经尝试了以下所有内容(所有这些都返回了一个空列表): 'https://www.automationanywhere.com/resources/custome
浏览 3
提问于2021-01-18
得票数 0
1
回答
我在将HTML表格解析为csv时遇到了问题
、
我正在尝试解析来自
的
表并将其转换为csv。我使用了下面的代码import urllib2 try: finally: soup=
BeautifulSoup
,结果是很奇怪
的
。我打算
浏览 0
提问于2015-11-28
得票数 2
2
回答
无法从python中
的
html页面提取文本
、
、
我读到了关于
BeautifulSoup
的
文章,并试图使用它。但我无法提取具有给定类名“company-desc-and-排序容器”
的
文本。我甚至不能从html页面中提取标题。这是我尝试过
的
代码:import requests r = requests.ge
浏览 5
提问于2016-12-20
得票数 1
回答已采纳
3
回答
使用从URL中刮取列表
、
我是
BeautifulSoup
的
新手,所以请原谅这里任何初学者
的
错误。我试图刮一个网址,并希望存储
的
电影列表下
的
一个日期。下面是我到目前为止拥有的代码:from bs4 import
BeautifulSoup
soup =
BeautifulSoup
(page.co
浏览 1
提问于2020-05-29
得票数 0
回答已采纳
3
回答
BeautifulSoup
`
find_all
`发生器
、
、
有没有办法把
find_all
变成一个内存效率更高
的
生成器?例如:soup =
BeautifulSoup
(content, "html.parser")我想代之以: soup =
BeautifulSoup
这里有一些内置
的
生成器,但不会在查找中产生下一个结果。有了成千上万
的
条目,
find_all
吸收了大量
的
内存。对于5792个
项目</e
浏览 6
提问于2016-12-29
得票数 6
回答已采纳
1
回答
BeautifulSoup
IndexError
、
、
我试着从这张表格
的
“工业”行中刮出文字: <th style="padding-right: 0.5em;" scope="row">Industry</th> </
浏览 3
提问于2015-06-26
得票数 0
1
回答
使用bs4与python一起解析文件,如何从锚标记中获取文本?
、
、
TITLE><a href="facebook.com">Face book</a></HTML>from bs4 import
Beaut
浏览 1
提问于2022-06-14
得票数 -3
回答已采纳
1
回答
TypeError:“str”对象不可调用
、
、
我在我
的
程序中添加了几行代码,以便使用
BeautifulSoup
将html转换为json,但是这些添加
的
代码行出现了错误。import httplib, urllibimport json data = response.read() htmldata = [[cell.text for cell
浏览 0
提问于2015-09-26
得票数 1
1
回答
BeautifulSoup
-获取两个标记之间
的
字符串
、
、
我想用
BeautifulSoup
捕捉两个超文本标记语言之间
的
一切。这是我关心
的
HTML代码片段:因此,即使我对HTML稍有了解,我也可以看到我需要捕获<br>标记并获取它们之间
的
内容。我
的
问题似乎类似于这个问题(),其中
的
解决方案是使用soup.find('br').next_sibling,但我自己尝试时遇到了错误: AttributeError:
浏览 6
提问于2017-08-09
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python爬虫从入门到精通(3):BeautifulSoup用法总结及多线程爬虫爬取糗事百科
BeautifulSoup常用解析库-爬虫干货系列5
Python爬虫库-BeautifulSoup的使用
干了这碗汤,你也可以愉快地爬虫了
Python爬虫之BeautifulSoup详解
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券