腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
BeautifulSoup
如何
解析
没有
标签
的
元素
、
、
我对
解析
有一点小问题。): return response.text soup =
BeautifulSoup
浏览 24
提问于2019-02-25
得票数 0
回答已采纳
1
回答
检查
元素
是否在同一段落中(美汤)
、
、
如何
检查
BeautifulSoup
解析
树
的
元素
是否在同一个<p>
标签
中?
浏览 1
提问于2011-09-02
得票数 0
回答已采纳
1
回答
如何
检查
BeautifulSoup
标签
是否是特定
的
标签
?
、
、
、
如果我使用
beautifulsoup
找到某个标记我看下一个
标签
。我只想使用这个
标签
,如果它是一个<w:t>
标签
。
如何
检查下一个
标签
是什么类型
的
标签
?我尝试了element.find_next_sibling().startswith('<w:t')
的
元素
,但它说NoneType o
浏览 3
提问于2019-12-01
得票数 0
回答已采纳
10
回答
使用Python进行Web抓取
、
、
、
我目前正在尝试抓取一个HTML格式相当差
的
网站(通常缺少结束标记,
没有
使用类或it,因此很难直接转到您想要
的
元素
,等等)。到目前为止,我使用
BeautifulSoup
已经取得了一些成功,但偶尔(尽管很少),我会遇到一个页面,在这个页面上,
BeautifulSoup
创建
的
HTML树与(例如) Firefox或Webkit略有不同虽然这是可以理解
的
,因为HTML
的
格式使这种模棱两可,如果我能够得到与Firefox或Webkit生成
浏览 3
提问于2010-03-08
得票数 9
回答已采纳
1
回答
美丽汤
解析
硒
元素
、
、
、
、
我使用soup =
BeautifulSoup
(driver.page_source)
解析
BeautifulSoup
中Selenium
的
整个页面。但是
如何
在
BeautifulSoup
中
解析
Selenium
的
一个
元素
。下面的代码将抛出 element = driver.find_element_by_i
浏览 2
提问于2019-10-30
得票数 1
回答已采纳
6
回答
使用
BeautifulSoup
移除所有内联样式
、
、
、
我正在用
BeautifulSoup
做一些超文本标记语言清理。对Python和
BeautifulSoup
都是新手。根据我在Stackoverflow上找到
的
答案,我已经正确地删除了
标签
,如下所示:但是
如何
删除内联样式呢?Text</p>应该变成:
浏览 0
提问于2012-10-19
得票数 15
回答已采纳
6
回答
Python
Beautifulsoup
img
标签
解析
、
、
我正在使用漂亮
的
汤来
解析
'www.youtube.com‘中
的
所有img
标签
。代码是from
BeautifulSoup
import
BeautifulSoup
soup =
BeautifulSoup
(page) tags=soup.findAll('img'
浏览 2
提问于2012-05-15
得票数 5
1
回答
如何
使用
BeautifulSoup
解析
表?
、
、
这是一个特定于上下文
的
问题,涉及
如何
使用
BeautifulSoup
解析
python2.7中
的
html表。print 'r: ', rprint 'src: ', html_source soup =
BeautifulSou
浏览 2
提问于2013-07-23
得票数 0
回答已采纳
13
回答
美汤与按ID抽取div及其内容
、
</div>
标签
和中间
的
东西呢?它不返回任何内容。(编辑:我发现
BeautifulSoup
没有
正确
解析
我
的
页面,这可能意味着我试图
解析
的
页面格式不正确。)
浏览 65
提问于2010-01-26
得票数 188
回答已采纳
1
回答
机械化,python:从站点中读取特定
的
行,以减少读取长页面的时间
、
、
而不是像下面显示
的
那样阅读整个站点,我想从站点访问特定
的
行(例如,第439行)。site = br.open('www.example.com').read() 我在使用.read()时遇到
的
问题是,有些站点太长,阅读这个过程需要很长时间。如果有缩短阅读时间
的
方法,请告诉我。
浏览 2
提问于2014-12-22
得票数 0
1
回答
解析
源代码(Python)方法:漂亮
的
汤,lxml,html5lib
的
区别?
、
、
、
我有一个很大
的
HTML源代码,我想要
解析
(大约200,000)行,并且我相当确定在整个过程中都有一些糟糕
的
格式。我一直在研究一些
解析
器,似乎Beautiful Soup,lxml,html5lib是最受欢迎
的
。我对Beautiful Soup文档、和像
BeautifulSoup
(markup,"lxml")或
BeautifulSoup
(markup,html5lib)这样
的
命令感到有点困惑。在这里,速度并不是真正
的
浏览 0
提问于2012-06-08
得票数 1
3
回答
HTML标记之间
的
Selenium
、
、
、
将Javascript创建
的
页面中
的
所有超文本标记语言传递给
BeautifulSoup
的
最佳方法是什么?我目前使用
的
是:from selenium.common.exceptions import NoSuchElementExceptionfrom selenium.webdriver.common.keys import Keys from
BeautifulSoup
import
BeautifulSoup<
浏览 1
提问于2012-10-13
得票数 2
5
回答
我可以改变
BeautifulSoup
将XML
标签
转换为小写
的
行为吗?
、
、
我正在编写代码来
解析
用XML编写
的
配置文件,其中XML标记大小写混合,而且大小写很重要。Beautiful默认情况下会将XML标记转换为小写,我想要更改此行为。 我不是第一个问这个问题的人[参见]。然而,我不理解这个问题
的
答案,并且在
BeautifulSoup
-3.1.0.1中,
BeautifulSoup
.py似乎
没有
包含任何"encodedName“或"Tag.__str__”
的
实例。
浏览 2
提问于2009-05-21
得票数 8
回答已采纳
1
回答
继续得到'TypeError:'NoneType‘对象是不可调用
的
’与美丽
的
汤和python3
、
、
、
我是一个初学者,尽管我
的
课程很吃力,所以这个问题可能真的很简单,但是我正在运行这个代码(当然是混乱
的
)代码(保存在x.py文件下),以便从一个具有如下行格式
的
网站中提取链接和名称:</li> 因此,我设置如下:导入urllib.request、urllib.parse、从bs4导入
的
urllib.erro
浏览 0
提问于2018-08-27
得票数 0
回答已采纳
1
回答
如何
在使用
BeautifulSoup
解析
页面时只获得有效
的
url链接?
、
、
、
我试图获取一个页面链接到
的
页面列表(使用标记)。在
解析
页面时,我使用
BeautifulSoup
:soup =
BeautifulSoup
(page.read(), features='lxml')
如何
过滤包含散列符号
的
链接?另外,如果我想过滤广告链接或视频.我应该使用
标签
的
哪个
元素
?
浏览 1
提问于2019-04-24
得票数 0
回答已采纳
2
回答
如何
在漂亮
的
汤中获得嵌套
元素
、
我正在努力解决在td中获取一些href所需
的
语法问题。tr和td
元素
没有
任何class或id。< tr >< td ><a >... 谢谢
浏览 0
提问于2009-06-29
得票数 25
回答已采纳
1
回答
Python BS4与SDMX
、
、
、
、
我想检索SDMX文件(如)中给定
的
数据。我尝试使用
BeautifulSoup
,但它似乎看不到
标签
。在下面的代码中from bs4 import
BeautifulSoup
html_source = urllib2
浏览 13
提问于2016-09-16
得票数 1
回答已采纳
2
回答
如何
使用python从html中提取纯文本,而不需要任何额外
的
(SCRIPT,STYLE,CSS,XML,HTML等
标签
)
我
的
工作是从HTML文件中获取纯文本。HTML文件是直接从网站复制粘贴
的
纯HTML数据(
没有
编码问题)。HTML有点复杂,因为它混合了很多注释script.extract() # rip it outreturn text 这将获取所有无用
的
标签</e
浏览 0
提问于2019-11-11
得票数 0
1
回答
将一个
BeautifulSoup
分成两个Soup-Tree
、
、
有多种方法可以拆分
beautifulSoup
解析
树,获取
元素
列表或获取标记字符串。但似乎
没有
办法在分裂
的
同时保持树
的
完整。很明显,我可以做一个[
BeautifulSoup
(i) for i in str(soup).split('<br />')],但是我觉得这太难看了,而且我有太多
的
链接。可以在soup.findAll(
浏览 2
提问于2013-03-04
得票数 1
回答已采纳
1
回答
用`<br>`
解析
未关闭
的
BeautifulSoup
标记
、
、
BeautifulSoup
有关闭连续<br>标记
的
逻辑,但这并不完全符合我
的
要求。例如,>>> bs =
BeautifulSoup
('one<br>two<br>three<br>four')twofour 我想把它
解析
成一个字符串列表,['one',
浏览 1
提问于2012-11-20
得票数 5
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
python爬虫-解析网页的几种方法之BeautifulSoup
Python爬虫学习(六)BeautifulSoup来袭
享学课堂浅谈Python3中BeautifulSoup的使用方法
Python爬虫从入门到精通(3):BeautifulSoup用法总结及多线程爬虫爬取糗事百科
【一起学爬虫】BeautifulSoup库详解
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券