腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
BeautifulSoup
+
Python
从
列表
中
获取
所有
href
标记
和
链接
、
、
我能够获得一个带有
标记
div及其内容的网页元素
列表
。它包含特定div中
所有
可用
链接
的
列表
。该
列表
如下所示: # I formatted the list contents to look like an HTML code [<div class="main_class"> <a
href
=
浏览 67
提问于2021-05-09
得票数 0
回答已采纳
4
回答
Python
-
从
具有类的div
获取
所有
链接
我正在
使用
BeautifulSoup
从这个url
获取
手机的
所有
链接
。我的代码如下:from
BeautifulSoup
import
BeautifulSoup
text = urllib2.urlopen(url).read(); soup =
Beauti
浏览 3
提问于2011-12-23
得票数 13
回答已采纳
1
回答
将一个
BeautifulSoup
分成两个Soup-Tree
、
、
有多种方法可以拆分
beautifulSoup
解析树,
获取
元素
列表
或
获取
标记
字符串。但似乎没有办法在分裂的同时保持树的完整。</p>""" soup=
Beautifu
浏览 2
提问于2013-03-04
得票数 1
回答已采纳
1
回答
有没有办法
从
谷歌专利搜索
中
抓取
所有
专利的
链接
?
、
、
我想
使用
BeautifulSoup
从
谷歌专利搜索
中
抓取专利
链接
,但我不确定谷歌是否将其html转换为无法通过
BeautifulSoup
解析的javascript,也不确定问题出在哪里。assignee=Roche&after=priority:20110602&type=PATENT&num=100' soup =
BeautifulSoup
(requests.get(url).content, 'html.parser
浏览 5
提问于2021-06-03
得票数 1
1
回答
找出美汤的具体
链接
、
我
使用
解析一个网页,以便
从
某些文件下载数据并将它们聚合到一个文件
中
。我正在解析的网页包含大量不同的下载
链接
,而且我在
获取
我想要的特定
链接
时遇到了困难。HTML实际上是这样设置的:<a
href
="/id#____dontcare2010">2010</a> <a
href
浏览 4
提问于2016-06-07
得票数 1
回答已采纳
1
回答
如何利用BS4
和
urllib提取第一个图库的
链接
、
、
我试图提取的第一个结果的画廊
链接
在一个初步的搜索。thepage = urlopen(theurl)link = soup.findAll('a',{"class":"image-list-link"})[0].decode_contents() 下面
浏览 0
提问于2018-04-20
得票数 1
回答已采纳
3
回答
如何编写
python
脚本在网站html
中
搜索匹配的
链接
、
我对
python
不是很熟悉,必须编写一个脚本来执行许多函数。基本上,我仍然需要的模块是如何检查匹配
链接
预先提供的网站代码。
浏览 1
提问于2010-03-04
得票数 4
回答已采纳
1
回答
为什么
BeautifulSoup
不返回子元素?
、
我正在
使用
Python
3
和
BeautifulSoup
4:试图从这个页面下载xlsx文件的urlvar link = document.getElementsByClassName("toggle_container")[2].children[1]
浏览 1
提问于2019-12-20
得票数 0
回答已采纳
1
回答
使用
Python
3.0
中
的Beautiful
获取
特定
链接
的最有效方法是什么?
、
、
我目前正在学习古瑟尔的
Python
专业知识。我遇到了
使用
BeautifulSoup
从
网页中提取特定
链接
的问题。从这个网页()
中
,我应该
从
用户输入中提取一个URL,并打开随后的
链接
,这些
链接
都是通过锚选项卡识别的,并运行一些迭代。虽然我可以用
列表
来编程,但我想知道是否有更简单的方法可以不
使用
列表
或字典来实现呢?',None) nameList.append(
浏览 3
提问于2017-09-01
得票数 0
回答已采纳
1
回答
Python
web抓取<a>之间的访问值</a>
、
假设我有这样的html代码:<a aria-current="page" aria-label="Current page"
href
="https://name_webpage.com/">1</a>如何
使用
python
访问<a> </a>之间的值,即1?
浏览 2
提问于2021-02-18
得票数 0
2
回答
Python
3 web抓取选项
、
我是
Python
的新手,所以很抱歉这是一个新手问题。我想知道这个论坛上有没有人有
使用
python
3进行网络抓取的好选择。谢谢,威尔
浏览 1
提问于2011-08-11
得票数 5
1
回答
无法删除某些
列表
元素
、
我正在尝试
获取
一个特定网站的URL。我正忙着呢。有谁可以帮我?我能够删除
列表
中
的一些元素(
链接
地址)。首先,我
从
特定的网站(swiggy.com这里)
获取
所有
的urls。在尝试删除以'/‘开头的
列表
元素(
链接
地址)之后。我在执行以下计划时,只是删除其中一些。在程序本身
中
,我在修改前后打印了
所有
列表
(
链接
地址)元素。下面是
python</
浏览 1
提问于2020-03-10
得票数 0
回答已采纳
4
回答
从不同深度的
链接
中
解析产品名称的问题
、
、
、
我用
python
编写了一个脚本,以到达目标页面,其中每个类别在网站中都有其可
获取
的项目名称。下面的脚本可以
从
大多数
链接
中
获得产品名称(通过漫游类别
链接
生成,然后通过子类别
链接
生成)。脚本可以解析在单击位于每个类别右侧的子类别
链接
,这些
标记
在下面的图像
中
可见,然后解析目标页面
中
的
所有
产品名称。目标页面。 然而,很少有
链接
不具有与其他
链接
相同的深度
浏览 2
提问于2018-08-28
得票数 11
回答已采纳
2
回答
Python
:解析div下的
所有
元素
、
、
我试图
使用
漂亮汤解析div下的
所有
元素,问题是在解析之前,我并不知道div下的
所有
元素。例如,div可以具有段落模式
和
符号格式的文本数据以及一些
href
元素。示例:<div class='content'> <a
href
我希望
从
所有<
浏览 2
提问于2014-03-10
得票数 0
回答已采纳
1
回答
如何
使用
webscrabe图像
链接
选项卡
、
、
、
、
我正在尝试网络刮图像标签,以便我可以得到它的
链接
,我可以
使用
,这样我就可以直接去图像我正在制作的项目。问题是,每当我尝试编写"print(soup.find('a‘,class_ = 'q qs'))“时,如果没有输出,它就会给出输出<a class="q qs"
href
="/search?HTML &
浏览 0
提问于2019-08-31
得票数 0
2
回答
请求对象未正确过滤
、
、
我试图
使用
Python
的请求库
从
页面
中
检索
所有
URL。我不明白为什么我的过滤器比我预期的还要多退回数百件物品。list is now', len(listly), 'objects long')print('-'*5) 但是,最终
列表
包含487项(
从
>900项降下来),包括以下内容,这些项在我的if /
浏览 15
提问于2022-02-20
得票数 0
回答已采纳
2
回答
如何在
Python
中
获取
td
标记
内的
href
值
、
我正在尝试获得基于td字符串的td
标记
内的
所有
href
链接
。我已经成功地获得了
BeautifulSoup
模块的
所有
href
链接
,但我只对td
标记
下包含特定字符串的td类下的特定td
链接
感兴趣。是否可以
使用
BeautifulSoup
模块或
Python
中
的任何其他模块来提取这些内容?<td title="" class=&q
浏览 0
提问于2014-07-30
得票数 0
4
回答
BS4:在标签
中
获取
文本
、
、
、
、
有这样的标签:我只想在锚<a>
标记
中
获取
文本,而不是输出
中
的<small>
标记
在BS4
中
有一个命令可以做到这一点吗?
浏览 8
提问于2014-08-11
得票数 17
回答已采纳
1
回答
是否可以
使用
Python
3访问包含特定文本的网站
中
的
链接
?
、
、
我正在尝试
使用
这个网站上“认证
列表
”下的前两个
链接
。因此,我只想能够导航到两个
链接
的基础上,他们的文本“化粪池安装程序”
和
“化粪池水泵”。我只是在网上找不到任何能让我知道该
使用
哪个模块的东西。例如,我用它来导航到这个url。
浏览 0
提问于2019-04-12
得票数 0
1
回答
如何在
使用
BeautifulSoup
解析页面时只获得有效的url
链接
?
、
、
、
我试图
获取
一个页面
链接
到的页面
列表
(
使用
标记
)。在解析页面时,我
使用
BeautifulSoup
:soup =
BeautifulSoup
(page.read(), features='lxml') if validLink: myse
浏览 1
提问于2019-04-24
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python爬虫从入门到精通(3):BeautifulSoup用法总结及多线程爬虫爬取糗事百科
如何利用Python爬取网络小说
利用Python和Repl.it进行网页信息爬取
数据分析师的编程之旅——Python爬虫篇(2)HTML解析器
Python 爬虫(五)
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券