腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
忽略
Beautifulsoup
Find_All
中
的
重复
项
、
、
下面是我到目前为止所做
的
一个例子: soup =
BeautifulSoup
(html, 'html.parser').
find_all
()输出:INSIDE TAGLIST2 OUTSIDE T
浏览 8
提问于2017-02-04
得票数 2
回答已采纳
1
回答
BeautifulSoup
和if/else语句
、
A我正在学习如何使用
BeautifulSoup
,我在我写
的
循环中遇到了一个双重打印
的
问题。import requests data = r.text
浏览 13
提问于2017-12-16
得票数 0
1
回答
BeautifulSoup
find_all
返回
重复
项
、
、
我正在尝试获取有关期刊文章
的
元数据;具体地说,就是每篇文章属于期刊
的
哪个部分。我使用
find_all
首先获取带有文章标题
的
所有标签,然后使用它解析带有文章部分和url信息
的
标签。例如,如果某一期有42篇文章,而不是输出
中
的
42行,每行代表该期中
的
不同文章,我只获得该期中最后一篇文章
的
数据,在输出
中
重复
了42次。我在代码
中
忽略
了什么,以确保输出实际上包含这些问题中每
浏览 38
提问于2019-08-01
得票数 0
回答已采纳
1
回答
使用Python
BeautifulSoup
函数返回
重复
项
、
、
、
我试图使用以下代码从以下网站
中
刮取数据:data =urllib2.urlopen(url)exercises = soup.find("div", {"id":"listResults"}).
fin
浏览 2
提问于2014-01-02
得票数 0
回答已采纳
1
回答
如何在
BeautifulSoup
中
捕获此异常
、
可能
重复
: for item in soup.find(id="start_dateid").
find_all
('option'):问题是当页面没有id="start_datei
浏览 4
提问于2012-12-09
得票数 0
回答已采纳
1
回答
Python抓取fetech href链接
、
gr-hyperlink" href="/genres/art">Art</a>,这是我
的
密码import numpy as npfrom urllib import urlopen from bs4 import
Beauti
浏览 2
提问于2020-07-12
得票数 0
回答已采纳
2
回答
用Python 3进行抓取
、
Python3:我是刚开始刮擦和训练
的
,我正在尝试从这个页面
中
获得所有的功能: import requests response = requests.get(url)soup =
BeautifulSoup
浏览 0
提问于2019-01-06
得票数 1
回答已采纳
2
回答
BeautifulSoup
中
"findAll“和"
find_all
”
的
区别
、
、
、
我想用Python解析一个HTML文件,我使用
的
模块是
BeautifulSoup
。import urllib, urllib2, cookielibsite = "http://share.dmhy.orgteam_id%3A407" r
浏览 5
提问于2012-09-09
得票数 39
回答已采纳
1
回答
Python刮板打印问题
、
、
我已经在python
中
创建了一个web刮刀,但是在最后打印时,我想打印("Bakerloo:“+ info_from_website),正如您在代码中看到
的
那样,但是它总是以info_from_website
的
形式出现,
忽略
了"Bakerloo:”字符串。反正也找不到解决问题
的
办法。import urllibfrom bs4 import
BeautifulSoup
url = 'http
浏览 4
提问于2016-09-02
得票数 1
回答已采纳
3
回答
使用BeuatifulSoup提取除其他标签外
的
div标签
的
内容
、
HTML内容,其中div标签看起来像下面 <div class="block">aaa <p> ccc</p> </div> 从上面我想提取文本只作为"aaa“,而不是其他标签
的
内容当我这么做
的
时候 soup.find('div', {"class": "block"}) 它为我提供了文本形式
的
所有内容,我希望避免使用p标
浏览 35
提问于2020-11-17
得票数 0
回答已采纳
2
回答
Python美汤如何在ul中找到李?
、
soup.find("ul",attrs={"class":"clearfix"}): print(durum) 我想用
BeautifulSoup
在ul中使用li,所以我写了这个命令,但是我得到了一个错误
的
'NavigableString' object has no attribute '
find_all
'。
浏览 25
提问于2021-01-16
得票数 0
回答已采纳
2
回答
检索Python网页
中
的
所有字符串
、
我试图使用
BeautifulSoup
从网页
中
检索所有字符串,并返回所有检索到
的
字符串
的
列表。 查找所有具有非空文本
的
元素,将文本追加到结果列表并返回它。我很难实现这一点,因为我无法在
BeautifulSoup
中找到任何方法来实现它。使用
BeautifulSoup
的
"
find_all
“方法查找我正在寻找
的
所有属性,如"p”表示段落,"a“表示链接等。这种方法面临<
浏览 2
提问于2021-11-24
得票数 0
回答已采纳
1
回答
BeautifulSoup
4 - AttributeError:“ResultSet”对象没有属性“”text“”
、
、
import requestsfrom bs4 import
BeautifulSoup
r =requests.get(url) g_data = soup.find_all=re.compile("/fighter"))
浏览 0
提问于2017-01-16
得票数 0
3
回答
使用从URL
中
刮取列表
、
我是
BeautifulSoup
的
新手,所以请原谅这里任何初学者
的
错误。我试图刮一个网址,并希望存储
的
电影列表下
的
一个日期。下面是我到目前为止拥有的代码:from bs4 import
BeautifulSoup
page = requests.get("https://www.imdb.com您可能是将一个项目列表当作单个
项
来处理。当您打算调用
find_all
()时,是否调用了
fi
浏览 1
提问于2020-05-29
得票数 0
回答已采纳
2
回答
如何在python脚本中导入.py
、
我试图在python脚本中直接导入
BeautifulSoup
库,但我无法安装它,因为我在语法DS213+中使用它,所以我尝试这样做: soup =
BeautifulSoup
(html) for link in soup.find_all('a'):line 17, in <module> sou
浏览 3
提问于2014-02-24
得票数 0
回答已采纳
1
回答
BeautifulSoup
文档
中
给出
的
不工作
的
示例
、
我正在尝试
BeautifulSoup
文档
中
给出
的
示例,其中一个例子是没有给出预期
的
结果。</p>soup =
BeautifulSoup
(html_doc)soup.find_all('b')但是,当
浏览 3
提问于2015-01-19
得票数 1
回答已采纳
1
回答
BeautifulSoup
中文本和字符串
的
区别
、
当我搜索
BeautifulSoup
中
包含特定文本
的
标记时,我使用
find_all
(string='text I want')soup.find_all(string='stackoverflow')soup.find_all(text='stackoverflow
浏览 4
提问于2016-03-26
得票数 1
回答已采纳
1
回答
如何从我
的
函数调用导入库
的
函数?
在尝试使用
BeautifulSoup
从某些网页获取信息时,有许多重叠
的
代码,因此我想将其作为一个函数,但我想在bs
中
调用一个函数,比如
find_all
和select。我该怎么做呢?import requests soup =
BeautifulSoup
(result.text, &quo
浏览 4
提问于2022-07-01
得票数 0
回答已采纳
1
回答
BeautifulSoup
不会刮掉所有数据。
、
、
我试图刮一个网站,但当我运行这段代码时,它只打印一半
的
数据(包括批评者
的
数据)。这是我
的
剧本:from urllib.request import urlopen foid=4106228"soup =
BeautifulSoup
(html, "html.parser") page_details
浏览 4
提问于2017-09-14
得票数 0
回答已采纳
3
回答
BeautifulSoup
`
find_all
`发生器
、
、
有没有办法把
find_all
变成一个内存效率更高
的
生成器?例如:soup =
BeautifulSoup
(content, "html.parser")我想代之以: soup =
BeautifulSoup
这里有一些内置
的
生成器,但不会在查找中产生下一个结果。find只返回第一
项
。有了成千上万
的
条目,
find_all
吸收了大量
的</em
浏览 6
提问于2016-12-29
得票数 6
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Excel显示重复项及禁止输入重复项的处理方法
删除数据重复项,Excel中的这3种方法简单高效
数组中重复的数字
WPS表格拒绝录入重复项的使用方法
干了这碗汤,你也可以愉快地爬虫了
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券