腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
4
回答
我
可以
把
两个
'
findAll
‘
搜索
块
组合在
一个
漂亮
的
汤里
吗
?
、
我
是否
可以
将
这
两个
块
合
并为
一个
: tag.extract() 还
可以
<e
浏览 1
提问于2009-12-01
得票数 2
回答已采纳
1
回答
使用Python和Mechanize
的
随机形式
的
FIlling
、
、
、
、
我
正在尝试使用机械化自动登录
一个
网站,并检查一些数字。
我
很确定
我
已经通过了通常
的
用户名密码表单
的
第
一个
页面,但第二个登录页面要求您在帐户创建过程中选择
的
安全问题
的
答案
中
的
特定字符。例如,如果你最喜欢
的
宠物叫加菲猫,它要求输入第二个、第四个和第五个字符,你必须填写3个输入a,f,i,并张贴表格。
我
不确定让机械化
搜索
它每次登录时想要
的</e
浏览 0
提问于2013-06-30
得票数 1
回答已采纳
1
回答
漂亮
的
Soup 4 HTML文档目录
、
BS4解析计算机上某个目录
中
的
多个HTML文档。
我
的
目标是找到以“ix:NonFraction.”开头
的
标签。包含
一个
名称属性,
可以
在'AuditFeesExpenses‘之前有几个表达式,比如name=“name=:AuditFeesExpenses、name=bus:AuditFeesExpenses”等等因此,如果BS4找到了特定
的
标记,
我
想用soup.get_text(Value)从其中提取文本。 有人知道
我
浏览 3
提问于2016-05-10
得票数 1
回答已采纳
2
回答
findall
只返回最后
一个
属性
、
、
我
曾寻找过类似的问题,但没有找到我需要
的
。
我
在web
中
搜索
两个
属性--本例
中
为red和span
中
的
greenfrom bs4 import
BeautifulSoup
nameList=soup.
findAll
("span",{"class":"red&q
浏览 0
提问于2018-11-23
得票数 0
回答已采纳
2
回答
使用Python-
BeautifulSoup
抓取表格数据
、
、
我
不知道如何抓取第
一个
表数据,而不是
两个
。<tr></td></td></tr>import requests from bs4 import
BeautifulSou
浏览 11
提问于2017-08-17
得票数 0
回答已采纳
4
回答
解析html标签,基于类和href标签,使用漂亮
的
soup
、
我
正在尝试用
BeautifulSoup
解析超文本标记语言。
我
想要
的
内容如下:
我
尝试了一下,得到了以下错误: maxx = soup.
findAll
浏览 0
提问于2011-09-23
得票数 3
回答已采纳
13
回答
美汤与按ID抽取div及其内容
、
</div>标签和中间
的
东西呢?它不返回任何内容。
我
知道它确实存在,因为
我
从soup.find("div", { "id" : "articlebody" })也不起作用。(编辑:
我
发现
BeautifulSoup
没有正确解析
我
的
页面,这可能意味着
我
试图解析
的
页面格式不正确。)
浏览 65
提问于2010-01-26
得票数 188
回答已采纳
2
回答
在<b>和<strong>标记之间提取文本
的
正则表达式
、
我
需要在python中使用regex来提取和标记之间
的
文本。为此,
我
正在做以下工作: text=re.
f
浏览 2
提问于2018-10-11
得票数 0
2
回答
Python:打印特定href
中
的
数据(带有ID标签)
、
、
我
是Python
的
新手,正在尝试构建
我
的
第
一个
网络摩天大楼。
我
想转到
一个
页面,打开一系列子页面,在页面上找到
一个
特定
的
链接(带有ID),然后打印链接数据。现在
我
得到了错误:‘列表索引必须是整数,而不是str',这意味着
我
在(至少)最后一行代码
中
做了一些错误
的
事情。
我
真正不确定
的
是,
我
需要做什么来抓取和
浏览 2
提问于2012-07-30
得票数 0
2
回答
通过python从响应数据
中
检索特定数据
、
、
我
正在接收来自web服务
的
数据,它以html form.The响应数据格式回复
我
的
数据是这个下拉列表: </span>
我
需要进一步处理这些数据
浏览 0
提问于2012-01-26
得票数 2
回答已采纳
2
回答
toiIgnore utf-8在网页抓取数据
中
的
应用
、
、
、
我
正在使用漂亮汤网刮prayerprofiler.com。但是,数据是utf-8编码,
我
无法处理。每当我打印数据时,
我
都会得到错误信息。: 'charmap' codec can't encode character '\u2605' in position 184621: character maps to <undefined>
我
可以
用column_headers_row = stats_page.
findAll
(
浏览 1
提问于2021-08-19
得票数 0
回答已采纳
4
回答
如果对象也有其他类,Beautiful找不到CSS类
、
、
如果
一个
页面有<div class="class1">和<p class="class1">,那么soup.
findAll
(True, 'class1')会同时找到它们。如何找到具有某个类
的
所有对象,而不管它们是否也有其他类?
浏览 2
提问于2009-08-07
得票数 40
回答已采纳
2
回答
如何使用查找'<v:imagedata r:id="rId7“o:title="1-REN"/>‘
、
、
、
我
试图用名称空间<v:imagedata r:id="rId7" o:title="1-REN"/>从Word文档
中
查找所有内容,但我不知道语法到底是什么。只覆盖非常直接
的
情况,加上URN和VML组合,
我
似乎无法获得
我
在网上看到
的
任何示例。有没有人碰巧知道这是什么?
我
想做这样
的
事: namespace = {'v': "urn:schemas-microsoft
浏览 11
提问于2020-05-31
得票数 5
回答已采纳
1
回答
从不同
的
HTML表中提取数据
、
、
我
正在尝试从Edgar数据库()
的
8-K表单
的
损益表中提取数据。下面是一些示例:
我
想要清理
的
表格被称为“经营报表”或“收入报表”或类似的表格。
我
尝试提取所有数据(如净销售额、营业收入等)。并根据日期和时间间隔(三个月、六个月等)将其放入字典
中
。问题是表格结构
的
高度多样性--有很多方法
可以
构建这样
的
数据。
我
创建了
一个
使用Beautiful Soup解析表
的
脚本
浏览 0
提问于2012-10-30
得票数 1
1
回答
Python
BeautifulSoup
4 WebCrawler .
findAll
()不解析
、
、
、
我
正在尝试制作
一个
python刮刀来从零售网站中提取所有的产品名称。以下是网站
中
“检查元素”代码
的
一部分,供您参考: 不幸
的
是,上面的代码
块
并没有产生任何结果!当我尝试引用<main>部分
中
的
条目时,问题似乎就出现了--在引用行之前,我会得到结果。理想情况下,
我
可以
在网页上提取每个项目的名称(请参阅网站代码
的
另一张快照,以了解网站
中
的
相关行)。这些行
浏览 0
提问于2018-03-24
得票数 0
回答已采纳
4
回答
使用
BeautifulSoup
搜索
HTML
中
的
字符串
、
我
使用
BeautifulSoup
在特定页面上查找用户输入
的
字符串。例如,
我
想看看字符串'Python‘是否位于页面上:但是当我使用:find_string = soup.body.
findAll
(text=re.compile('Python'), limit=1)时,find_string像预期<e
浏览 1
提问于2012-01-20
得票数 67
回答已采纳
2
回答
如果
findAll
没有争论,它会做什么?
、
我
正在尝试理解python代码。它有一份声明其中soup是
Beautifulsoup
object类型:<class 'bs4.element.ResultSet'>
findAll
与这里
的
匹配是什么?
浏览 2
提问于2015-04-05
得票数 0
回答已采纳
1
回答
用Python解析HTML页面时出错
、
我
试图在代码为"SEVNYXX“
的
列下获取数据,其中"XX”是后面的数字(例如。01,02等)在网站上使用Python。
我
目前正在按照网站
的
规定使用以下方法。但是,
我
不知道如何确定这个页面的div,因此无法继续下去,
我
希望在这方面得到一些帮助。到目前为止,这就是
我
所拥有的:import requests page = requests.get('http://www.fede
浏览 4
提问于2015-06-09
得票数 0
回答已采纳
2
回答
用漂亮
的
汤刮页
、
、
我
有
两个
稍微不同
的
urls:,in[1]= soup.
findAll
('span', class_='property__base-info__value')[1].text.strip() out[1]= u'3 800 000 kr
浏览 3
提问于2017-03-22
得票数 1
回答已采纳
1
回答
将
urllib2 2/漂亮汤请求划分为更小
的
请求包
、
、
我
想收集一组关于
搜索
术语“汽车”
的
专利I。
我
写了这段代码:from bs4 import
BeautifulSoup
import StringIO patent_list.append(split_link[-1]) 然而,
我
得到了
浏览 0
提问于2018-04-20
得票数 1
回答已采纳
点击加载更多
相关
资讯
使用多个Python库开发网页爬虫(一)
马蜂窝数据被扒光,用Python 爬取网页信息 4 分钟就能搞定
Python爬虫学习:抓取电影网站内容的爬虫
数据分析师的编程之旅——Python爬虫篇(2)HTML解析器
用Python批量爬取中国银行动态新闻
热门
标签
更多标签
云服务器
ICP备案
实时音视频
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券