腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
BeautifulSoup
到
CSV
、
、
我已经设置了
BeautifulSoup
来为两个网页找到一个特定的类。 我想知道如何将每个URL的结果写入一个
CSV
中的唯一单元格?也有一个数量的网址,我可以读取的限制,因为我想扩大
到
约200个网址,一旦我得到了这项工作。 类总是相同的,我不需要任何格式化,只需要在每个URL的一个单元格中的原始HTML。 谢谢你的点子。from bs4 import
BeautifulSoup
urls = ['https://www.ozbargain.com.au/
浏览 18
提问于2020-08-23
得票数 1
回答已采纳
1
回答
从
BeautifulSoup
XML
到
CSV
、
、
、
下面的代码获取一个xml文件并将其解析为
csv
文件。import openpyxl soup =
BeautifulSoup
setdata.get('value', ''), setdata.get('xin', ''), setdata.get('xax', '&
浏览 0
提问于2019-12-28
得票数 0
回答已采纳
1
回答
YouTube订阅列表抓取
、
、
、
、
我想将我的YouTube订阅列表分解
到
一个
csv
文件中。我输入了这段代码(但我还没有完成编码):from bs4 import
BeautifulSoup
source = requests.get(url) soup =
BeautifulSoup
(source, 'lxml'
浏览 14
提问于2021-12-21
得票数 0
回答已采纳
2
回答
从html网页中自动提取表值
、
我使用MRTG来监控设备的CPU/MEM/流量使用情况,每个设备都有不同的端口/vlans/接口。当我想要创建一个表/excel来显示所有接口的统计信息时,我发现它效率很低,因为我需要点击大约400个网页并复制表(输入/输出流量、Max/Avg /当前CPU使用情况、Max/Avg连接等等)。从html。 我的问题是:是否有任何脚本/工具来自动完成这项工作?从每个网页中提取特定的表值,并填写一个表/excel。
浏览 0
提问于2012-02-20
得票数 0
回答已采纳
3
回答
用Python格式化HTML代码
、
、
、
我在
CSV
-文件的列中有一个URL列表。我想使用Python浏览所有URL,从URL下载HTML代码的一个特定部分,并将其保存到下一列。</li></div>import
csv
with open("urls.
csv
", "r", n
浏览 6
提问于2017-12-12
得票数 2
回答已采纳
2
回答
尝试从表中提取数据时,有一些外来字符使我无法写入
csv
文件
、
、
、
、
我正在提取数据,但一些特殊字符将导致错误 import
csv
importrequestsresponse = requests.get(url) soup
浏览 2
提问于2019-05-01
得票数 0
2
回答
python使用字节从url解析html:‘AttributeError’对象没有属性'find_all‘
、
、
、
我想将html表从ur解析为
csv
,但在代码中遇到错误: page.find_all('tr'):import urllibimport osmyFolder=cwd+"\In"page =
浏览 18
提问于2017-03-02
得票数 0
回答已采纳
1
回答
如何使用python抓取从html代码中读取这些单元格?
、
、
、
、
错误消息是下一个::“您的程序中有一个错误:un缩进不匹配任何外部缩进级别”import
csv
from
BeautifulSoup
import
BeautifulSoup
url = 'https://www.mnb.hu/arfolyamok'html = response.content soup =
BeautifulSoup
/inmates.<e
浏览 2
提问于2017-06-08
得票数 3
1
回答
有选择.writerow列的方法吗?
、
、
我想刮一个网站,并将数据保存在一个
csv
文件中,该文件可以在Excel中打开。我已经成功地检索了这些信息,但是我很难将它传输到
csv
文档中。下面是代码:from bs4 import
BeautifulSoup
file.writerow(['Name','Price'])
浏览 1
提问于2019-03-23
得票数 0
回答已采纳
1
回答
用Python将XML转换为
csv
文件
、
、
我正在尝试将xml文件转换为
csv
。该文件如下所示:with open(libname+'b.
csv
','w',newline='',encoding='utf8') assitescop
浏览 2
提问于2021-02-04
得票数 1
回答已采纳
2
回答
用漂亮汤从HTML广度中提取数据
、
、
、
我想从html代码中提取“1.02 Crores”和"7864“,并将它们保存在
csv
文件中的不同列中。
浏览 0
提问于2018-11-08
得票数 0
回答已采纳
2
回答
如何将刮过的内容写入
CSV
文件?
、
、
、
、
我需要一些帮助,以保存输出从一个基本的网络刮刀
到
一个
CSV
文件。以下是代码:from bs4 import
BeautifulSoup
bsObj_ =
BeautifulSoup
(html_, "html.parser") nameList_ = bsObj_2.findAll("div", {
浏览 1
提问于2016-01-03
得票数 1
回答已采纳
1
回答
如何使用
BeautifulSoup
仅打印某些文本
、
我正在尝试使用
BeautifulSoup
为市政府提取一些财务数据(had将文件从pdf转换)。我只想以
csv
文件的形式获取数据,然后在Excel或SAS中对其进行分析。<TD class="td1637">2,882,018</TD>代码import urllibimport re CAFR = open("C:
浏览 0
提问于2011-11-02
得票数 0
回答已采纳
1
回答
如何用Python解析XSD文件
、
、
、
、
如何解析下面的XSD以获取<xsd:complexType name="Register-Type" abstract="true">中的3个名称 </xsd:element>我试过的import
csv
tree = ElementTr
浏览 4
提问于2020-10-07
得票数 2
回答已采纳
2
回答
无法在跨列的行中获得结果
、
、
、
结果也正在成功地写入
csv
文件中。该页有19个评论。我连续19行得到的结果。然而,我希望得到的结果在19个不同的列,而不是。我希望有以下结果:review review1 review2 review3import requests outfile = open("new_file.
csv
","w",newline="
浏览 7
提问于2017-11-24
得票数 0
回答已采纳
1
回答
如何将检索数据存储为
CSV
格式
、
、
我在将数据存储
到
CSV
文件时遇到了问题,它没有正确地存储。import urllib2from bs4 import
BeautifulSoup
page = urllib2.urlopen(url) soup =
BeautifulSoup
(pag
浏览 2
提问于2017-06-23
得票数 2
回答已采纳
1
回答
尝试打印网页中的所有TR元素和TD元素
、
我正在使用下面的脚本,试图让它将网页中的所有TR元素和TD元素写入
到
CSV
文件中。由于一些未知的原因,我在
CSV
文件中根本得不到任何数据。from bs4 import
BeautifulSoup
import pandas as pdpagetext = page.text soup =
Beautifu
浏览 9
提问于2018-08-31
得票数 2
回答已采纳
2
回答
Python
BeautifulSoup
到
csv
的抓取
、
、
、
我的最后一步是将数组另存为
csv
文件...当我运行我的代码时,它似乎在1309或1311字之后停止获取信息,尽管我相信网页上有100多万个。我被困住了,如果有任何帮助,我将非常感激。谢谢from urllib import urlopen html = urlopen('http://www.mso.anu.edu.au/~ralph/OPTED/v003/wb1913_a.html
浏览 0
提问于2016-04-17
得票数 4
1
回答
使用Python从
CSV
中的一列中提取标记
、
、
我正在尝试使用python从
csv
文件中提取标记实体。此文件包含
csv
文件的多列中的标记实体。我只想让python处理一个特定的列。有人能教我怎么做吗?这是我的密码:import
csv
output_name = "entities.
csv
" def inc
浏览 3
提问于2014-07-28
得票数 0
回答已采纳
1
回答
美丽的汤:将unicode列表中的逗号解析为Pandas Dataframe
、
、
、
、
下面是我需要做大量工作的最新代码:import
csv
from bs4 import
BeautifulSoup
sock= urllib2.urlopen('http://www.retrosheet.org/retroID.htm')soup =
BeautifulSoup
浏览 4
提问于2017-06-06
得票数 0
回答已采纳
点击加载更多
相关
资讯
总结 BeautifulSoup
Python把csv数据导入到Neo4j。
初识BeautifulSoup
用python玩转csv文件:csv模块
Python学习-BeautifulSoup简单爬虫
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
云直播
活动推荐
运营活动
广告
关闭
领券