腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
0
回答
从
RAM
读取
CSV
文件
、
、
、
、
情况:我有一个CVD (ClamAV病毒数据库)
文件
加载到内存使用mmap。CVD
文件
中每一行的格式与
CSV
文件
的格式相同(以‘:’分隔)。('delimit', delimiter=':', quoting=
csv
.QUOTE_NONE) for row in
csv
.reader(mapper问题:运行时,它返回错误_
csv
.Error: iterator should re
浏览 13
提问于2017-06-08
得票数 0
回答已采纳
3
回答
用Java
读取
CSV
文件
、
如何在Java中
读取
CSV
文件
?InputStream file = item.getInputStream();
浏览 2
提问于2015-10-07
得票数 1
回答已采纳
1
回答
read_
csv
在python中到底是如何工作的?
、
、
、
我想用python
从
csv
文件
中
读取
。我正在做内存管理工作,所以我想问一下:当我在python中调用pandas模块的read_
csv
时,
文件
中的数据会加载到内存中,然后
读取
,还是直接
从
磁盘
读取
?如果我想以块的形式
读取
csv
文件
,数据会在
RAM
中逐块加载吗?
浏览 1
提问于2019-02-19
得票数 0
1
回答
如何使用pandas数据帧
从
磁盘
读取
和写入
文件
?
、
我将处理非常大的数据
文件
(许多of )。我将不得不
读取
这些
文件
并写入这些
文件
。因此,我将不能依赖
RAM
来存储数据,而需要从磁盘
读取
和写入
文件
。我熟悉pandas库提供的read_
csv
和to_
csv
选项。但是,我不确定read
csv
函数是
读取
文件
,然后将其存储在内存中,还是直接
从
磁盘
读取
文件
。使用pandas
从</em
浏览 0
提问于2017-09-16
得票数 0
1
回答
将
CSV
文件
上载到Pandas Dataframe时错误标记数据
、
、
、
、
我有一个8GB的
CSV
文件
,其中包含有关在法国创建的公司的信息。\data.
csv
')然后,为了消除大小问题,我复制
文件
(data.
csv
)并粘贴它,只保留前25行(data2.
csv
)。为了消除大小问题,这是一个更轻的
文件
:我得到相同的O
浏览 0
提问于2019-01-04
得票数 0
1
回答
从
Excel导出汉字到R
、
、
我在Excel中有一个
文件
,其中有一个包含中文简体字的列。当我
从
相应的
CSV
文件
在R中打开它时,我只得到?'s。恐怕问题是在从Excel导出到
CSV
时,因为当我在文本编辑器上打开
CSV
文件
时,我也会得到?'s。 我怎么才能避开这一切?
浏览 0
提问于2018-06-24
得票数 2
回答已采纳
2
回答
在pandas中使用read_
csv
读取
最后几行
、
、
我有一个持续增长的
文件
,如下所示: https|webmail.mahindracomviva.com|application/vnd.ms-sync.wbxml|158|POST|203.101.110.171
浏览 1
提问于2014-01-07
得票数 3
1
回答
从
大
文件
中
读取
多行数据的最快方法是什么
、
、
、
、
我的应用程序需要从一个300 of的大型
csv
文件
中
读取
几千行,每行包含几个数字。我试着在c中用fget逐行
读取
文件
,但它花了很长时间,即使是在linux的wc -l中,仅仅
读取
所有行也需要相当长的时间。 我还尝试根据应用程序的逻辑将所有数据写入sqlite3数据库。但是,数据结构与上面的
csv
文件
不同,
csv
文件
现在有1000亿行,每行只有两个数字。然后我在上面创建了两个索引,结果是一个2.5TB的数据库,而之前没
浏览 3
提问于2020-06-16
得票数 0
1
回答
Pandas read_
csv
函数:有没有一种方法可以根据索引将特定的列作为字符串
读取
?
、
、
我有一个包含如下数据的
csv
: identifier,vcenter,cores,
ram
df = pd.read_
csv
('vm.
csv
') identifier vcenter cores
ram
8 example123 48 我的要求是: iden
浏览 39
提问于2020-08-18
得票数 0
回答已采纳
1
回答
程序设计问题:在c++中使用HDFS
读取
大数据的好主意?
、
、
、
我主要有三组
CSV
文件
(每个
文件
分为几个小
文件
):第一组
CSV
文件
总共有600+ GB (如果在int中,可能200+ GB,使
CSV
按字符计算,对吧?),每个
文件
都有相同的行大小,整个数据应该一行一行地收集起来。应用程序应该从这些
文件
中
读取
一些特定的行,获取data_1,并通过data_1
从
第二组和第三组
文件
中获取data_2和data_3。第二组和第三组的
CSV</em
浏览 0
提问于2020-03-10
得票数 0
1
回答
64位系统,8gb的
ram
,800 of以上的
CSV
,使用python
读取
会导致内存错误。
、
、
、
f = open("data.
csv
")f_reader =
csv
.reader(f)上面是我用来
读取
csv
文件
的代码。
csv
文件
只有大约800 MB,我使用的是64位系统和8GB of
Ram
。该
文件
包含1亿行。但是,更不用说
读取
整个<
浏览 2
提问于2015-05-22
得票数 1
回答已采纳
1
回答
Azure机器学习-创建数据帧时出现内存错误
、
、
我在Azure Machine Learning上使用notebook VM作为计算实例创建
从
CSV
文件
读取
的简单数据帧时遇到内存错误。虚拟机在Ubuntu (Linux (ubuntu 16.04) )上配置DS 13 56gb
RAM
,8vcpu,112 of存储。
CSV
文件
是5 5gb
文件
。account_key) blobstring = blob_service.get_blob_to_text(container,filepath).con
浏览 14
提问于2020-01-21
得票数 1
回答已采纳
1
回答
如何
从
1000 s的
CSV
文件
中创建一个比我的
RAM
大得多的Numpy Array?
、
、
我有1000 s的
CSV
文件
,我想要追加并创建一个大的numpy数组。问题是,numpy数组将比我的
RAM
大得多。有没有办法一次写一点到磁盘,而不让整个数组在
RAM
中?另外,是否有一种方法一次只
从
磁盘
读取
数组的一个特定部分?
浏览 2
提问于2020-08-12
得票数 2
回答已采纳
1
回答
使用Lambda和boto3在S3上流巨大的压缩
文件
、
、
我有一堆
CSV
文件
压缩成一个压缩在S3上。我只需要使用AWS lambda函数处理zip中的一个
CSV
文件
。key=zip_f
csv
_dat= zip_obj.read('one.
csv
') 上面的代码片段可以很好地处理测试zip
文件
,但是,如果压缩
文
浏览 5
提问于2021-07-14
得票数 0
回答已采纳
1
回答
在python中使用熊猫加载.
csv
文件
时出错
、
、
我有一个大小很大的
csv
文件
,大约6gb,加载到python需要很长时间。我得到以下错误:df = pd.read_
csv
('nyc311.
csv
', low_memory=False) 我不认为我正在理解错误代码,最后一行似乎表明
文件
太大,无法加载?我也尝试了low_memory=FALSE选项,但这也不起作用。
浏览 0
提问于2017-02-08
得票数 0
回答已采纳
2
回答
按列
读取
csv
数据并存储在数组列表中
、
、
、
、
我在.
csv
文件
中有如下所示的数据。| Name | Age | Place||Srinu | 25 | TS |如何从上述
csv
文件
中
读取
只读位置
浏览 2
提问于2021-05-18
得票数 0
回答已采纳
1
回答
用Python
读取
和处理具有有限
RAM
的多个
csv
文件
、
、
、
我需要
读取
数千个
csv
文件
,并将它们输出为Python中的一个
csv
文件
。我能够在每个
csv
中阅读并从内存中删除它来解决
RAM
问题。但是,我目前正在迭代地
读取
和处理每个
csv
(在Pandas中),并将输出行附加到最后的
csv<
浏览 5
提问于2022-10-18
得票数 0
回答已采纳
1
回答
在包含pandas的
文件
中合并Dataframe
、
、
数据
文件
对于内存来说太大了,所以我不能使用.read_
csv
() -> concat -> .to_
csv
()。有没有简单的选项来连接两个DataFrames?
浏览 4
提问于2021-05-30
得票数 0
3
回答
随机选择在Python中占用太多内存
、
我正在尝试
从
CSV
文件
中选择要
读取
的行,选择基于:s = n//10由于
RAM
使用率过高,此行导致脚本崩溃。
文件
大小接近5 GB,这就是为什么需要随机
读取
10%的
文件
浏览 0
提问于2017-11-24
得票数 0
0
回答
读取
大型
csv
文件
、python、pandas的随机行
、
、
、
我遇到了一个问题,在Windows (8 Gb
RAM
)上使用0.18.1 pandas和2.7.10 Python
从
大型
csv
文件
中
读取
随机行。也就是说,部分代码:s = 10因此,如果我想从
浏览 27
提问于2016-07-07
得票数 3
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券