腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
尝
试以
数据
帧
的
形式
读取
存储
在
Julia
的
HDF5
存储
中
的
表
、
、
、
、
我试图读入
存储
在
HDF5
存储
中
的
表
,并将其作为
数据
帧
读入
Julia
。当涉及到
在
Julia
中使用
HDF5
包时,我发现一些文档令人困惑,我一直在想是否有类似于pandas等价物
的
东西:我
的
代码
浏览 0
提问于2017-03-08
得票数 4
2
回答
Python3:
读取
Julia
的
JLD格式
、
、
、
我已经从
Julia
的
dataframe模块创建了一些JLD文件,现在我想将它们导入到Pandas dataframe
中
。
在
Julia
中
读写这些文件是非常容易
的
,但是
在
Python3
中
我没有找到简单
的
方法。我已经检查了jld文件
的
内容,它非常复杂,所以必须有一个包来
读取
数据
帧
,保留列类型和名称等。有一个用于Python
的
JLD包,
浏览 23
提问于2017-07-18
得票数 4
回答已采纳
1
回答
在
Julia
中
写入和附加到
HDF5
文件
中
的
复合
表
、
如何在包含可变长度字符串列和其他各种标准类型(Int64、Float64、Bool)列
的
HDF5
中
写入和追加
数据
?我
的
目标是有
浏览 2
提问于2017-11-09
得票数 2
1
回答
获取pandas
数据
帧
的
字符串列
的
最大大小(
存储
为
hdf5
文件)
的
最有效方法是什么
、
、
我有一个非常大
的
熊猫
数据
帧
存储
为
hdf5
文件。为了获得该dataframe (df)
的
字符串列
的
最大大小,我以块
的
形式
读取
该dataframe,并使用以下代码来获得结果有没有更有效
的
方法可以让我
读取
hdf5
的
元
数据
来直接获取它
的
min_itemsize?
浏览 0
提问于2015-10-10
得票数 1
1
回答
熊猫将dict转换为dataframe时
的
内存错误
、
、
、
我有一个字典变量,它
的
维数几乎为70K×70K,我想将它转换为Dataframe,以便通过但在工作5分钟后,我会出现以下错误:Memory Error 我可以找到一些关于它
的
帖子,,但它似乎是熊猫和Numpy图书馆
的
一个常见问题,不幸
的
是,没有人能给出具体
的
答案,,大多数情况下,他们建议切片
数据
集我再次提出这个问题,希望库能得到一些更新
数据
来修复它
浏览 0
提问于2018-04-26
得票数 0
1
回答
使用
HDF5
保存
Julia
dataframe以
读取
R
、
、
、
虽然
在
Julia
中
读取
R
数据
集已经得到了足够
的
关注,但有时
在
Julia
中
完成
的
计算结果需要对R可读。为此,我试图
在
HDF5
文件中保存一个对象。以下是目前为止
的
代码,是在当前可用
的
方法
的
限制下编写
的
:df = DataFrame(coln1 = 1
浏览 1
提问于2015-01-22
得票数 4
1
回答
Python内存-设置和发布主
数据
帧
、
、
、
我把Pandas
数据
帧
大
数据
帧
加载到内存
中
。试图更有效地利用记忆。出于这个目的,我不会使用这个
数据
框架,因为我将从这个
数据
框架中子集--只有我感兴趣
的
行:DF = DF[DF['A'] == 'Y'] 已经尝试过这个解决方案上面的解决方案对内存
的
使用最有效吗?请指点。
浏览 5
提问于2016-06-01
得票数 0
回答已采纳
2
回答
如何在朱莉娅
中
写入和
读取
包含日期时间列
的
DataFrame
、
、
、
第二次更新:被用户@Matt确认为一个bug,详情见下面他
的
答案。 更新: @waTeim演示了可以写入和
读取
包含date类型列(
在
我
的
设置
中
确认)
的
DataFrame。这一点很重要,因为它意味着
Julia
可以写入和
读取
数据
帧
列
中
的
一些组合类型。但是,类型日期时间(与类型日期不同)
的
情况仍然会引发错误,因此此时问题仍未得到回答。
在
Juli
浏览 1
提问于2014-07-18
得票数 6
回答已采纳
1
回答
读取
存储
在
HDF5
中
的
数据
帧
、
我有一个大
的
数据
帧
(126041欧)。604个变量)。我对
HDF5
格式很陌生。我将
HDF5
文件保存如下: 如何将
数据
帧
读取
回来?而且,writeH5DataFrame花费了相当长
的
时间,可能是因为列数量众多(本例
中
为604列)。文档中提到“每个列
的</
浏览 3
提问于2014-01-04
得票数 3
回答已采纳
2
回答
相当于朱莉娅
的
泡菜
、
我正在寻找一种方便
的
方法来
在
Julia
中转储和加载变量,就像Python
中
的
泡菜一样。是否有类似于myVar = load(myPath)和dump(myVar, myPath) (或类似的f = open(myPath, "r"); myVar = load(f))
的
包?
浏览 1
提问于2015-03-31
得票数 10
回答已采纳
2
回答
评估
HDF5
:
HDF5
为建模
数据
提供了哪些限制/特性?
、
、
、
我们正在评估用于
存储
分析C/C++代码期间收集
的
数据
的
技术。
在
C++
的
情况下,
数据
量可能相对较大,每TU约20 TU。
在
阅读了下面的之后,我认为可能是一种适合我们使用
的
技术。
数据
的
一般用法是写一次并读“几次”,类似于编译器生成
的
'.o‘文件
的
生存期。
HDF5
与使用SQLite DB这样
的
东西相比有什么不同呢
浏览 1
提问于2009-02-13
得票数 40
回答已采纳
1
回答
如何使用h5py加速gzip压缩?
、
、
、
我正在尝试使用h5py将mp4视频
的
帧
存储
到
hdf5
中
。一开始,我试着简单地不压缩
数据
。这导致5000MB
的
视频
在
存储
在
hdf5
中
时约为500 MB。我正在尝试使用gzip压缩来使
数据
集更易于管理,但是使用压缩大约需要一分钟来
存储
视频
的
一
帧
。下面是一个最小
的
代码示例<
浏览 18
提问于2017-01-19
得票数 0
3
回答
HDF5
:
存储
NumPy
数据
、
、
、
、
当我使用NumPy时,我以本机格式*.npy
存储
它
的
数据
。它非常快,给了我一些好处,就像这个现在我正在与
HDF5
(目前
的
PyTables)打交道。当我
在
本教程
中
阅读时,他们使用NumPy序列化程序来
存储
NumPy
数据
,这样我就可以像从简单
的</em
浏览 9
提问于2010-11-09
得票数 2
回答已采纳
1
回答
Python:返回语句后自动删除类对象
、
、
、
、
我有一个类,它包含一个函数,我在其中构建和
存储
一个可能非常大
的
凹凸不平数组,我以
HDF5
文件
的
形式
读取
该数组。(我将数组
存储
为类对象,以便在从文件
中
读取
各种
HDF5
数据
集时,可以使用列表理解,而不是手动循环。)我想要
的
是同时返回和删除
存储
的
数组(即在return语句之后清理内存)。我知道我可以在后面的脚本中使用类似于del MWE.array<e
浏览 3
提问于2017-03-17
得票数 1
1
回答
在
Python语言中使用OpenCV对表示灰度图像
的
二维数组列表进行图像稳定
、
、
、
我正在尝试使用OpenCV包对
数据
(以
hdf5
格式
存储
的
灰度强度图像)进行一些抖动/运动校正。通常,我以2D数组列表
的
形式
读取
数据
(使用imshow执行colourplots)。使用cap = cv2.VideoCapture('video.mp4')从视频文件
中
读入
帧
的
标准方法似乎不接受我列出
的
2Dnumpy数组,它们看起来像这样: [[243.25
浏览 5
提问于2020-02-10
得票数 0
2
回答
从
HDF5
文件
读取
pandas.Dataframe列
的
子集
、
、
、
、
我
在
HDF5
文件中保存了一个pandas.DataFrame。DataFrame由多个列组成,大小非常大。
HDF5
文件
中
每个
表
的
大小都大于2 2GB。对于分析,希望仅将
表
的
列
的
子集加载到
存储
器
中
。使用SQLite3,这是一项微不足道
的
工作。只需使用"select column1,colum2,... from table1“查询即可。
在
Python中有没
浏览 2
提问于2019-08-07
得票数 0
1
回答
利用
hdf5
进行深度学习
的
计算效益
、
、
、
在
一些情况下,
hdf5
存储
格式用于深度学习。可以理解
hdf5
共享
数据
的
好处。然而,我是否可以期望通过使用hd5f而不是级联
帧
的
图像来提高训练效率呢?如果共享是我最不关心
的
事情,我是否有理由使用
hdf5
? 编辑:我浏览了各种页面,如
HDF5
用户指南、常见问题解答和其他博客文章。我发现
hdf5
主要是一种通用
的
存储
格式。我找不到他们
在
浏览 4
提问于2017-12-13
得票数 2
回答已采纳
3
回答
如何提高
HDF5
读取
数据
的
性能?
、
、
、
我需要
的
是尽快获得unique date值。 我使用代码df = store.df.date.drop_duplicates()来检索。这行代码以6 seconds为参数。但是,如果我使用mysql并将相同
的
数据
保存到mysql
中
,我使用mysql作为indexing之后
的
date列,使用sql:select distinct date from table,它只需要80ms来检索唯一
的
date值,这比
HDF5
快60 times。有没有办法使函数read_unique_
浏览 5
提问于2021-08-06
得票数 2
1
回答
是否可以直接重命名
存储
在
hdf5
文件
中
的
熊猫
数据
栏?
、
、
我有一个非常大
的
熊猫
数据
文件
存储
在
hdf5
文件
中
,我需要重命名
数据
文件
的
列。 简单
的
方法是使用HDFStore.select以块
读取
数据
块,重命名列并将
数据
块
存储
到另一个
hdf5
文件
中
。但我认为这是一种愚蠢而低效
的
方式。有办法直接重命名
hdf5
文件
中
的
列吗?
浏览 1
提问于2015-08-18
得票数 1
回答已采纳
1
回答
从多个panda
数据
帧
创建
HDF5
、
、
、
、
我有100个熊猫
数据
帧
存储
在
我计算机上
的
一个目录
中
的
.pkl文件
中
。我想浏览所有的
数据
帧
并将它们保存在一个
HDF5
文件
中
。我计划将所有
数据
帧
保存在一个pickle文件
中
,但我听说
HDF5
更好,速度也更快。首先,我是这样做
的
: path = '/Users/sray
浏览 1
提问于2017-07-30
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券