这是我的代码:
import os
import pandas as pd
def load_hdf(filename):
"""
Load the first key of an HDF file
"""
hdf = pd.HDFStore(filename,mode = 'r')
keys = hdf.keys()
if not keys:
hdf.close()
return pd.DataFrame()
data_df = hdf.
在Linux Mint 17.1上执行此操作。
当我尝试的时候:
pip install hdf5
我得到了错误
"Could not find a version that satisfies the requirement hdf5 (from versions: ) No matching distribution found for hdf5"
从长远来看,我正在尝试安装netcdf4,但在安装hdf5之前,我无法做到这一点。假设从上周我尝试使用netcdf4开始,我应该使用pip install netcdf4,err hdf5...at,至少在hdf5的情况下。
如
我有一个小的python程序,它使用h5py模块创建hdf5文件。我想编写一个python模块来处理hdf5文件中的数据。我怎么能这么做呢?
更具体地说,我可以将numpy数组设置为PyArrayObject并使用PyArg_ParseTuple读取它们。这样,我就可以在编写python模块时从numpy数组中读取元素。如何读取hdf5文件以访问单个元素?
更新:感谢你下面的回答。我需要从C中读取hdf5文件,而不是从Python中-我知道如何做到这一点。例如:
import h5py as t
import numpy as np
f=t.File('\tmp\tmp.h5'
我正在做一个涉及网络消息队列(msgpack,zmq,...)的项目。在RHEL6.3 (x86_64)系统上。
放弃后,我返回到我的代码,不知何故,我设法破坏了我的hdf5 / h5py安装- h5py在导入时找不到libhdf5.so.7。我立即在RHEL6.3 (x86_64)上的/usr/local/hdf5中重新安装了hdf5-1.8.9,如下所示:
./configure --prefix=/usr/local/hdf5
make
make check
sudo make install
make check install
它似乎工作得很好。然后我重新安装了h5py (在Pyth
我用Python2.7编写了一个dataframe,但现在我需要在Python3.6中打开它,反之亦然(我想比较两个版本编写的两个dataframe)。
如果我在Python3.6中使用pandas打开由Python2.7生成的HDF文件,则会产生以下错误:UnicodeDecodeError: 'ascii' codec can't decode byte 0xde in position 1: ordinal not in range(128)
如果我在Python2.7中使用pandas打开由Python3.6生成的HDF文件,则会出现以下错误:ValueErro
以前,我已经将dataset的多列保存到一个HDF文件中。该程序可概述如下:
import pandas as pd
from pandas import HDFStore, DataFrame
from pandas import read_hdf
hdf = HDFStore("FILE.h5")
feature = ['var1','var2']
## noted that the original dataframe is huge, and thus fake dataframe was generated as example.