我正在尝试从numpy数组的文件夹创建一个tfrecord,该文件夹包含大约2000个每个50mb的numpy文件。# out_path File-path for the TFRecords output file.serialized = example.SerializeToString()
# Write the serialized data to the TFRecordswriter.write(serialized) 我想它可以转换大约20
我正在尝试使用TensorFlow和Keras来训练一个自动编码器。我的训练数据有超过200 K 512x128未标记的图像。如果我想在一个矩阵中加载数据,它的形状将是(200000,512,128,3)。这是几百GB的RAM空间。我知道我可以在培训的同时减少批处理的大小,但这是为了限制GPU/CPU中内存的使用。
我一直在尝试使用.mat文件中的高光谱图像数据集。我发现,使用带有加载垫功能的枕库,我可以加载高光谱图像,并选择一些波段将它们看作是RGB。当通过负责加载数据(仍然是.mat文件)的函数传递数据集文件名称列表时,张量流没有直接用于读取或编码的方法,因此我使用RGBread和SIread方法获得这些数据,然后将它们转换为张量。)
inimg, tgimg = ran