对于外部循环/时代的每次调用,整个训练集,在上面的示例中,training_loader每批迭代一次。这意味着模型不处理每个训练周期的一个实例。根据训练周期( for epoch in range(num_epochs): ),整个训练集按块/批处理,其中在创建training_loader时确定批大小。
在训练分类模型时,我将输入的图像样本作为NumPy数组传递,但是当我试图训练大型数据集样本时,会遇到内存错误。目前,我有120 GB大小的内存,即使有了这个大小,我也会遇到内存错误。GiB for an array with shape (2512019,82,175,1) and data type float32
如何在不增加内存大小的情况下解决这个问题?是否有更好的方法来读取数据,如<
在10K句子的数据集上训练后,我保存的模型的.index、.meta和.data文件的大小分别为3KB、58MB和375MB 在保持网络体系结构不变的情况下,在100K句子的数据集上进行训练,文件大小分别为3KB、139MB和860MB 我认为这表明大小取决于数据集的大小。According to this answer,文件的大小应该独立于数据