经过几次测试,看起来在不同的时期之间和在训练不同的模型时,keras所需的内存都会增加。随着小批处理规模的增加,问题变得更加严重,1~5的小批处理至少给了我足够的时间来看到内存使用量在最初的几次调整中快速上升,然后缓慢而稳定地随着时间的推移而增加。我在CPU上运行Keras2.2.4、tensorflow 1.12.0、Python3.7.0。我为每个基因运行的代码以及用于度量内存使用情况的回调:import keras as K
cl
我试图通过将预先训练好的集成到keras层中来使用它。def compute_output_shape(self, input_shape):当我运行代码时,如果我禁用了急切执行,我必须在tensorflow会话中包围model.fit函数,并使用sess.run(global_variables_initializer())初始化变量,以避免下一个错误:我的解决方案是:
w