我有一个5 5GB的大型数据集,我想用它来训练使用Keras设计的神经网络模型。虽然我使用的是Nvidia Tesla P100图形处理器,但训练速度非常慢(每个时期需要60-70秒)(我选择了batch size=10000)。经过阅读和搜索,我发现使用kerasfit_generator代替典型的fit可以提高训练速度。fit_generator运行后,训练时间略有改善,但仍然很慢(现在每个时期需要大约40-50秒)。在终端运行
我正在尝试使用keras的fit_generator和一个tensorboard_callback来运行一个模型来分析特定的时代。/engine/training.py", line 1418, in fit_generator File "/usr/local/lib/python2.7/dist-packages/keras/
我想知道keras中的fit_generator()在内存使用方面是否比使用通常的fit()方法(与生成器产生的batch_size相同)有什么优势。60000 -> # of training samples如果我将它传递到fit_generator()方法中,或者只是将所有数据直接传递到fit()方法中,并定义一个32的
我遇到了keras和tensorflow的问题,使用以下代码:from tensorflow.keras,那不是故意的,但对我来说,这似乎不合逻辑,因为这种方法对于定义更复杂的网来说是非常舒服的,而且我已经准备好使用Py手电,我很确定,这也应该适用于tf和keras。如果我对keras使用直接导入,则得到一个不同的错误:
U