试着把我的头集中在Tensorflow开始使用大量内存的地方。如果我有一个batch_size=10和我的samples are 150MB each,那么如果每次处理一个样本,那么一次只有1GB,或者更少。当我经历更多的时代时,它更多的是关于神经网络本身的累积大小吗?如果我试图针对这些150 to的样本中的10,000进行培训,那么我是否更有可能在培训结束时耗尽内存呢?
可能重复:
我首先尝试使用DOM和XML库将XMLReader解析为可以插入到MySQL中的行。这个文件足够大,我试图处理它时内存不足。我在PHP中的内存已经达到128 in。
我正在MySQL中试用命令。MySQL的这一部分对我来说是全新的。为了支持LOAD,我不得不升级到一个更新的MySQL版本。Access denied for user
我在一台机器上保留了node.js服务器,在另一台机器上保留了mongodb服务器。要求是70%的阅读和30%的写入。观察到,在第二吞吐量中的100个请求为60req/秒,在200个请求时,第二吞吐量为130 req/秒。cpu和内存的使用在这两种情况下是相同的。如果应用程序可以服务器130 req/秒,那么为什么在第一种情况下它没有服务器100 re