我阅读了许多关于在TensorFlow中使用多个GPU的文章和帖子。它帮助我学习了更多关于“如何使用并行GPU来训练神经网络”(how to use parallel GPU to train ( here network))。但我有一个不同的问题。可以使用单独的GPU同时训练不同的NN吗? 更多详细信息: 我有神经网络A,B,和GPU1,GPU2。我想同时在GPU</em
因此,在TensorFlow关于使用的指南中,有一部分是关于以“多塔方式”使用多个GPU的:for d in ['/device:GPU:2', '/device:GPU:3']:
with看到这一点,人们可能会倾向于利用这种风格在自定义Estimator中进行多个GPU培训,从而向模型表明它可以有效地跨多个GPU分布。据我所