作为Tensorflow Research Cloud计划的一部分,我访问了100台TPU v2机器,其中有8台TPU(TPUv2-8s)。 我需要实现模型数据的并行性。有没有办法让我一次在100台机器上运行数据并行?如果可能的话,我更愿意使用tf.distribute.TPUStrategy。或者我绝对需要编写自己的脚本来在机器之间通信,以平均它们之间的梯度。
我试着训练一个neural network来识别A到J的手写信件。我有一套200000码的训练。每个训练集都是784像素值的列表。我正在使用python的fmin_cg库的scipy最小化函数。我面临的问题是,每次迭代都要花费大量的时间。第二次迭代耗时20分钟。
第三名还在跑。这可能是因为我的电脑过时了,只有2GB的内存和一个缓慢的处理器,但是我以前用training set of
嗨,我正在尝试用自定义的损失函数来微调初始网络。这是一个三重损失函数。added by me return loss
注意:值param是softmax之前logits层的输出当我计算梯度时,我发现BatchNorm/moving_variance和BatchNorm/moving_variance没有梯度。为什么它返回无梯度值?通过可视化,我发现没有数据流从loss到