我读过Tensorflow关于InterOp和IntraOp并行性的文档。然而,我还没有完全理解InterOp并行是如何影响Tensorflow的。
我的问题是:来自InterOp线程池的线程实际上是并行地训练模型(也就是说,每个线程都在训练批的不同子集上进行训练,方法是在线程之间分割训练迭代),还是它们只是并行执行图的非冲突分支?
发布于 2017-08-03 16:16:07
互操作并行性限制了执行者可以并行启动的操作数。内操作并行限制了由特征用于执行单个内核的CPU线程的数量。将数据分割成批处理是客户端(如tf.Estimator之类的Python库)处理的更高级别的功能。运行时不能区分数据和参数--两者都只是流经计算图的张量。
https://stackoverflow.com/questions/45488133
复制相似问题