在正常情况下,我们可以通过
y = sess.graph.get_tensor_by_name('relu_fc1:0') sess.run(y,...)这很好,但我们仍然希望它更快,所以我们使用TensorRT来转换保存的模型。然而,在转换之后,我们无法在relu_fc1中得到正确的张量,因为TensorRT混合了操作,产生了类似于TRTENgineOp_1的东西。我想知道有什么方法可以在TensorRT之后获得中间层的输出吗?我想也许我们可以更容易地删除网络中的最后一个层,然后进行
我正在尝试使用TensorRT部署一个经过训练的U-Net。该模型使用Keras进行训练(以Tensorflow作为后端)。up_sampling2d_32_12/Shape-0-0-VecPermuteNCHWToNHWC-LayoutOptimizer as custom op: DataFormatVecPermute我还在某个地方看到,可以添加自定义操作来替换那些不受Te