我有一个想要用作自定义MLKit模型的.pb模型。MLKit只支持.tflite模型,但即使在我使用toco获取TensorFlow精简模型之后,文件大小对Firebase来说也太大了(95MB,只允许40MB)。有没有一种方法可以量化图形,然后转换为TFLite或量化.tflite图形?当我执行前者时,我得到以下错误消息:Unsupported TensorFlow op: De
我使用MobileNet_v1_1.0_224 tensorflow模型进行对象检测。现在,我有了我需要转换为tflite扩展的自定义冻结图(.pb文件),这样我就可以在移动设备上使用我的模型了。我需要它们作为输入和输出参数,将冻结的图形(.pb文件)转换为tensorflow lite (.tflite)文件。
”下载的对象检测模型;模型的名称是"faster_rcnn_resnet101_fgvc“。我尝试使用https://www.tensorflow.org/lite/guide/ops_select中给出的python代码将模型转换为.tflite格式(因为我有冻结的图形"frozen_inference_graph.pb") import tensorflow as tf
我一直在研究GradCam,我注意到大多数情况下都是在Keras/Tensorflow模型上使用的。但是,我有一个已编译为.tflite格式的tensorflow lite模型。我甚至不确定在编译后是否可以访问我的CNN层,因为我尝试使用keras库加载模型,但它只接受特定的文件类型,而不是确切的.tflite,因为它抛出了错误: from tensorflow.keras.modelsimport load_model
model = lo