当前位置: 首页 > 知识库问答 >
问题:

使用TF lite将MobileFacenet转换为量化感知模型时,创建\u training\u graph()失败

左康安
2023-03-14

我正试图根据这个建议对MobileFacenet(来自天狼星ai的代码)进行量化,我想我遇到了与此相同的问题

当我添加tf.contrib.quantize.create_training_graph()到训练图
(train_nets.pyln.187:之前train_op=trat(...)或在trat()utils/common.pyln.38渐变前)

它没有将量化感知操作添加到图形中以收集动态范围max\min。

我假设我应该在单板中看到一些额外的节点,但我没有,因此我认为我没有成功地在训练图中添加量化感知操作。我试图跟踪tenstorflow,发现我没有_FindLayersToQuantize()。

但是当我添加tf时。contrib。量化。创建_eval_graph()以优化训练图。我可以看到一些量子化感知操作作为行为量化。。。因为我并没有成功地将ops添加到训练图中,所以我并没有要在评估图中加载的权重。因此,我得到了一些错误消息

Key MobileFaceNet/Logits/LinearConv1x1/act_quant/max not found in checkpoint

tensorflow.python.framework.errors_impl.FailedPreconditionError: Attempting to use uninitialized value MobileFaceNet/Logits/LinearConv1x1/act_quant/max

有人知道如何修复此错误吗?或者如何获得准确的量化MobileFacenet?

谢谢!

共有1个答案

司马钱明
2023-03-14

H,

不幸的是,现在已不建议使用conrib/量化工具。它将无法支持更新的模型,我们也不再致力于此。

如果您对QAT感兴趣,我建议尝试新的TF/Keras QAT API。我们正在积极发展并为此提供支持。

 类似资料:
  • 我已经使用Keras来微调MobileNet v1。现在我有,我需要将其转换为TensorFlow Lite,以便在Android应用程序中使用。 我使用TFLite转换脚本。我可以在没有量化的情况下进行转换,但我需要更高的性能,所以我需要进行量化。 如果我运行此脚本: 它失败了: F tensorflow/contrib/lite/toco/tooling\u util。cc:1634]Arra

  • 我已经使用tensorflow后端训练了一个DNN,我想在FireBase中托管它。训练好的模型被保存为.meta文件,我尝试使用下面的代码将模型转换为tflite,但我遇到了一些错误。那么我如何将这个模型转换成Tensorflow Lite呢?

  • 我试图按照张量流量化中的说明来生成一个量化的张量流精简版模型。 首先,我使用tf。contrib。量化。创建_training_graph()和tf。contrib。量化。在我的训练过程中创建_eval_graph(),将伪量化节点插入到图形中,并最终生成一个冻结的pb文件(model.pb)。 其次,我使用以下命令将我的伪量化tensorflow模型转换为量化tensorflow lite模型。

  • 我目前在转换张量流时遇到问题。pb模型到TFlite格式。我目前正在遵循谷歌代码实验室的指示,错误说 Traceback(最近调用的最后一次):文件/usr/local/bin/tflite_convert,第5行,在tensorflow.lite.python.tflite_convert导入主重要错误:没有模块命名lite.python.tflite_convert 我正在使用谷歌提供的命令

  • 我在将SSD对象检测模型转换为EdgeTPU的uint8 TFLite时遇到问题。 据我所知,我一直在不同的论坛上搜索堆栈溢出线程和github问题,我认为我正在采取正确的步骤。我的jupyter笔记本肯定出了问题,因为我无法实现我的提议。 我正在与您分享我在Jupyter笔记本上解释的步骤。我认为情况会更加清楚。 转换步骤返回警告。 警告:absl:对于包含无法量化的不支持操作的模型输入,属性将

  • 问题内容: 我是Tensorflow的新手。我将训练后的模型保存为pb文件,我想使用tensorflow mobile,并且使用TFLITE文件很重要。问题是在谷歌搜索转换器后发现的大多数示例都是在终端或cmd上命令的。能否请您分享一个使用python代码转换为tflite文件的示例? 谢谢 问题答案: 在此TF示例之后,您可以传递“ –Saved_model_dir”参数以将save_model