当前位置: 首页 > 知识库问答 >
问题:

Tensorflow:将模型转换为TFLite格式

柳绪
2023-03-14

我目前在转换张量流时遇到问题。pb模型到TFlite格式。我目前正在遵循谷歌代码实验室的指示,错误说

Traceback(最近调用的最后一次):文件/usr/local/bin/tflite_convert,第5行,在tensorflow.lite.python.tflite_convert导入主重要错误:没有模块命名lite.python.tflite_convert

我正在使用谷歌提供的命令

TF lite _ convert \-graph _ def _ file = TF _ files/retrained _ graph . Pb \ < br >-output _ file = TF _ files/optimized _ graph . lite \-input _ format = TFLITE \-input _ shape = 1,${IMAGE_SIZE},${IMAGE_SIZE},3 \-input _ array = input \-output _ array = final _ result \-inference _ type = FLOAT \ < br >-input _ data _ type = FLOAT

有没有其他代码可以将模型转换成TFlite格式?顺便说一下,我已经将我的Tensorflow升级到1.12.0,因为1.7、1.8和1.9返回了相同的错误。

谢谢

共有1个答案

岳谦
2023-03-14

请参考示例代码将 .pb 转换为 tflite

import tensorflow as tf
pb_file = 'model.pb'
tflite_file = 'model.tflite'

converter = tf.lite.TFLiteConverter.from_frozen_graph(pb_file, ['ImageTensor'], ['SemanticPredictions'], 
                                                      input_shapes={"ImageTensor":[1,523,523,3]}) # [1,H,W,C]


converter.inference_input_type=tf.uint8
converter.quantized_input_stats = {'ImageTensor': (145, 164)}  # (mean, stddev)

tflite_model = converter.convert()
open(tflite_file,'wb').write(tflite_model) 

interpreter = tf.lite.Interpreter(model_content=tflite_model)
interpreter.allocate_tensors()

files.download(tflite_file)
 类似资料:
  • 我已经使用tensorflow后端训练了一个DNN,我想在FireBase中托管它。训练好的模型被保存为.meta文件,我尝试使用下面的代码将模型转换为tflite,但我遇到了一些错误。那么我如何将这个模型转换成Tensorflow Lite呢?

  • 我想在Tensorflow中将整数量化的tflite模型转换为冻结图(.pb)。我通读并尝试了许多有关StackOverflow的解决方案,但没有一个有效。具体来说,toco不起作用(输出格式不能是TENSORFLOW\u GRAPHDEF)。 我的最终目标是通过tf2onnx获得量化的ONNX模型,但tf2onnx不支持tflite作为输入(只支持保存的_模型、检查点和图形_定义)。但是,在使用

  • 请不要让我直接将Keras模型转换为tflite,因为我的.h5文件无法直接转换为.tflite。我设法将.h5文件转换为.pb 我使用Keras跟踪此Jupyter笔记本进行人脸识别。然后,我将模型保存到文件,然后将其转换为冻结的图形,使用。 现在我想在Android中使用我的张量流文件。为此,我需要Tensorflow Lite,这需要我将模型转换为格式。 为此,我在这里尝试遵循官方指南。如您

  • 问题内容: 我是Tensorflow的新手。我将训练后的模型保存为pb文件,我想使用tensorflow mobile,并且使用TFLITE文件很重要。问题是在谷歌搜索转换器后发现的大多数示例都是在终端或cmd上命令的。能否请您分享一个使用python代码转换为tflite文件的示例? 谢谢 问题答案: 在此TF示例之后,您可以传递“ –Saved_model_dir”参数以将save_model

  • 我有以下脚本,使用它我能够成功地将deeplabv3_mnv2_pascal_train.pb模型(点击这里下载)转换成tflite格式 我使用以下python脚本获得了DeepLabv3_mnv2_pascal_train.pb的input_arrays和output_arrays。我将这个python脚本取自:获取input_array和output_array项以将model转换为tflit

  • 我一直试图按照这个过程在Google Coral Edge TPU:Edge TPU模型工作流上运行一个对象检测器(SSD MobileNet) 我已经成功地用对象检测API训练和评估了我的模型。我有检查点格式和tf SavedModel格式的模型。根据文档,下一步是转换为。使用训练后量化的tflite格式。 我试图效仿这个例子。export_tflite_graph_tf2.py脚本和运行后的转