当前位置: 首页 > 知识库问答 >
问题:

转换冻结时出错。pb文件到tflite格式

罗业
2023-03-14
tflite_convert   --output_file=./graph.tflite   --graph_def_file=output_graph_frozen.pb   --input_arrays=IteratorV2 --output_arrays=linear/head/predictions/probabilities

回溯 (最近一次调用最后): 文件 “/usr/本地/bin/tflite_convert”, 第 11 行, 在系统退出(主 ()) 文件 “/usr/本地/lib/python3.6/dist 包/张量流/精简/蟒蛇/tflite_convert.py”, 第 503 行, 在主应用程序运行 (主 = run_main, argv=sys.argv[:1]) 文件 “/usr/本地/lib/python3.6/dist 包/张力流/蟒蛇/平台/应用程序.py”, 第 40 行, 在运行_run(主=主, argv=argv, flags_parser=_parse_flags_tolerate_undef) 文件“/usr/local/lib/python3.6/dist-packages/absl/app.py”,第 299 行,在运行_run_main(主,参数)文件“/usr/本地/lib/python3.6/dist-package/dist 包/.py”,第 250 行,在 _run_main 系统中,退出(主(argv)文件“/usr/本地/lib/python3.6/dist 包/张量流/张量流/精简包/精简版/蟒蛇/tflite_convert.py”,第 499 行,run_main _convert_tf1_model(tflite_flags)文件中“/usr/本地/库特/蟒蛇 3.6/迪特包/张力流/精简版/蟒蛇/tflite_convert.py”, 第 193 行,在 _convert_tf1_model output_data = converter.convert() 文件“/usr/本地/lib/python3.6/dist 包/张量流/精简/蟒蛇/精简版/蟒蛇/精简版.py”中,第 898 行,在转换 **converter_kwargs) 文件中“/usr/本地/lib/python3.6/dist-packages/tensorflow/精简流/精简版/网蟒蛇/转换.py”,第 401 行,toco_convert_impl input_tensors output_tensors,*args, **kwargs) 文件 “/usr/本地/lib/python3.6/dist 包/张量流/精简/蟒蛇/转换.py”, 第 304 行,在 build_toco_convert_protos input_tensor.dtype) 文件中“/usr/本地/lib/python3.6/dist-packages/tensorflow/精简/蟒蛇/util.py”,第 58 行,convert_dtype_to_tflite_type提高值错误(“不支持的 tf.dtype {0}”.format(tf_dtype)) 值错误: 不支持的 tf.dtype

共有1个答案

姜胤
2023-03-14

设置“input_arrays”和“output_arrays”的目的是什么?

在最简单的情况下,你可以这样做

converter = tf.lite.TFLiteConverter.from_saved_model(export_dir)
tflite_model = converter.convert()

如 https://www.tensorflow.org/lite/convert/python_api 所述。

 类似资料:
  • 我想在Tensorflow中将整数量化的tflite模型转换为冻结图(.pb)。我通读并尝试了许多有关StackOverflow的解决方案,但没有一个有效。具体来说,toco不起作用(输出格式不能是TENSORFLOW\u GRAPHDEF)。 我的最终目标是通过tf2onnx获得量化的ONNX模型,但tf2onnx不支持tflite作为输入(只支持保存的_模型、检查点和图形_定义)。但是,在使用

  • 问题内容: 我是Tensorflow的新手。我将训练后的模型保存为pb文件,我想使用tensorflow mobile,并且使用TFLITE文件很重要。问题是在谷歌搜索转换器后发现的大多数示例都是在终端或cmd上命令的。能否请您分享一个使用python代码转换为tflite文件的示例? 谢谢 问题答案: 在此TF示例之后,您可以传递“ –Saved_model_dir”参数以将save_model

  • 我有以下脚本,使用它我能够成功地将deeplabv3_mnv2_pascal_train.pb模型(点击这里下载)转换成tflite格式 我使用以下python脚本获得了DeepLabv3_mnv2_pascal_train.pb的input_arrays和output_arrays。我将这个python脚本取自:获取input_array和output_array项以将model转换为tflit

  • 我使用Deeplab官方Github页面上的python脚本,用自己的数据集训练了一个语义分割模型。培训和测试都进行得很好。 然后我使用以下命令使用export_model.py将模型导出到冻结图: 这也成功了。现在我想使用convert_to_tflite.py将我的冻结图形转换为tflite。这个脚本有2个我不理解的输入参数:“input_tensor_name”和“output_tensor

  • 我目前在转换张量流时遇到问题。pb模型到TFlite格式。我目前正在遵循谷歌代码实验室的指示,错误说 Traceback(最近调用的最后一次):文件/usr/local/bin/tflite_convert,第5行,在tensorflow.lite.python.tflite_convert导入主重要错误:没有模块命名lite.python.tflite_convert 我正在使用谷歌提供的命令

  • freezePanes(int $row, int $column): self int $row freezePanes(1, 0); // 冻结第一行 freezePanes(0, 1); // 冻结第一列 freezePanes(1, 1); // 冻结第一行和第一列