当前位置: 首页 > 知识库问答 >
问题:

用于可变大小输入的Tensorflow Lite

龚沛
2023-03-14

我有一个很像tensorflow语音命令演示的模型,只是它需要一个大小可变的1D数组作为输入。现在,我发现很难使用tflite\u convert将此模型转换为tflite,因为tflite\u convert需要输入形状。

据说tf lite需要固定大小的输入以提高效率,您可以在推理过程中调整输入大小,作为模型的一部分。然而,我认为这将涉及截断我不想要的输入。有什么方法可以让TF lite发挥作用吗?

共有1个答案

皇甫学海
2023-03-14

您可以使用固定形状转换模型,如“input_shape=64”中所示,然后在推断时执行以下操作:

  interpreter->ResizeInputTensor(interpreter->inputs()[0], {128});
  interpreter->AllocateTensors();
  // ... populate your input tensors with 128 entries ...
  interpreter->Invoke();
  // ... read your output tensor ...
 类似资料:
  • 这个问题相当抽象,不一定与tensorflow或keras有关。假设您想要训练一个语言模型,并且您想要为您的LSTM使用不同大小的输入。我特别关注这篇论文:https://www.researchgate.net/publication/317379370_A_Neural_Language_Model_for_Query_Auto-Completion. 除其他外,作者使用单词嵌入和一种热字符编

  • 我将python 3用于anaconda,将keras用于over tensorflow,我的目标是创建一个具有可变输入大小的Conv层的网络 我在这里找到了使用此代码的 我已经用它用这段代码创建了我自己的模型(我需要一个扁平层) 我一直在犯这个错误 ValueError:“展平”输入的形状没有完全定义(get(None,None,1)。确保将完整的“input\u shape”或“batch\u

  • 在CS231n关于卷积神经网络的课程中,在ConvNet中注: > INPUT[32x32x3]将保存图像的原始像素值,在这种情况下是宽32、高32和具有三个颜色通道R、G、B的图像。 CONV层将计算连接到输入中局部区域的神经元的输出,每个神经元在其权重和输入卷中连接到的小区域之间计算一个点积。如果我们决定使用12个过滤器,这可能会导致体积,例如[32x32x12]。 从文档中,我了解到INPU

  • 问题内容: 我被分配编写一个程序,该程序读取一系列整数输入并打印-输入的最小和最大-以及偶数和奇数输入的数量 我想出了第一部分,但对如何使程序显示最大和最小感到困惑。到目前为止,这是我的代码。我怎样才能显示最小的输入呢? 问题答案: 最简单的解决方案是使用诸如和

  • 问题内容: 要么 哪个是最佳的跨浏览器代码? 当然,这取决于要求,但是我很好奇知道人们是如何决定的以及基于什么基础。 问题答案: 您可以同时使用。css样式将覆盖支持CSS的浏览器中的属性,并使该字段具有正确的宽度,而对于不支持该样式的字段,它将退回到指定的字符数。 编辑: 我应该提到属性不是精确的大小调整方法:根据HTML规范,它_应该_引用输入将能够立即显示的当前字体的字符数。 但是,除非指定

  • 我正在下载一个歌曲文件。下面的代码(好吧,原始代码,这只是我正在做的一个示例)在Asha 310设备上运行良好。然而,在较新的Asha 501设备上,下载的文件比实际文件大得多。如果我使用512缓冲区,一个2.455.870字节的文件最终会下载2.505.215字节,而且它也不会加载。使用4096缓冲区,文件大小最终为3.342.335字节!! 发生这种情况的原因是什么?它在另一部手机上运行良好,