TensorFlow Lite
TensorFlow Lite 指南
TensorFlow Lite 是一组工具,可帮助开发者在移动设备、嵌入式设备和 IoT 设备上运行 TensorFlow 模型。它支持设备端机器学习推断,延迟较低,并且二进制文件很小。
TensorFlow Lite 包括两个主要组件:解释器用来
转换器是模型的格式转换,优化,提高性能,减小模型大小
TensorFlow Lite 解释器,它可在手机、嵌入式 Linux 设备和微控制器等很多不同类型的硬件上运行经过专门优化的模型。
TensorFlow Lite 转换器,它可将 TensorFlow 模型转换为方便解释器使用的格式,并可引入优化以减小二进制文件的大小和提高性能。
TensorFlow Lite 旨在让您轻松地在网络“边缘”的设备上执行机器学习,而无需在设备与服务器之间来回发送数据。对开发者来说,在设备端执行机器学习有助于:
TensorFlow Lite 支持各种设备,从超小的微控制器到功能强大的手机,不一而足。
当所有 125 多个受支持的运算符均建立关联后,TensorFlow Lite 二进制文件的大小约为 1 MB(针对 32 位 ARM build);如果仅使用支持常见图像分类模型(InceptionV3 和 MobileNet)所需的运算符,TensorFlow Lite 二进制文件的大小不到 300 KB。
如需开始在移动设备上使用 TensorFlow Lite,请访问使用入门。如果您要将 TensorFlow Lite 模型部署到微控制器,请访问微控制器。
预训练模型,适用于可根据您的应用自定义的常见机器学习任务。
使用 TensorFlow Lite 的工作流包括如下步骤:
选择模型
您可以使用自己的 TensorFlow 模型、在线查找模型,或者从我们的预训练模型中选择一个模型直接使用或重新训练。
转换模型
如果您使用的是自定义模型,请使用 TensorFlow Lite 转换器将模型转换为 TensorFlow Lite 格式,只需几行 Python 代码就能搞定。
部署到您的设备:请使用TensorFlow Lite 解释器(提供多种语言的 API)在设备端运行您的模型。
优化您的模型
请使用我们的模型优化工具包缩减模型的大小并提高其效率,同时最大限度地降低对准确率的影响。
如需详细了解如何在项目中使用 TensorFlow Lite,请参阅使用入门
想继续了解 TensorFlow Lite 吗?下面是一些后续步骤: