当前位置: 首页 > 知识库问答 >
问题:

我如何在本地部署我在亚马逊sagemaker上训练的模型?

牟飞沉
2023-03-14

我在amazon sagemaker上使用aws blazingtext算法训练了一个模型,并且我能够使用sagemaker部署一个endpoint。然而,在我的情况下,这是不符合成本效益的,我想在本地运行它。我发现这方面的文档很混乱。

我拥有的是一个经过训练的模型,它被保存为一个“model.tar.gz”文件,我从s3 bucket下载了这个文件。我在网上读到,您可以使用tensorflow和docker映像部署模型,但我只想使用本地机器部署我使用sagemaker创建的模型。基本上,我想做的是:

predictor = sagemaker.deploy(initial_instance_count=1, instance_type='local_cpu')

我期望能够使用预测函数进行推断调用,并用预测结果返回响应。我正在寻找要使用的库,以及完成此任务的相关代码。谢谢你。

共有1个答案

程阳平
2023-03-14

SageMaker BlazingText有两种口味:

  1. 一个监督版本,学习分类可变长度令牌序列和
  2. 一个无监督版本,学习令牌嵌入。

根据文档,对于这两个版本,fastText都可以使用模型生成的二进制文件。从fasttextpython绑定文档中,以下命令似乎适用于这两种情况:

import fasttext

# bin file is found in the model.tar.gz produced by Sagemaker
model = fasttext.load_model('model_filename.bin')

# inference for unsupervised version
model['king']

# inference for supervised version
model.predict('Which baking dish is best to bake a banana bread ?')

Gensim似乎有类似的能力来读取快速文本工件,但我发现API有点不清楚,它似乎只适用于无监督的情况(单词嵌入)

 类似资料:
  • 错误为: 谁能帮帮我吗?

  • 我想在aws sagemaker上培训YOLOv5,还要在sagemaker上部署模型,还需要了解entrypoint python脚本。我如何为此构建管道?

  • 我有一个预先训练好的模型,我正在从S3 Bucket加载到AWS SageMaker笔记本实例中,在提供测试图像用于从S3 Bucket进行预测后,它会根据需要为我提供准确的结果。我想部署它,这样我就可以有一个endpoint,我可以进一步与AWS Lambda函数和AWS API网关集成,这样我就可以使用实时应用程序的模型。知道如何从AWS Sagemaker笔记本实例部署模型并获取其endpo

  • 我想在SageMaker找一份当地的培训工作。 根据这个AWS笔记本(https://github.com/awslabs/amazon-sagemaker-examples/blob/master/sagemaker-python-sdk/mxnet_gluon_mnist/mxnet_mnist_with_gluon_local_mode.ipynb),我能够在本地进行训练和预测。 有没有办法

  • 我正在学习Spark的基础知识,为了测试我的Pyspark应用程序,我在AWS上用Spark、Yarn、Hadoop、Oozie创建了一个EMR实例。我成功地能够使用spark-submit从驱动程序节点执行一个简单的pyspark应用程序。我有一个默认的/etc/spark/conf/spark-default.conf文件,该文件是由AWS使用Yarn资源管理器创建的。一切运行良好,我可以监测

  • 我对SageMaker有以下挑战: > 我已经下载了一个教程笔记本(https://github.com/awslabs/amazon-sagemaker-examples/blob/master/sagemaker-python-sdk/tensorflow_abalone_age_predictor_using_keras/tensorflow_abalone_age_predictor_us