我在amazon sagemaker上使用aws blazingtext算法训练了一个模型,并且我能够使用sagemaker部署一个endpoint。然而,在我的情况下,这是不符合成本效益的,我想在本地运行它。我发现这方面的文档很混乱。
我拥有的是一个经过训练的模型,它被保存为一个“model.tar.gz”文件,我从s3 bucket下载了这个文件。我在网上读到,您可以使用tensorflow和docker映像部署模型,但我只想使用本地机器部署我使用sagemaker创建的模型。基本上,我想做的是:
predictor = sagemaker.deploy(initial_instance_count=1, instance_type='local_cpu')
我期望能够使用预测函数进行推断调用,并用预测结果返回响应。我正在寻找要使用的库,以及完成此任务的相关代码。谢谢你。
SageMaker BlazingText有两种口味:
根据文档,对于这两个版本,fastText都可以使用模型生成的二进制文件。从fasttext
python绑定文档中,以下命令似乎适用于这两种情况:
import fasttext
# bin file is found in the model.tar.gz produced by Sagemaker
model = fasttext.load_model('model_filename.bin')
# inference for unsupervised version
model['king']
# inference for supervised version
model.predict('Which baking dish is best to bake a banana bread ?')
Gensim似乎有类似的能力来读取快速文本工件,但我发现API有点不清楚,它似乎只适用于无监督的情况(单词嵌入)
错误为: 谁能帮帮我吗?
我想在aws sagemaker上培训YOLOv5,还要在sagemaker上部署模型,还需要了解entrypoint python脚本。我如何为此构建管道?
我有一个预先训练好的模型,我正在从S3 Bucket加载到AWS SageMaker笔记本实例中,在提供测试图像用于从S3 Bucket进行预测后,它会根据需要为我提供准确的结果。我想部署它,这样我就可以有一个endpoint,我可以进一步与AWS Lambda函数和AWS API网关集成,这样我就可以使用实时应用程序的模型。知道如何从AWS Sagemaker笔记本实例部署模型并获取其endpo
我想在SageMaker找一份当地的培训工作。 根据这个AWS笔记本(https://github.com/awslabs/amazon-sagemaker-examples/blob/master/sagemaker-python-sdk/mxnet_gluon_mnist/mxnet_mnist_with_gluon_local_mode.ipynb),我能够在本地进行训练和预测。 有没有办法
我正在学习Spark的基础知识,为了测试我的Pyspark应用程序,我在AWS上用Spark、Yarn、Hadoop、Oozie创建了一个EMR实例。我成功地能够使用spark-submit从驱动程序节点执行一个简单的pyspark应用程序。我有一个默认的/etc/spark/conf/spark-default.conf文件,该文件是由AWS使用Yarn资源管理器创建的。一切运行良好,我可以监测
我对SageMaker有以下挑战: > 我已经下载了一个教程笔记本(https://github.com/awslabs/amazon-sagemaker-examples/blob/master/sagemaker-python-sdk/tensorflow_abalone_age_predictor_using_keras/tensorflow_abalone_age_predictor_us