当前位置: 首页 > 工具软件 > serving > 使用案例 >

tf-serving部署之踩坑记录

公孙棋
2023-12-01

hi各位大佬好,之前年少不更事,如今方知富婆香。哈哈。前几天整的tf-serving部署(参考这里)我以为就一劳永逸了,图样图森破,太天真了,tmd,后来发现稍微改下就有问题,之前的参考是做的tf.keras.Model这种tf2的部署,而且采用的是输入的vector数据(即全是列表,没有字典)

For Recommendation in Deep learning QQ Group 277356808

For deep learning QQ Second Group 629530787

I'm here waiting for you

因而有以下实践:

1-tf.keras.Model模型,但输入的是字典格式(json)的数据

仍旧以原来的例子来改,【我之前曾说,能改别人的代码才是真正的看懂了代码,否则就是纯粹的搬运工,CVer】

按照原来脚本运行后采用如下进行查看模型推理的输入输出结构,

$ saved_model_cli show --dir /tmp/2 --tag_set serve --signatur
 类似资料: