hi各位大佬好,之前年少不更事,如今方知富婆香。哈哈。前几天整的tf-serving部署(参考这里)我以为就一劳永逸了,图样图森破,太天真了,tmd,后来发现稍微改下就有问题,之前的参考是做的tf.keras.Model这种tf2的部署,而且采用的是输入的vector数据(即全是列表,没有字典)
I'm here waiting for you
因而有以下实践:
1-tf.keras.Model模型,但输入的是字典格式(json)的数据
仍旧以原来的例子来改,【我之前曾说,能改别人的代码才是真正的看懂了代码,否则就是纯粹的搬运工,CVer】
按照原来脚本运行后采用如下进行查看模型推理的输入输出结构,
$ saved_model_cli show --dir /tmp/2 --tag_set serve --signatur