Tensorflow可以使用训练好的模型对新的数据进行测试,有两种方法:第一种方法是调用模型和训练在同一个py文件中,中情况比较简单;第二种是训练过程和调用模型过程分别在两个py文件中。本文将讲解第二种方法。
模型的保存
tensorflow提供可保存训练模型的接口,使用起来也不是很难,直接上代码讲解:
#网络结构 w1 = tf.Variable(tf.truncated_normal([in_units, h1_units], stddev=0.1)) b1 = tf.Variable(tf.zeros([h1_units])) y = tf.nn.softmax(tf.matmul(w1, x) + b1) tf.add_to_collection('network-output', y) x = tf.placeholder(tf.float32, [None, in_units], name='x') y_ = tf.placeholder(tf.float32, [None, 10], name='y_') #损失函数与优化函数 cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])) train_step = tf.train.AdamOptimizer(rate).minimize(cross_entropy) saver = tf.train.Saver() with tf.Session() as sess: sess.run(init) saver.save(sess,"save/model.ckpt") train_step.run({x: train_x, y_: train_y})
以上代码就完成了模型的保存,值得注意的是下面这行代码
tf.add_to_collection('network-output', y)
这行代码保存了神经网络的输出,这个在后面使用导入模型过程中起到关键作用。
模型的导入
模型训练并保存后就可以导入来评估模型在测试集上的表现,网上很多文章只用简单的四则运算来做例子,让人看的头大。还是先上代码:
with tf.Session() as sess: saver = tf.train.import_meta_graph('./model.ckpt.meta') saver.restore(sess, './model.ckpt')# .data文件 pred = tf.get_collection('network-output')[0] graph = tf.get_default_graph() x = graph.get_operation_by_name('x').outputs[0] y_ = graph.get_operation_by_name('y_').outputs[0] y = sess.run(pred, feed_dict={x: test_x, y_: test_y})
讲解一下关键的代码,首先是pred = tf.get_collection('pred_network')[0],这行代码获得训练过程中网络输出的“接口”,简单理解就是,通过tf.get_collection() 这个方法获取了整个网络结构。获得网络结构后我们就需要喂它对应的数据y = sess.run(pred, feed_dict={x: test_x, y_: test_y}) 在训练过程中我们的输入是
x = tf.placeholder(tf.float32, [None, in_units], name='x') y_ = tf.placeholder(tf.float32, [None, 10], name='y_')
因此导入模型后所需的输入也要与之对应可使用以下代码获得:
x = graph.get_operation_by_name('x').outputs[0] y_ = graph.get_operation_by_name('y_').outputs[0]
使用模型的最后一步就是输入测试集,然后按照训练好的网络进行评估
sess.run(pred, feed_dict={x: test_x, y_: test_y})
理解下这行代码,sess.run() 的函数原型为
run(fetches, feed_dict=None, options=None, run_metadata=None)
Tensorflow对 feed_dict 执行fetches操作,因此在导入模型后的运算就是,按照训练的网络计算测试输入的数据。
以上这篇Tensorflow实现在训练好的模型上进行测试就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持小牛知识库。
我已经在AWS SageMaker上使用内置算法语义分割训练了一个模型。这个名为model.tar.gz的训练模型存储在S3上。所以我想从S3下载这个文件,然后使用它在我的本地电脑上进行推断,而不使用AWS SageMaker。 以下是三个文件: > :包括网络架构、数据输入和训练的参数。请参阅语义分割超参数。 我的代码: 错误:
到目前为止,这是我认为我需要的行,但不确定它是否正确。 如果有人能告诉我如何正确地保存训练过的模型,以及使用哪些变量来使用保存的模型进行推理,我会非常感激的。
我仍在学习Python和创建模型,对使用Spacy的NLP非常陌生。我曾经https://spacy.io/usage/training#ner培训Spacy现有的模式——en_core_web_sm。 我用我的领域特定实体训练了这个模型。 现在我假设我会在输出目录中找到一个模型文件。相反,我有4个子文件夹——词汇表、ner、标记器、解析器。还有2个文件meta.json和标记器。ner子文件夹有
本文向大家介绍TensorFlow实现随机训练和批量训练的方法,包括了TensorFlow实现随机训练和批量训练的方法的使用技巧和注意事项,需要的朋友参考一下 TensorFlow更新模型变量。它能一次操作一个数据点,也可以一次操作大量数据。一个训练例子上的操作可能导致比较“古怪”的学习过程,但使用大批量的训练会造成计算成本昂贵。到底选用哪种训练类型对机器学习算法的收敛非常关键。 为了Tensor
本文向大家介绍python 用opencv调用训练好的模型进行识别的方法,包括了python 用opencv调用训练好的模型进行识别的方法的使用技巧和注意事项,需要的朋友参考一下 此程序为先调用opencv自带的人脸检测模型,检测到人脸后,再调用我自己训练好的模型去识别人脸,使用时更改模型地址即可 以上这篇python 用opencv调用训练好的模型进行识别的方法就是小编分享给大家的全部内容了,希
在之前的描述中,我们通常把机器学习模型和训练算法当作黑箱子来处理。如果你实践过前几章的一些示例,你惊奇的发现你可以优化回归系统,改进数字图像的分类器,你甚至可以零基础搭建一个垃圾邮件的分类器,但是你却对它们内部的工作流程一无所知。事实上,许多场合你都不需要知道这些黑箱子的内部有什么,干了什么。 然而,如果你对其内部的工作流程有一定了解的话,当面对一个机器学习任务时候,这些理论可以帮助你快速的找到恰