一般来说,我对Tensorflow和ML还是比较陌生,因此我对一个(可能)琐碎的问题表示歉意。
我使用辍学技术来提高网络的学习速度,并且看起来工作得很好。然后,我想在一些数据上测试网络,看它是否像这样工作:
def Ask(self, image):
return self.session.run(self.model, feed_dict = {self.inputPh: image})
显然,由于辍学仍然存在,每次产生不同的结果。我能想到的一种解决方案是创建两个单独的模型-
一个用于训练,另一个用于实际以后使用网络,但是,这种解决方案对我来说似乎不切实际。
解决此问题的常用方法是什么?
最简单的方法是使用来更改keep_prob
参数placeholder_with_default
:
prob = tf.placeholder_with_default(1.0, shape=())
layer = tf.nn.dropout(layer, prob)
这样,当您训练时,可以像这样设置参数:
sess.run(train_step, feed_dict={prob: 0.5})
评估时使用默认值1.0。
问题内容: 我正在尝试通过Nehe指南来学习OpenGL并提高我的C ++技能,但是所有示例均适用于Windows,而我目前使用的是Linux。我真的不知道如何使事情在Linux下工作,并且已经移植到Linux的网站上的代码中还有很多未解释的代码(到目前为止,我唯一要做的就是工作就是SDL示例:http : //nehe.gamedev.net/data/lessons/linuxsdl/less
问题内容: 您好,我要在关闭选项卡(不是浏览器)事件中查找信息,如果Java中有一个applet信息。我想知道是否有一个事件或一种检查该方法的方法。我只想捕获事件并创建一个小弹出框,说明您的会话将过期或类似的内容。使用Java或Javascript完全有可能吗? 更新:好的,你们向我指出的信息使我能够获得足够简单的JavaScript信息。现在它在IE,Chrome和Firefox中可以正常工作,
问题内容: 我想知道是否有一种方法可以对Caffe中的不同层使用不同的学习率。我正在尝试修改预训练的模型,并将其用于其他任务。我想要的是加快对新添加的层的培训,并使受过培训的层保持较低的学习率,以防止它们变形。例如,我有一个5转换层的预训练模型。现在,我添加一个新的转换层并对其进行微调。前5层的学习率为0.00001,后5层的学习率为0.001。任何想法如何实现这一目标? 问题答案: 使用2个优化
当我运行laravel黄昏测试时,cmd会显示很多控制台消息,例如: 我怎样才能防止这种情况?在测试时,它会在每一页中显示这一点
问题内容: 我想为一些连接到数据库,运行一个或多个查询然后处理结果的代码编写一些单元测试。(实际上没有使用数据库) 这里的另一个开发人员编写了我们自己的DataSource,Connection,Statement,PreparedStatement和ResultSet实现,这些实现将基于xml配置文件返回相应的对象。(我们可以使用伪造的数据源,并针对返回的结果集运行测试)。 我们在这里重新发明轮
我对Java还很陌生,我试着查了一下,但没有找到任何有用的东西。我想知道我怎么能检测到一个特定的窗口关闭了?我一直在使用windowClosing(),但这适用于关闭的任何窗口,因此如果窗口B关闭,我希望由于窗口a关闭而发生的事件也会发生。我如何只在窗口A关闭的情况下进行检测?抱歉,如果这是一个糟糕的措辞,我不知道那么多Java术语。提前致谢:)