tensorflow就是版本繁多,同一个功能有n种实现方式,之前一直用tf.gradient()计算梯度,今天发现还有tf.GradientTape.
参考:Tensorflow:tf.gradient()用法以及参数stop_gradient理解
import tensorflow as tf
a = tf.constant(3.)
b = 2*a
c = a+b
g = tf.gradients(c,[a,b],stop_gradients=[b])
with tf.Session() as sess:
print(sess.run(g))
import tensorflow as tf
x1 = tf.constant(3.0)
x2 = tf.constant(4.0)
with tf.GradientTape() as g:
g.watch([x1,x2])
y = x1 * x2
dy_dx = g.gradient(y,[x1,x2])
with tf.Session() as sess:
print(sess.run(dy_dx))
联系:都是计算梯度
区别:tf.GradientTape 与 tf.gradient() 相比增加了上下文属性,仅对 with tf.GradientTape() as tape 范围以内的变量计算梯度,更方便进行梯度计算管理。