with tf.GradientTape() as tape: loss = model(model.trainable_weights)tape.gradient(loss, model.trainable_weights)
这(可能很少)记录在GradientTape上。
我们不需要
tape.watch该变量,因为默认情况下会监视可训练的参数。
作为函数,可以写成
def gradient(model, x): x_tensor = tf.convert_to_tensor(x, dtype=tf.float32) with tf.GradientTape() as t: t.watch(x_tensor) loss = model(x_tensor) return t.gradient(loss, x_tensor).numpy()
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)