只是添加到列表中,还有其他几种方法可以在tensorflow中进行批处理规范:
tf.nn.batch_normalization
是低级 *** 作。调用者负责自己处理mean
和variance
张量。tf.nn.fused_batch_norm
是另一个低级 *** 作,类似于上一个 *** 作。不同之处在于它针对4D输入张量进行了优化,这在卷积神经网络中很常见。tf.nn.batch_normalization
接受任何大于1的等级的张量tf.layers.batch_normalization
是先前 *** 作的高级包装。最大的区别在于,它负责创建和管理运行均值和方差张量,并在可能时调用快速融合的op。通常,这应该是您的 默认选择 。tf.contrib.layers.batch_norm
是批处理规范的早期实现,它已逐步升级为核心API(即tf.layers
)。不建议使用它,因为在将来的版本中可能会删除它。tf.nn.batch_norm_with_global_normalization
是另一个已弃用的 *** 作。当前,将呼叫委托给tf.nn.batch_normalization
,但将来可能会中断。- 最后,还有
keras.layers.BatchNormalization
Keras层,在tensorflow后端调用的情况下可以使用tf.nn.batch_normalization
。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)