Tensorflow中正确的批次标准化功能是什么?

Tensorflow中正确的批次标准化功能是什么?,第1张

Tensorflow中正确的批次标准化功能是什么?

只是添加到列表中,还有其他几种方法可以在tensorflow中进行批处理规范:

  • tf.nn.batch_normalization
    是低级 *** 作。调用者负责自己处理
    mean
    variance
    张量
  • tf.nn.fused_batch_norm
    是另一个低级 *** 作,类似于上一个 *** 作。不同之处在于它针对4D输入张量进行了优化,这在卷积神经网络中很常见。
    tf.nn.batch_normalization
    接受任何大于1的等级的张量
  • tf.layers.batch_normalization
    是先前 *** 作的高级包装。最大的区别在于,它负责创建和管理运行均值和方差张量,并在可能时调用快速融合的op。通常,这应该是您的 默认选择
  • tf.contrib.layers.batch_norm
    是批处理规范的早期实现,它已逐步升级为核心API(即
    tf.layers
    )。不建议使用它,因为在将来的版本中可能会删除它。
  • tf.nn.batch_norm_with_global_normalization
    是另一个已弃用的 *** 作。当前,将呼叫委托给
    tf.nn.batch_normalization
    ,但将来可能会中断。
  • 最后,还有
    keras.layers.BatchNormalization
    Keras层,在tensorflow后端调用的情况下可以使用
    tf.nn.batch_normalization


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5616876.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-15
下一篇 2022-12-15

发表评论

登录后才能评论

评论列表(0条)

保存