python – 为什么局部响应范数纸方程和张量流实现之间存在这种差异?

python – 为什么局部响应范数纸方程和张量流实现之间存在这种差异?,第1张

概述我在Alex的 paper中发现了关于本地响应规范化的这个等式:    正如我们在上面看到的那样,在我们计算总和之后,将功率提高,将其与alpha相乘,然后在添加k之后添加. 但是,我在TensorFlow文档中看到它显示为 sqr_sum[a, b, c, d] = sum(input[a, b, c, d - depth_radius : d + depth_radius + 1] ** 我在Alex的 paper中发现了关于本地响应规范化的这个等式:
  

正如我们在上面看到的那样,在我们计算总和之后,将功率提高,将其与Alpha相乘,然后在添加k之后添加.

但是,我在TensorFlow文档中看到它显示为

sqr_sum[a,b,c,d] =  sum(input[a,d - depth_radius : d + depth_radius + 1] ** 2)output = input / (bias + Alpha * sqr_sum ** beta)

测试版仅针对总和筹集.

为什么这里有差异?

另外,当我查看TensorFlow代码本身时,我看到了这个:

output[b,r,d] /= (            np.power(bias + Alpha * np.sum(patch * patch),beta))

哪个看起来正确?

我有点困惑.有人可以纠正我吗?

解决方法 这是Tensorflow文档中的一个错误.

它是在2月26日由此提交修复的:
https://github.com/tensorflow/tensorflow/commit/ab48dbd4ac2095548a5bc8505e08e751d409727f#diff-632987400e5affbcdba4533444460b0e

总结

以上是内存溢出为你收集整理的python – 为什么局部响应范数纸方程张量流实现之间存在这种差异?全部内容,希望文章能够帮你解决python – 为什么局部响应范数纸方程和张量流实现之间存在这种差异?所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1197505.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-03
下一篇 2022-06-03

发表评论

登录后才能评论

评论列表(0条)

保存