正如我们在上面看到的那样,在我们计算总和之后,将功率提高,将其与Alpha相乘,然后在添加k之后添加.
但是,我在TensorFlow文档中看到它显示为
sqr_sum[a,b,c,d] = sum(input[a,d - depth_radius : d + depth_radius + 1] ** 2)output = input / (bias + Alpha * sqr_sum ** beta)
测试版仅针对总和筹集.
为什么这里有差异?
另外,当我查看TensorFlow代码本身时,我看到了这个:
output[b,r,d] /= ( np.power(bias + Alpha * np.sum(patch * patch),beta))
哪个看起来正确?
我有点困惑.有人可以纠正我吗?
解决方法 这是Tensorflow文档中的一个错误.它是在2月26日由此提交修复的:
https://github.com/tensorflow/tensorflow/commit/ab48dbd4ac2095548a5bc8505e08e751d409727f#diff-632987400e5affbcdba4533444460b0e
以上是内存溢出为你收集整理的python – 为什么局部响应范数纸方程和张量流实现之间存在这种差异?全部内容,希望文章能够帮你解决python – 为什么局部响应范数纸方程和张量流实现之间存在这种差异?所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)