trace.Log( String.Format("a= {0:F10} b= {1:F10} a<b= {2}",b.GetPixel(447,517).GetBrightness(),(100F / 255F),517).GetBrightness() < (100F / 255F)));
在调试模式下输出:
a= 0.3921569000 b= 0.3921569000 a<b= False
但这种不同的结果在发布模式中:
a= 0.3921569000 b= 0.3921569000 a<b= True
在我寻找一种在两种模式之间获得一致算术的方法之前,我可以使用什么代码来显示变量中的隐藏精度,这些精度可能包含导致这种差异的变化?谢谢.
解决方法 有一个 standard numeric format string正是您正在寻找的东西:“r”(用于“往返”).它为您提供了一个具有足够数字的字符串,以保证在您再次解析它时,将完全重现您开始使用的相同位.因此,使用{0:r}代替{0:F10},您将获得所有可用的精度.
总结以上是内存溢出为你收集整理的c# – 如何将值输出到精度足以揭示Debug和Release之间的算术差异?全部内容,希望文章能够帮你解决c# – 如何将值输出到精度足以揭示Debug和Release之间的算术差异?所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)