我在我们的一个分期系统上找到了一个35GB大小的coredump.我们的 *** 作说明要求使用gdb创建回溯.我担心gdb会尝试将完整的coredump加载到内存中,并通过耗尽所有可用内存来使暂存区域无法使用.
我们在RedHat EL 5/64位安装上使用gdb 7.0.1.
解决方法When opening a coredump with gdb,will gdb try to load the full coredump into memory?
没有.
I’m afraID gdb will try to load the full coredump into memory and render the staging area unusable by using up all available memory.
即使没有加载整个核心转储,GDB也会占用一些内存,因此您可能会对登台系统产生影响.如果您负担不起,则需要修改“ *** 作程序”,例如:将核心移动到另一个系统并在那里进行分析.注意:如果您的可执行文件使用动态链接,则必须安排动态库在生成核心转储时和分析时完全匹配.
总结以上是内存溢出为你收集整理的linux – 巨大的coredumps的gdb内存使用情况全部内容,希望文章能够帮你解决linux – 巨大的coredumps的gdb内存使用情况所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)