【linux】nvidia-smi 查看GPU使用率100%

【linux】nvidia-smi 查看GPU使用率100%,第1张

【linux】nvidia-smi 查看GPU使用率100%

linux服务器下使用

nvidia-smi   or nvidia-smi -l 1【数字表示输出间隔】

命令查看GPU使用情况,三种情况

1、没有进程,GPU使用率为空

这种情况表示,没有进程占用GPU资源,属于为空的正常状态

2、有进程,GPU使用率在变化

我们如果想要终止进程

ps -ef|grep python

kill -9 58828  # 58828是该进程id

当然,也可以杀死所有python进程

killall -9 python

以前写的博客有以上教程,戳我进入。

3、看不到进程,但是GPU使用率100%

博主今天就遇到了这种情况,这种情况是不正常的,因此需要将GPU释放掉,不然的话,我无法使用GPU训练模型。

我先用

kill -9 2001

命令后,查看GPU使用情况:

进程是杀死了,但是GPU占用率还是100%

从网上找到了以下方法:

方法1:
使用

nvidia-smi -pm 1

命令,将驱动模式设置为常驻内存。

但是好像不管用,不知道什么原因。。。只能另寻其他方法

方法2:

使用命令

fuser -v /dev/nvidia*


使用命令杀死进程:

kill -9 65051 65052 65053 65054


GPU占用率都为0%,问题解决。

参考:

https://blog.csdn.net/sinat_28750977/article/details/80117313

https://blog.csdn.net/gostman/article/details/107456597

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5069826.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-11-16
下一篇 2022-11-16

发表评论

登录后才能评论

评论列表(0条)

保存