m1跑pytorch如何cpu

m1跑pytorch如何cpu,第1张

最新发布的Pytorch 1.12版别现已支撑对Mac的M1 GPU支撑,能够直接在官网进行选择,运用相应的指令进行下载装置。

即运用如下指令进行装置

pip3 install torch torchvision torchaudio

或许conda指令为:

conda install pytorch torchvision torchaudio -c pytorch

以下是Pytorch 1.12发布时所展现的性能比照,能够看到在训练和验证普遍都快了5-20倍。

运用M1芯片进行加快

要想像运用服务器的GPU上进行深度学习加快,就需要将模型放到GPU上,在服务器中这个 *** 作是经过

device = torch.device("cuda:0")

model = model.to(device)

完成,而MacBook Pro中只需要将cuda改为mps即可,即

device = torch.device("mps")

model = model.to(device)

例如,咱们能够将数据和模型经过指定device的方法生成或许从cpu搬到GPU上,示例代码如下:

import torch

import torchvision

device = torch.device("mps")

x = torch.randn(32, 32, device=device)

model = torchvision.models.resnet18().to(device)

print(x.device)

print(next(model.parameters()).device)

这里的变量x直接经过指定device的方法在mps即M1芯片的GPU上生成,而模型resnet18则是从CPU生成后搬到了mps。

在服务器上跑pytorch服务,cpu核心全部占用,影响其他服务的性能

pytorch默认是能用多少线程就用多少的,可通过一下方法设置线程

通过减少线程数,可以减少cpu占用,同时也会使得服务的qps有所下降

先在CPU中生成了随机数。linux跑pytorch因为先在CPU中生成了随机数。在使用pytorch的过程中,发现CPU占用率过高。经过检查,发现是因为先在CPU中生成了随机数,然后再调用to(device)传到GPU。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/11198028.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-14
下一篇 2023-05-14

发表评论

登录后才能评论

评论列表(0条)

保存