1 安装NVIDIA显卡驱动程序和CUDA工具包,并根据所用PyTorch版本选择对应的CUDA工具包版本。
2 安装cuDNN加速库和PyTorch等深度学习框架,并检查是否正确安装。
3 配置Python环境变量,并将所需依赖库导入到Python环境中。
4 在代码中添加相应的GPU使用语句,如`device=torchdevice('cuda')`,以使用GPU进行计算。
总之,在使用JSON开发板进行PyTorch开发时应当注意GPU环境的配置和使用方法,以充分利用GPU进行高效的深度学习计算。
许多同学误以为PyTorch和TensorFlow一样,运行时需要本机环境内的CUDA和CuDNN支持,但其实在一台没有安装CUDA的环境中按照官网的指南安装PyTorch也是可以正常在GPU上运行的。那么安装GPU版本的PyTorch需要什么?答案是:GPU和驱动。
我们看一下官网给出的 安装教程 :
在选择不同CUDA版本时,PyTorch版本号尾部会出现 cuxxx 的字样,也就是说,PyTorch在安装时会自动安装所需的CUDA运行库,用户只需要保持PyTorch版本(包含其内部的CUDA版本)、Nvidia驱动版本和GPU型号相匹配。
CUDA版本与驱动版本对应关系见下图:
通常情况下,只要驱动满足要求,并且PyTorch官方有预编译相应的CUDA版本,直接安装对应版本的PyTorch即可。
注意:安培(Ampere)架构GPU只支持CUDA110即以上版本,PyTorch官方只有17及以上版本才有预编译CUDA11,因此建议使用安培架构GPU的同学使用PyTorch17及以上版本
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)