目前,接受度最高的深度学习框架恐怕就是Pytorch了。
相对来说,Pytorch部署比较简单,版本之间的兼容程度明显好于Tensorflow。
使用一些预先定义好的框架实现深度学习功能还是很方便的。
这篇博客基于我对Pytorch代码部署的一些经验,提炼出一些部署该平台的注意事项,希望能够帮助那些对于该平台没有任何知识背景的同学,尽快上手。
首先我们需要安装Pycharm与Anaconda。
Pycharm:下载 PyCharm:JetBrains 为专业开发者提供的 Python IDE
Anaconda:Anaconda | The World's Most Popular Data Science Platform
对于Pycharm的激活,如果你是学生,又有教育后缀邮箱,可以使用该邮箱免费获得证书。
下载安装后,打开pycharm,File->New Project
然后来到如下界面:
Location目录为你项目的地址。
如果拟的anaconda配置成功,这里可以直接在New Conda Environment里的Location中配置拟的python虚拟环境路径以及选择对应的python版本。
我一般会选择3.7版本。
首先我们需要确定系统中的cuda版本,如果你还没有安装,首先要安装cuda。
我安装的Cuda版本是11.1。
查看系统的cuda版本,打开cmd使用命令
nvcc --version
在我的机器上显示如下:
安装cudatoolkit,由于之前的cuda版本是11.1,那么对应的在python环境中也要安装对应版本的cudatoolkit,使用命令:
conda install -c anaconda cudatoolkit
实际安装的应该是11.0版本,问题不大。
安装cudatoolkit后,要安装cudnn。
conda install -c anaconda cudnn
这里我们以torch1.7.1为例,部署代码如下:
pip install torch==1.7.1+cu110 torchvision==0.8.2+cu110 -f https://download.pytorch.org/whl/torch_stable.html
如果你希望使用其他版本,可以查询网址:
https://download.pytorch.org/whl/torch_stable.html
另外,更早的pytorch版本,如0.4.2等,可以参看:
Previous PyTorch Versions | PyTorch
3. 测试代码import torch
flag = torch.cuda.is_available()
if flag:
print("CUDA可使用")
else:
print("CUDA不可用")
ngpu= 1
# Decide which device we want to run on
device = torch.device("cuda:0" if (torch.cuda.is_available() and ngpu > 0) else "cpu")
print("驱动为:",device)
print("GPU型号: ",torch.cuda.get_device_name(0))
输出如下内容,则说明配置成功。
这个项目我只是用来学习的,所以硬件差一点也可以接受。
如果希望能够在实际项目中使用相关代码实现训练,显存以及显卡的算力还是要达到一定要求的。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)