BERT是2018年10月由Google AI研究院提出的一种预训练模型。BERT的全称是Bidirectional Encoder Representation from Transformers。BERT在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人的成绩: 全部两个衡量指标上全面超越人类,并且在11种不同NLP测试中创出SOTA表现,包括将GLUE基准推高至80.4% (绝对改进7.6%),MultiNLI准确度达到86.7% (绝对改进5.6%),成为NLP发展史上的里程碑式的模型成就。
一、安装配置初步运行环境安装文章链接: 点击打开《基于Windows中学习Deep Learning之搭建Anaconda+Pytorch(Cuda+Cudnn)+Pycharm工具和配置环境完整最简版》文章
二、根据上面的文章配置好初步环境后,复制粘贴下面命令打开“D:\Anaconda\Scripts”路径下的控制平台CMD运行安装transformers,若出现下面图片中的错误无法正常安装则继续往后 *** 作进行,没出现问题直接跳转到第九步。pip install transformers
三、打开Anaconda Prompt,依次复制下面的命令运行,然后将“D:\Anaconda\envs\transformers\Scripts”添加到环境变量PATH中。注意:下面命令中的python=3.7是根据博主安装的python版本对应的,若你安装的是其他版本可以进行对应的修改。
conda create -n transformers python=3.7
conda env list
pip install transformers
五、下载完成后将对应下载的文件复制粘贴到“D:\Anaconda\Scripts”路径下,复制粘贴过程中若提示重复的文件,要选择直接跳过。
pip install transformers
pip install --ignore-installed PyYAML
八、复制粘贴下面命令运行,等待十秒成功安装见下图。
pip install transformers
九、测试安装transformers是否成功,运行下面的代码是否报错,若报错表示没有安装成功见下图。
from transformers import BertTokenizer, BertModel, BertForMaskedLM
十、若没有报错表示安装成功,见下图。
注意:有些涉及Bert模型配置运行环境的文章和github仓库依旧使用下面的命令进行环境的安装,但是总是提示无法安装,原因是Hugging Face的这款BERT工具以前称为pytorch-transformers和pytorch-pretrained-bert,在不断的更新迭代中已经更名为transformers这个名字,自然安装pytorch-pretrained-bert是无法正常安装的,所以要改成安装transformers。
pip install pytorch-pretrained-bert
pip install transformers
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)