参考资料1
logits就是最终的全连接层的输出(在未经过softmax之前的,就是未归一化的概率)
参考链接2
对python直接赋值、浅拷贝和深度拷贝也要了解
参考资料3
pytorch保存模型 python三元表达式i = 5 if a > 7 else 0
SGD优化器理论理解以pytorch的torch.optim.SGD(params,
lr=,
momentum=0,
dampening=0,
weight_decay=0,
nesterov=False)
为例进行解释
Optimizer.zero_grad()让w的偏导数为0;下面代码的注释可以好好理解
Momentum作用
超参数momentum与weight-decay作用
参考资料5
参考资料6
git branch查看当前分支
git checkout 分支名:切换分支(已有分支)
参考资料7
通过chain()函数
from itertools import chain
参考资料8
参考链接9
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)