【Pytorch深度学习实践】B站up刘二大人之LinearModel -代码理解与实现

【Pytorch深度学习实践】B站up刘二大人之LinearModel -代码理解与实现,第1张

开篇讲两句:

刘二大人的课程我是从前天(4月5日)开始看的,今天看完了advanced cnn这部分,我做的也是图像,所以开始撸代码了,这次一定要理解清楚;

对于刘老师的课程,我想说的是,他讲的非常透彻,不过门槛并不低,我有之前一段时间的pytorch跑通过几个github项目的基础和一些基本环境配置等基础,才能跟得上;

另一方面,刘老师不仅自己理解很彻底,讲起来也很流利,同时还解开了我一直以来困扰的好几个问题,比如resnet是怎么把梯度消失问题解决的,刘老师两页PPT完全给我讲明白了,非常感谢!

完整代码:
#!usr/bin/env python
# -*- coding:utf-8 _*-
"""
@author: 24_nemo
@file: myHandType01.py
@time: 2022/04/07
@desc:
"""

import numpy as np
import matplotlib.pyplot as plt

x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]


def forward(x):
    return x * w


# loss function 是 均方根误差 loss = (y_hat - y) ** 2
def loss(x, y):
    y_pred = forward(x)
    return (y_pred - y) * (y_pred - y)


w_list = []
mse_list = []

for w in np.arange(0.0, 4.0, 0.1):
    print('w=', w)
    l_sum = 0
    for x_val, y_val in zip(x_data, y_data):  # A zip object yielding tuples until an input is exhausted;
        y_pred_val = forward(x_val)
        loss_val = loss(x_val, y_val)  # 传入的是x_val,但是经过loss中的forward计算后,已经是y_hat(估计值)了;
        l_sum += loss_val
        print('\t', x_val, y_val, y_pred_val, loss_val)
    print('MSE=', l_sum / len(x_data))  # 求一下 损失的均值
    w_list.append(w)
    mse_list.append(l_sum / len(x_data))

plt.plot(w_list, mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()

运行结果:


默写出的错误:
#!usr/bin/env python
# -*- coding:utf-8 _*-
"""
@author: 24_nemo
@file: myHandType01.py
@time: 2022/04/07
@desc:
"""

import numpy as np
import matplotlib.pyplot as plt

x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]


def forward(x):
    return x * w


def loss(x, y):
    y_hat = forward(x)
    return (y_hat - y) ** 2


w_list = []
loss_list = []

for w in np.arange(0.0, 4.0, 0.1):
    loss_sum = 0
    loss_avg = 0
    for x_val, y_val in zip(x_data, y_data):
        loss_val = loss(x_val, y_val)
        loss_sum += loss_val
        loss_avg = loss_sum / len(x_data)
    w_list.append(w)
    loss_list.append(loss_avg)

plt.plot(w_list, loss_list)
plt.xlabel('w')
plt.ylabel('MSE')
plt.show()

  • loss_sum 那里,总是过不去,原因:没有提前设定一个初始值,设置为0后,问题解决。


  • 补充上一条:什么时候需要提前定义一个初始值?
    • 答:在需要用运算符计算得到该结果的时候,需要提前定义初始0值。


    • 对比:loss_val 行,采用 函数loss计算,而不是运算符运算,所以不用提前定义 loss_val 的值;
    • loss_sumloss_avg 是加法和除法计算得来,需要提前定义。


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/langs/567904.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-04-09
下一篇 2022-04-09

发表评论

登录后才能评论

评论列表(0条)

保存