上一篇文章中,介绍了Pytorch的自动求导机制,可以帮我们通过反向传播,求解参数的导数。但模型中的神经层结构,还是需要自己构建,会很麻烦,本文介绍Pytorch中通过Sequential模型容器,快速搭建神经网络的方法。

代码示例

import torch 
import torch.nn as nn

N, D_in, H, D_out = 64, 1000, 100, 10

x = torch.randn(N, D_in)
y = torch.randn(N, D_out)

# 定义模型容器,快速搭建神经网络
model = nn.Sequential(
    nn.Linear(D_in, H),
    nn.ReLU(H),
    nn.Linear(H, D_out)
)

# 返回误差平方和
loss_fn = torch.nn.MSELoss(reduction='sum')

lr = 1e-4

for i in range(500):
    y_hat = model(x)

    loss = loss_fn(y_hat, y)
    print(i, loss)
    
    loss.backward()
    
    # 更新权重参数
    with torch.no_grad():
        for param in model.parameters():
            param -= param.grad * lr
            param.grad.zero_()

本文为 陈华 原创,欢迎转载,但请注明出处:http://edu.ichenhua.cn/read/309