今天来探索Pytorch中的优化器,使用优化器来优化参数是反向传播过程中必不可少的一个环节,在得到损失函数对每个参数的梯度之后,通过优化器更新所有参数,来达到反向传播的目的。春恋慕
Pytorch中的优化器实现在torch.optim包中,其中包含有多种优化算法,官方文档torch.optim。
首先构建优化器对象:
代码语言:javascript复制optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)
optimizer = optim.Adam([var1, var2], lr=0.0001)
构建时填入的参数随着优化器的不同而不同,依情况填写。
一个使用优化器的例子:
代码语言:javascript复制for input, target in dataset:
#必须要写的一步,将上一轮循环的梯度信息归零,避免上一步对下一步的影响
optimizer.zero_grad()
#得到输出
output = model(input)
#计算损失
loss = loss_fn(output, target)
#计算出损失函数对参数的梯度
loss.backward()
#根据得到的梯度更新参数
optimizer.step()
优化器的使用很方便并且简洁,查看各个优化器对应的算法时可以查看官方文档。