Pytorch反向求导更新网络参数的方法
方法一:手动计算变量的梯度,然后更新梯度
importtorch fromtorch.autogradimportVariable #定义参数 w1=Variable(torch.FloatTensor([1,2,3]),requires_grad=True) #定义输出 d=torch.mean(w1) #反向求导 d.backward() #定义学习率等参数 lr=0.001 #手动更新参数 w1.data.zero_()#BP求导更新参数之前,需先对导数置0 w1.data.sub_(lr*w1.grad.data)
一个网络中通常有很多变量,如果按照上述的方法手动求导,然后更新参数,是很麻烦的,这个时候可以调用torch.optim
方法二:使用torch.optim
importtorch fromtorch.autogradimportVariable importtorch.nnasnn importtorch.optimasoptim #这里假设我们定义了一个网络,为net steps=10000 #定义一个optim对象 optimizer=optim.SGD(net.parameters(),lr=0.01) #在for循环中更新参数 foriinrange(steps): optimizer.zero_grad()#对网络中参数当前的导数置0 output=net(input)#网络前向计算 loss=criterion(output,target)#计算损失 loss.backward()#得到模型中参数对当前输入的梯度 optimizer.step()#更新参数
注意:torch.optim只用于参数更新和对参数的梯度置0,不能计算参数的梯度,在使用torch.optim进行参数更新之前,需要写前向与反向传播求导的代码
以上这篇Pytorch反向求导更新网络参数的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
热门推荐
10 永远漂亮祝福语女生简短
11 农民朋友发财祝福语简短
12 虎年新年专属祝福语简短
13 美丽晚霞祝福语简短句
14 潮汕生日谚语祝福语简短
15 孙女结婚姥姥祝福语简短
16 女神节日简短祝福语大全
17 对航母的祝福语简短
18 最美婆婆生日祝福语简短