欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

第一模块图像识别常用分类模块pytorch model.named_parameters() ,model.parameters() ,model.state_dict().items()

程序员文章站 2022-07-05 19:41:45
pytorch model.named_parameters() ,model.parameters() ,model.state_dict().items()1、model.named_parameters(),迭代打印model.named_parameters()将会打印每一次迭代元素的名字和param。for name, param in model.named_parameters():print(name,param.requires_grad)param.requires_grad...

pytorch model.named_parameters() ,model.parameters() ,model.state_dict().items()
1、model.named_parameters(),迭代打印model.named_parameters()将会打印每一次迭代元素的名字和param。

for name, param in model.named_parameters():
	print(name,param.requires_grad)
	param.requires_grad=False

2、model.parameters(),迭代打印model.parameters()将会打印每一次迭代元素的param而不会打印名字,这是他和named_parameters的区别,两者都可以用来改变requires_grad的属性。

for  param in model.parameters():
	print(param.requires_grad)
	param.requires_grad=False

3、model.state_dict().items() 每次迭代打印该选项的话,会打印所有的name和param,但是这里的所有的param都是requires_grad=False,没有办法改变requires_grad的属性,所以改变requires_grad的属性只能通过上面的两种方式。

for name, param in model.state_dict().items():
	print(name,param.requires_grad=True)

4、改变了requires_grad之后要修改optimizer的属性。

  optimizer = optim.SGD(
            filter(lambda p: p.requires_grad, model.parameters()),   #只更新requires_grad=True的参数
            lr=cfg.TRAIN.LR,
            momentum=cfg.TRAIN.MOMENTUM,
            weight_decay=cfg.TRAIN.WD,
            nesterov=cfg.TRAIN.NESTEROV
        )

5、随机参数初始化

def init_weights(m):
    if isinstance(m, nn.Conv2d):
        torch.nn.init.xavier_uniform(m.weight.data)
model.apply(init_weights)

本文地址:https://blog.csdn.net/weixin_42394925/article/details/110849553

相关标签: 学习例子