Posted in Python onJanuary 06, 2020
python代码
for i, para in enumerate(self._net.module.features.parameters()): if i < 16: para.requires_grad = False else: para.requires_grad = True # Solver. # self._solver = torch.optim.SGD( # self._net.parameters(), lr=self._options['base_lr'], # momentum=0.9, weight_decay=self._options['weight_decay']) self._solver = torch.optim.SGD( self._net.module.parameters(), lr=self._options['base_lr'], momentum=0.9, weight_decay=self._options['weight_decay'])
分析
通过for循环将需要冻结的layer的requires_grad属性设置为False
以上这篇Pytorch 实现冻结指定卷积层的参数就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持三水点靠木。
Pytorch 实现冻结指定卷积层的参数
- Author -
陈军2号声明:登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。
Reply on: @reply_date@
@reply_contents@