pytorch的梯度计算以及backward方法详解


Posted in Python onJanuary 10, 2020

基础知识

tensors:

tensor在pytorch里面是一个n维数组。我们可以通过指定参数reuqires_grad=True来建立一个反向传播图,从而能够计算梯度。在pytorch中一般叫做dynamic computation graph(DCG)——即动态计算图。

import torch
import numpy as np

# 方式一
x = torch.randn(2,2, requires_grad=True)

# 方式二
x = torch.autograd.Variable(torch.Tensor([2,3]), requires_grad=True)

#方式三
x = torch.tensor([2,3], requires_grad=True, dtype=torch.float64)

# 方式四
x = np.array([1,2,3] ,dtype=np.float64)
x = torch.from_numpy(x)
x.requires_grad = True
# 或者 x.requires_grad_(True)

note1:在pytorch中,只有浮点类型的数才有梯度,故在方法四中指定np数组的类型为float类型。为什么torch.Tensor中不需要呢,可以通过以下代码验证

import torch
import numpy as np

a = torch.Tensor([2,3])
print(a.dtype) # torch.floaat32

b = torch.tensor([2,3])
print(b.dtype) # torch.int64

 c = np.array(2,3)
 print(c.dtype) # int64

note2pytorch中tensor与Tensor的区别是什么?这两个看起来如此相似。

首先,torch.Tensor是一个类,所有的tensor都是Tensor的一个实例;而torch.tensor是一个函数。这也说明了为什么使用torch.Tensor()没有问题而torch.tensor()却有问题。

其次,torch.tensor主要是将一个data封装成tensor,并且可以指定requires_grad。

torch.tensor(data,dtype=None,device=None,requires_grad=False) - > Tensor

最后,我们更多地使用torch.tensor,我们可以通过使用torch.tensor(())来达到与torch.Tensor()同样的效果。

具体可参考torch.tensor与torch.Tensor的区别

Dynamic Computational graph

我们来看一个计算图

pytorch的梯度计算以及backward方法详解

我们 来看一个计算图 解释一下各个属性的含义,

data: 变量中存储的值,如x中存储着1,y中存储着2,z中存储着3

requires_grad:该变量有两个值,True 或者 False,如果为True,则加入到反向传播图中参与计算。

grad:该属性存储着相关的梯度值。当requires_grad为False时,该属性为None。即使requires_grad为True,也必须在调用其他节点的backward()之后,该变量的grad才会保存相关的梯度值。否则为None

grad_fn:表示用于计算梯度的函数。

is_leaf:为True或者False,表示该节点是否为叶子节点。

当调用backward函数时,只有requires_grad为true以及is_leaf为true的节点才会被计算梯度,即grad属性才会被赋予值。

梯度计算

examples

运算结果变量的requires_grad取决于输入变量。例如:当变量z的requires_grad属性为True时,为了求得z的梯度,那么变量b的requires_grad就必须为true了,而变量x,y,a的requires_grad属性都为False。

将事先创建的变量,如x、y、z称为创建变量;像a、b这样由其他变量运算得到的称为结果变量。

from torch.autograd import Variable

x = Variable(torch.randn(2,2))
y = Variable(torch.randn(2,2))
z = Variable(torch.randn(2,2), requires_grad=True)


a = x+y
b = a+z

print(x.requires_grad, y.requires_grad, z.requires_grad) # False, False, True
print(a.requires_grad, b.requires_grad) # False, True

print(x.requires_grad) # True
print(a.requires_grad) # True

调用backward()计算梯度

import torch as t
from torch.autograd import Variable as v

a = v(t.FloatTensor([2, 3]), requires_grad=True) 
b = a + 3
c = b * b * 3
out = c.mean()
out.backward(retain_graph=True) # 这里可以不带参数,默认值为‘1',由于下面我们还要求导,故加上retain_graph=True选项

print(a.grad) # tensor([15., 18.])

backward中的gradient参数使用

a. 最后的结果变量为标量(scalar)

如第二个例子,通过调用out.backward()实现对a的求导,这里默认调用了out.backward(gradient=None)或者指定为out.backward(gradient=torch.Tensor([1.0])

b. 最后的结果变量为向量(vector)

import torch
from torch.autograd import Variable as V

m = V(torch.FloatTensor([2, 3]), requires_grad=True) # 注意这里有两层括号,非标量
n = V(torch.zeros(2))
n[0] = m[0] ** 2
n[1] = m[1] ** 3
n.backward(gradient=torch.Tensor([1,1]), retain_graph=True)
print(m.grad)

结果为:

tensor([ 4., 27.])

如果使用n.backward()的话,那么就会报如下的错:RuntimeError: grad can be implicitly created only for scalar outputs

注意:这里的gradient的维度必须与n的维度相同。其中的原理如下:

在执行z.backward(gradient)的时候,如果z不是一个标量,那么先构造一个标量的值:L = torch.sum(z*gradient),再计算关于L对各个leaf Variable的梯度。

pytorch的梯度计算以及backward方法详解

以上这篇pytorch的梯度计算以及backward方法详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持三水点靠木。

Python 相关文章推荐
Python随机读取文件实现实例
May 25 Python
Django重置migrations文件的方法步骤
May 01 Python
python对象与json相互转换的方法
May 07 Python
Python动态参数/命名空间/函数嵌套/global和nonlocal
May 29 Python
Windows 安装 Anaconda3+PyCharm的方法步骤
Jun 13 Python
详解Python 中sys.stdin.readline()的用法
Sep 12 Python
Python 类的私有属性和私有方法实例分析
Sep 29 Python
python numpy 矩阵堆叠实例
Jan 17 Python
python dumps和loads区别详解
Feb 04 Python
python 服务器运行代码报错ModuleNotFoundError的解决办法
Sep 16 Python
Python中OpenCV实现简单车牌字符切割
Jun 11 Python
python中的装饰器该如何使用
Jun 18 Python
Python如何获取Win7,Win10系统缩放大小
Jan 10 #Python
python-OpenCV 实现将数组转换成灰度图和彩图
Jan 09 #Python
Python 实现将数组/矩阵转换成Image类
Jan 09 #Python
python 实现将Numpy数组保存为图像
Jan 09 #Python
Python+OpenCV实现将图像转换为二进制格式
Jan 09 #Python
如何使用Python破解ZIP或RAR压缩文件密码
Jan 09 #Python
python读取raw binary图片并提取统计信息的实例
Jan 09 #Python
You might like
php事务处理实例详解
2014/07/11 PHP
ThinkPHP 404页面的设置方法
2015/01/14 PHP
实现PHP框架系列文章(6)mysql数据库方法
2016/03/04 PHP
php7 错误处理机制修改实例分析
2020/05/25 PHP
禁止F5等快捷键的JS代码
2007/03/06 Javascript
JS判断是否为数字,是否为整数,是否为浮点数的代码
2010/04/24 Javascript
js点击事件链接的问题解决
2014/04/25 Javascript
前端程序员必须知道的高性能Javascript知识
2016/08/24 Javascript
js 获取元素的具体样式信息getcss(实例讲解)
2017/07/05 Javascript
通过命令行创建vue项目的方法
2017/07/20 Javascript
从对象列表中获取一个对象的方法,依据关键字和值
2017/09/20 Javascript
原生js封装添加class,删除class的实例
2017/11/06 Javascript
vue2.0页面前进刷新回退不刷新的实现方法
2018/07/31 Javascript
js删除对象/数组中null、undefined、空对象及空数组方法示例
2018/11/14 Javascript
layui监听工具栏的实例(操作列表按钮)
2019/09/10 Javascript
Vue如何使用混合Mixins和插件开发详解
2020/02/05 Javascript
[02:46]解说DC:感谢430陪伴我们的DOTA2国际邀请赛岁月
2016/06/29 DOTA
[36:20]KG vs SECRET 2019国际邀请赛小组赛 BO2 第二场 8.16
2019/08/19 DOTA
python encode和decode的妙用
2009/09/02 Python
35个Python编程小技巧
2014/04/01 Python
对python中return和print的一些理解
2017/08/18 Python
Python 3 实现定义跨模块的全局变量和使用教程
2019/07/07 Python
Python 输出详细的异常信息(traceback)方式
2020/04/08 Python
Python 如何调试程序崩溃错误
2020/08/03 Python
Python如何使用ElementTree解析xml
2020/10/12 Python
python使用selenium爬虫知乎的方法示例
2020/10/28 Python
详解CSS3的图层阴影和文字阴影效果使用
2016/06/09 HTML / CSS
eBay德国站:eBay.de
2017/09/14 全球购物
大学学生会竞选演讲稿
2014/04/25 职场文书
教师纪念9.18事件演讲稿范文
2014/09/14 职场文书
酒店管理失职检讨书
2014/09/16 职场文书
房产转让协议书(2014版)
2014/09/30 职场文书
千与千寻观后感
2015/06/04 职场文书
人生遥控器观后感
2015/06/11 职场文书
2019年最新借条范本!
2019/07/08 职场文书
python中sys模块的介绍与实例
2021/04/17 Python