pytorch的梯度计算以及backward方法详解


Posted in Python onJanuary 10, 2020

基础知识

tensors:

tensor在pytorch里面是一个n维数组。我们可以通过指定参数reuqires_grad=True来建立一个反向传播图,从而能够计算梯度。在pytorch中一般叫做dynamic computation graph(DCG)——即动态计算图。

import torch
import numpy as np

# 方式一
x = torch.randn(2,2, requires_grad=True)

# 方式二
x = torch.autograd.Variable(torch.Tensor([2,3]), requires_grad=True)

#方式三
x = torch.tensor([2,3], requires_grad=True, dtype=torch.float64)

# 方式四
x = np.array([1,2,3] ,dtype=np.float64)
x = torch.from_numpy(x)
x.requires_grad = True
# 或者 x.requires_grad_(True)

note1:在pytorch中,只有浮点类型的数才有梯度,故在方法四中指定np数组的类型为float类型。为什么torch.Tensor中不需要呢,可以通过以下代码验证

import torch
import numpy as np

a = torch.Tensor([2,3])
print(a.dtype) # torch.floaat32

b = torch.tensor([2,3])
print(b.dtype) # torch.int64

 c = np.array(2,3)
 print(c.dtype) # int64

note2pytorch中tensor与Tensor的区别是什么?这两个看起来如此相似。

首先,torch.Tensor是一个类,所有的tensor都是Tensor的一个实例;而torch.tensor是一个函数。这也说明了为什么使用torch.Tensor()没有问题而torch.tensor()却有问题。

其次,torch.tensor主要是将一个data封装成tensor,并且可以指定requires_grad。

torch.tensor(data,dtype=None,device=None,requires_grad=False) - > Tensor

最后,我们更多地使用torch.tensor,我们可以通过使用torch.tensor(())来达到与torch.Tensor()同样的效果。

具体可参考torch.tensor与torch.Tensor的区别

Dynamic Computational graph

我们来看一个计算图

pytorch的梯度计算以及backward方法详解

我们 来看一个计算图 解释一下各个属性的含义,

data: 变量中存储的值,如x中存储着1,y中存储着2,z中存储着3

requires_grad:该变量有两个值,True 或者 False,如果为True,则加入到反向传播图中参与计算。

grad:该属性存储着相关的梯度值。当requires_grad为False时,该属性为None。即使requires_grad为True,也必须在调用其他节点的backward()之后,该变量的grad才会保存相关的梯度值。否则为None

grad_fn:表示用于计算梯度的函数。

is_leaf:为True或者False,表示该节点是否为叶子节点。

当调用backward函数时,只有requires_grad为true以及is_leaf为true的节点才会被计算梯度,即grad属性才会被赋予值。

梯度计算

examples

运算结果变量的requires_grad取决于输入变量。例如:当变量z的requires_grad属性为True时,为了求得z的梯度,那么变量b的requires_grad就必须为true了,而变量x,y,a的requires_grad属性都为False。

将事先创建的变量,如x、y、z称为创建变量;像a、b这样由其他变量运算得到的称为结果变量。

from torch.autograd import Variable

x = Variable(torch.randn(2,2))
y = Variable(torch.randn(2,2))
z = Variable(torch.randn(2,2), requires_grad=True)


a = x+y
b = a+z

print(x.requires_grad, y.requires_grad, z.requires_grad) # False, False, True
print(a.requires_grad, b.requires_grad) # False, True

print(x.requires_grad) # True
print(a.requires_grad) # True

调用backward()计算梯度

import torch as t
from torch.autograd import Variable as v

a = v(t.FloatTensor([2, 3]), requires_grad=True) 
b = a + 3
c = b * b * 3
out = c.mean()
out.backward(retain_graph=True) # 这里可以不带参数,默认值为‘1',由于下面我们还要求导,故加上retain_graph=True选项

print(a.grad) # tensor([15., 18.])

backward中的gradient参数使用

a. 最后的结果变量为标量(scalar)

如第二个例子,通过调用out.backward()实现对a的求导,这里默认调用了out.backward(gradient=None)或者指定为out.backward(gradient=torch.Tensor([1.0])

b. 最后的结果变量为向量(vector)

import torch
from torch.autograd import Variable as V

m = V(torch.FloatTensor([2, 3]), requires_grad=True) # 注意这里有两层括号,非标量
n = V(torch.zeros(2))
n[0] = m[0] ** 2
n[1] = m[1] ** 3
n.backward(gradient=torch.Tensor([1,1]), retain_graph=True)
print(m.grad)

结果为:

tensor([ 4., 27.])

如果使用n.backward()的话,那么就会报如下的错:RuntimeError: grad can be implicitly created only for scalar outputs

注意:这里的gradient的维度必须与n的维度相同。其中的原理如下:

在执行z.backward(gradient)的时候,如果z不是一个标量,那么先构造一个标量的值:L = torch.sum(z*gradient),再计算关于L对各个leaf Variable的梯度。

pytorch的梯度计算以及backward方法详解

以上这篇pytorch的梯度计算以及backward方法详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持三水点靠木。

Python 相关文章推荐
python中的sort方法使用详解
Jul 25 Python
Python实现的人工神经网络算法示例【基于反向传播算法】
Nov 11 Python
简述Python2与Python3的不同点
Jan 21 Python
python 删除列表里所有空格项的方法总结
Apr 18 Python
Python给图像添加噪声具体操作
Mar 03 Python
Django处理Ajax发送的Get请求代码详解
Jul 29 Python
在python中logger setlevel没有生效的解决
Feb 21 Python
Django实现任意文件上传(最简单的方法)
Jun 03 Python
Python实现冒泡排序算法的完整实例
Nov 04 Python
python中if和elif的区别介绍
Nov 07 Python
pd.DataFrame中的几种索引变换的实现
Jun 16 Python
使用pd.merge表连接出现多余行的问题解决
Jun 16 Python
Python如何获取Win7,Win10系统缩放大小
Jan 10 #Python
python-OpenCV 实现将数组转换成灰度图和彩图
Jan 09 #Python
Python 实现将数组/矩阵转换成Image类
Jan 09 #Python
python 实现将Numpy数组保存为图像
Jan 09 #Python
Python+OpenCV实现将图像转换为二进制格式
Jan 09 #Python
如何使用Python破解ZIP或RAR压缩文件密码
Jan 09 #Python
python读取raw binary图片并提取统计信息的实例
Jan 09 #Python
You might like
php 在文件指定行插入数据的代码
2010/05/08 PHP
PHP中输出转义JavaScript代码的实现代码
2011/04/22 PHP
Yii2.0实现生成二维码功能实例
2017/10/24 PHP
PHP实现的多维数组排序算法分析
2018/02/10 PHP
Laravel框架定时任务2种实现方式示例
2018/12/08 PHP
javascript学习基础笔记之DOM对象操作
2011/11/03 Javascript
jquery得到font-size属性值实现代码
2013/09/30 Javascript
JavaScript中toString()方法的使用详解
2015/06/05 Javascript
jQuery1.9.1源码分析系列(十六)ajax之ajax框架
2015/12/04 Javascript
正则表达式(语法篇推荐)
2016/06/24 Javascript
瀑布流的实现方式(原生js+jquery+css3)
2020/06/28 Javascript
JavaScript实现输入框与清空按钮联动效果
2016/09/09 Javascript
jquery对象和DOM对象的相互转换详解
2016/10/18 Javascript
js调用父框架函数与弹窗调用父页面函数的简单方法
2016/11/01 Javascript
完美实现js拖拽效果 return false用法详解
2017/07/28 Javascript
Angular 作用域scope的具体使用
2017/12/11 Javascript
vue-router重定向不刷新问题的解决
2018/06/25 Javascript
vue.js使用v-pre与v-html输出HTML操作示例
2018/07/07 Javascript
Vue全局分页组件的实现代码
2018/08/10 Javascript
使用Bootstrap做一个朝代历史表
2019/12/10 Javascript
JS控制下拉列表左右选择实例代码
2020/05/08 Javascript
vue页面跳转实现页面缓存操作
2020/07/22 Javascript
Python BeautifulSoup中文乱码问题的2种解决方法
2014/04/22 Python
python实现简单的TCP代理服务器
2014/10/08 Python
Python运算符重载详解及实例代码
2017/03/07 Python
Django 在iframe里跳转顶层url的例子
2019/08/21 Python
python @classmethod 的使用场合详解
2019/08/23 Python
python yield关键词案例测试
2019/10/15 Python
pycharm无法导入本地模块的解决方式
2020/02/12 Python
Python关于__name__属性的含义和作用详解
2020/02/19 Python
浅析pandas随机排列与随机抽样
2021/01/22 Python
部门经理迟到检讨书
2015/02/16 职场文书
暂住证证明
2015/06/19 职场文书
劳动模范获奖感言
2015/07/31 职场文书
竞聘开场白方式有哪些?
2019/08/28 职场文书
CKAD认证中部署k8s并配置Calico插件
2022/03/31 Servers