欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

pytorch中的自动微分

程序员文章站 2022-07-13 11:35:06
...

在torch中的torch.autograd模块,提供了实现任意标量值函数自动求导的类和函数。针对一个张量只需要设置参数requires_grad=True,通过相关计算即可输出其在传播过程中的梯度(导数)信息。
代码示例:

import torch
x = torch.tensor([[1.0,2.0],[3.0,4.0]],requires_grad = True)
y = torch.sum(x**2+2*x+1)
print("x.requires_grad:",x.requires_grad)
print("y.requires_grad:",y.requires_grad) ##因为x可以求导,所以计算得到的y也是可以求导的
# x.requires_grad: True
# y.requires_grad: True

print("X:",x)
print("y:",y)
# X: tensor([[1., 2.],
#         [3., 4.]], requires_grad=True)
# y: tensor(54., grad_fn=<SumBackward0>)


##通过y.baxkward()计算y在x每个元素上的导数
y.backward()
x.grad
# tensor([[ 4.,  6.],
#         [ 8., 10.]])
#通过y.backward()即可自动计算出y在x每个元素上的导数,然后通过x的grad属性即可获取此时x的梯度信息,计算得到的梯度值等于2x+2