pytorch官方教程学习:AUTOGRAD自动求导
程序员文章站
2022-06-27 14:15:25
官网1.创建可求梯度的:创建一个可以求梯度的张量:requires_grad=Truex = torch.ones(2, 2, requires_grad=True)print(x)之后添加:a.requires_grad_(True)2.求Gradients:out.backward()则,计算out的所有的变量。都计算出了其对应的梯度,若由x计算出了out:print(x.grad)3.特殊,由于计算出y有分段函数,整体不是可求导的,那么:应该给定值让其求导:v = t...
1.创建可求梯度的:
创建一个可以求梯度的张量:requires_grad=True
x = torch.ones(2, 2, requires_grad=True)
print(x)
之后添加:
a.requires_grad_(True)
2.求Gradients:
out.backward()
则,计算out的所有的变量。都计算出了其对应的梯度,若由x计算出了out:
print(x.grad)
3.特殊,由于计算出y有分段函数,整体不是可求导的,那么:应该给定值让其求导:
v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(v)
print(x.grad)
4.detach():截断反向传播流。
本文地址:https://blog.csdn.net/weixin_42721412/article/details/109814139
推荐阅读
-
PyTorch 的 自动求导(Autograd)
-
详解pytorch中的自动求导Autograd,彻底理解gradient参数
-
PyTorch自动求导:Autograd包案例详解
-
深度学习pytorch基础入门教程(1小时)-自动梯度
-
pytorch学习笔记十四:自动微分机制(backward、torch.autograd.grad)
-
Pytorch基础教程(3):入门——autograd自动微分
-
pytorch官方教程学习:AUTOGRAD自动求导
-
pytorch学习1-张量及基本操作、计算图、自动求导系统(学习笔记)
-
pytorch官方教程学习笔记2—— Datasets & DataLoaders
-
【pytorch官方文档学习之三】autograd