pytorch官方教程学习笔记02:AUTOGRAD自动求导
程序员文章站
2022-06-11 22:00:06
...
1.创建可求梯度的:
创建一个可以求梯度的张量:requires_grad=True
x = torch.ones(2, 2, requires_grad=True)
print(x)
之后添加:
a.requires_grad_(True)
2.求Gradients:
out.backward()
则,计算out的所有的变量。都计算出了其对应的梯度,若由x计算出了out:
print(x.grad)
3.特殊,由于计算出y有分段函数,整体不是可求导的,那么:应该给定值让其求导:
v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(v)
print(x.grad)
4.detach():截断反向传播流。
上一篇: 一些常见的【MYSQL优化】总结(一)
下一篇: 与Win键相关的快捷键组合整理
推荐阅读
-
pytorch学习笔记十四:自动微分机制(backward、torch.autograd.grad)
-
pytorch官方教程学习:AUTOGRAD自动求导
-
pytorch学习1-张量及基本操作、计算图、自动求导系统(学习笔记)
-
pytorch官方教程学习笔记2—— Datasets & DataLoaders
-
pytorch官方教程学习笔记1
-
pytorch官方教程学习笔记01:WHAT IS PYTORCH?
-
Pytorch官方教程学习笔记【01】-Pytorch深度学习60分钟闪电战-What is PyTorch?
-
Pytorch官方教程学习笔记(1)
-
pytorch官方教程学习笔记02:AUTOGRAD自动求导
-
Pytorch官方教程学习笔记(2)