PyTorch学习笔记(3)autograd 自动求导
程序员文章站
2022-03-21 20:47:43
...
自动求导
torch.autograd.backward
自动求取梯度
tensors 用于求导的张量
retain_graph 保存计算图
create_graph 创建导数计算图 用于高阶求导
grad_tensors 多梯度权重
flag = True
# flag = False
if flag:
# requires_grad 要求梯度
w = torch.tensor([1.],requires_grad=True)
x = torch.tensor([2.],requires_grad=True)
a = torch.add(w,x)
b = torch.add(w,1)
y = torch.mul(a,b)
y.backward()
print(w.grad)
autograd
梯度不自动清零
依赖于叶子结点的节点, requires_grad默认为True
叶子结点不可执行in-place
# flag = True
flag = False
if flag:
w = torch.tensor([1.],requires_grad=True)
x = torch.tensor([2.],requires_grad=True)
for i in range(2):
a = torch.add(w,x)
b = torch.add(w,1)
y = torch.mul(a,b)
y.backward()
print(w.grad)
w.grad.zero_()
flag = True
if flag:
a = torch.ones((1,))
print(id(a),a)
a = a+torch.ones((1,))
print(id(a),a)
上一篇: #leetcode刷题之路50-Pow(x, n)
下一篇: Beego 学习笔记12:文件的操作
推荐阅读
-
WPF学习笔记(3):ListView根据内容自动调整列宽
-
PyTorch 的 自动求导(Autograd)
-
详解pytorch中的自动求导Autograd,彻底理解gradient参数
-
PyTorch自动求导:Autograd包案例详解
-
pytorch 学习笔记3 —— Neural Networks
-
pytorch学习笔记十四:自动微分机制(backward、torch.autograd.grad)
-
Pytorch基础教程(3):入门——autograd自动微分
-
自动驾驶(六十七)---------ROS学习笔记(3)
-
pytorch官方教程学习:AUTOGRAD自动求导
-
pytorch学习1-张量及基本操作、计算图、自动求导系统(学习笔记)