PyTorch——Dropout(丢弃法)
程序员文章站
2022-07-13 10:39:53
...
参考链接
- https://tangshusen.me/Dive-into-DL-PyTorch/#/chapter03_DL-basics/3.13_dropout
dropout
深度学习模型常常使用丢弃法(dropout)来应对过拟合问题。丢弃法有一些不同的变体。常用的是倒置丢弃法(inverted dropout)。
设某隐藏层为 h h h,第 i i i个隐藏单元为 h i h_{i} hi。当对该隐藏层使用丢弃法时,该层的隐藏单元将有一定概率被丢弃掉。设丢弃概率为 p p p,那么有 p p p的概率 h i h_{i} hi会被清零,有 1 − p 1-p 1−p的概率 h i h_{i} hi会除以 1 − p 1-p 1−p做拉伸。丢弃概率是丢弃法的超参数。具体地,设随机变量 ξ i \xi _{i} ξi为0和1的概率分别为 p p p和 1 − p 1-p 1−p。使用丢弃法时我们计算新的隐藏单元 h i ′ {h}'_{i} hi′:
h i ′ = ξ i 1 − p h i {h}'_{i}=\frac{\xi _{i}}{1-p}{h}_{i} hi′=1−pξihi
由于 E ( ξ i ) = 1 − p E\left ( \xi _{i}\right )=1-p E(ξi)=1−p,因此
E ( h i ′ ) = E ( ξ i ) 1 − p h i = h i E\left ( {h}'_{i}\right )=\frac{E\left ( \xi _{i}\right )}{1-p}h_{i}=h_{i} E(hi′)=1−pE(ξi)hi=hi
即丢弃法不改变其输入的期望值。
从零实现
def dropout(X, drop_prob):
X = X.float()
assert 0 <= drop_prob <= 1
keep_prob = 1 - drop_prob
# 这种情况下把全部元素都丢弃
if keep_prob == 0:
return torch.zeros_like(X)
mask = (torch.rand(X.shape) < keep_prob).float()
return mask * X / keep_prob
drop_prob1, drop_prob2 = 0.2, 0.5
def net(X, is_training=True):
X = X.view(-1, num_inputs)
H1 = (torch.matmul(X, W1) + b1).relu()
if is_training: # 只在训练模型时使用丢弃法
H1 = dropout(H1, drop_prob1) # 在第一层全连接后添加丢弃层
H2 = (torch.matmul(H1, W2) + b2).relu()
if is_training:
H2 = dropout(H2, drop_prob2) # 在第二层全连接后添加丢弃层
return torch.matmul(H2, W3) + b3
简洁实现
net = nn.Sequential(
FlattenLayer(),
nn.Linear(num_inputs, num_hiddens1),
nn.ReLU(),
nn.Dropout(drop_prob1),
nn.Linear(num_hiddens1, num_hiddens2),
nn.ReLU(),
nn.Dropout(drop_prob2),
nn.Linear(num_hiddens2, 10)
)
上一篇: Spring5参考指南:容器扩展
推荐阅读
-
pytorch nn.functional.dropout的坑
-
PyTorch——Dropout(丢弃法)
-
PyTorch实现L1,L2正则化以及Dropout
-
PyTorch实现L1,L2正则化以及Dropout
-
深度学习框架Pytorch——学习笔记(六)PyTorch实现L1,L2正则化以及Dropout
-
pytorch学习(十五)——Dropout
-
Datawhale_pytorch L1 L2正则化 dropout
-
【PyTorch】正则化:L1范数,L2范数,Dropout
-
【Task5(2天)】PyTorch实现L1,L2正则化以及Dropout
-
[Pytorch] spatial dropout的实现