欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

PyTorch——Dropout(丢弃法)

程序员文章站 2022-07-13 10:39:53
...

参考链接

  1. https://tangshusen.me/Dive-into-DL-PyTorch/#/chapter03_DL-basics/3.13_dropout

dropout

深度学习模型常常使用丢弃法(dropout)来应对过拟合问题。丢弃法有一些不同的变体。常用的是倒置丢弃法(inverted dropout)。

设某隐藏层为 h h h,第 i i i个隐藏单元为 h i h_{i} hi。当对该隐藏层使用丢弃法时,该层的隐藏单元将有一定概率被丢弃掉。设丢弃概率为 p p p,那么有 p p p的概率 h i h_{i} hi会被清零,有 1 − p 1-p 1p的概率 h i h_{i} hi会除以 1 − p 1-p 1p做拉伸。丢弃概率是丢弃法的超参数。具体地,设随机变量 ξ i \xi _{i} ξi为0和1的概率分别为 p p p 1 − p 1-p 1p。使用丢弃法时我们计算新的隐藏单元 h i ′ {h}'_{i} hi

h i ′ = ξ i 1 − p h i {h}'_{i}=\frac{\xi _{i}}{1-p}{h}_{i} hi=1pξihi

由于 E ( ξ i ) = 1 − p E\left ( \xi _{i}\right )=1-p E(ξi)=1p,因此

E ( h i ′ ) = E ( ξ i ) 1 − p h i = h i E\left ( {h}'_{i}\right )=\frac{E\left ( \xi _{i}\right )}{1-p}h_{i}=h_{i} E(hi)=1pE(ξi)hi=hi

即丢弃法不改变其输入的期望值。

从零实现

def dropout(X, drop_prob):
    X = X.float()
    assert 0 <= drop_prob <= 1
    keep_prob = 1 - drop_prob
    # 这种情况下把全部元素都丢弃
    if keep_prob == 0:
        return torch.zeros_like(X)
    mask = (torch.rand(X.shape) < keep_prob).float()

    return mask * X / keep_prob

drop_prob1, drop_prob2 = 0.2, 0.5

def net(X, is_training=True):
    X = X.view(-1, num_inputs)
    H1 = (torch.matmul(X, W1) + b1).relu()
    if is_training:  # 只在训练模型时使用丢弃法
        H1 = dropout(H1, drop_prob1)  # 在第一层全连接后添加丢弃层
    H2 = (torch.matmul(H1, W2) + b2).relu()
    if is_training:
        H2 = dropout(H2, drop_prob2)  # 在第二层全连接后添加丢弃层
    return torch.matmul(H2, W3) + b3

简洁实现

net = nn.Sequential(
        FlattenLayer(),
        nn.Linear(num_inputs, num_hiddens1),
        nn.ReLU(),
        nn.Dropout(drop_prob1),
        nn.Linear(num_hiddens1, num_hiddens2), 
        nn.ReLU(),
        nn.Dropout(drop_prob2),
        nn.Linear(num_hiddens2, 10)
        )