欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

Mish:一个新的state of the art的**函数的简单使用

程序员文章站 2022-03-04 20:11:28
...

对**函数的研究一直没有停止过,ReLU还是统治着深度学习的**函数,不过,这种情况有可能会被Mish改变。

Diganta Misra的一篇题为“Mish: A Self Regularized Non-Monotonic Neural Activation Function”的新论文介绍了一个新的深度学习**函数,该函数在最终准确度上比Swish(+.494%)和ReLU(+ 1.671%)都有提高。

Mish函数形式

class Mish(nn.Module):
    '''
    Applies the mish function element-wise:
    mish(x) = x * tanh(softplus(x)) = x * tanh(ln(1 + exp(x)))
    Shape:
        - Input: (N, *) where * means, any number of additional
          dimensions
        - Output: (N, *), same shape as the input
    Examples:
        >>> m = Mish()
        >>> input = torch.randn(2)
        >>> output = m(input)
    '''
    def __init__(self):
        '''
        Init method.
        '''
        super().__init__()

    def forward(self, input):
        '''
        Forward pass of the function.
        '''
        return Func.mish(input)

简单总结一下,Mish=x * tanh(ln(1+e^x))。
其他的**函数,ReLU是x = max(0,x),Swish是x * sigmoid(x)

如何使用Mish

在这里下载Mish包
然后复制mish.py到你的相关目录,并包含它,将你的网络**函数指向它:

from mish import Mish
act_fun = Mish()