Mish:一个新的state of the art的**函数的简单使用
程序员文章站
2022-03-04 20:11:28
...
对**函数的研究一直没有停止过,ReLU还是统治着深度学习的**函数,不过,这种情况有可能会被Mish改变。
Diganta Misra的一篇题为“Mish: A Self Regularized Non-Monotonic Neural Activation Function”的新论文介绍了一个新的深度学习**函数,该函数在最终准确度上比Swish(+.494%)和ReLU(+ 1.671%)都有提高。
Mish函数形式
class Mish(nn.Module):
'''
Applies the mish function element-wise:
mish(x) = x * tanh(softplus(x)) = x * tanh(ln(1 + exp(x)))
Shape:
- Input: (N, *) where * means, any number of additional
dimensions
- Output: (N, *), same shape as the input
Examples:
>>> m = Mish()
>>> input = torch.randn(2)
>>> output = m(input)
'''
def __init__(self):
'''
Init method.
'''
super().__init__()
def forward(self, input):
'''
Forward pass of the function.
'''
return Func.mish(input)
简单总结一下,Mish=x * tanh(ln(1+e^x))。
其他的**函数,ReLU是x = max(0,x),Swish是x * sigmoid(x)
如何使用Mish
在这里下载Mish包
然后复制mish.py
到你的相关目录,并包含它,将你的网络**函数指向它:
from mish import Mish
act_fun = Mish()