SeLU **函数
程序员文章站
2022-07-04 21:01:32
...
SeLU
最近arXiv出来一篇新文章,102页的Paper,90+页的附录,密密麻麻的公式证明,已经和我暂时绝缘了, 心疼审稿人1秒。虽然看不懂,并不影响我们使用,总结起来就是下图:
代码放到Tensorflow里面就下面几行:
def selu(x):
with ops.name_scope('elu') as scope:
alpha = 1.6732632423543772848170429916717
scale = 1.0507009873554804934193349852946
return scale*tf.where(x>=0.0, x, alpha*tf.nn.elu(x))
效果比Batch Normalization 要好:
github 代码地址
Paper 原文
推导
上一篇: tensorflow实战之全连接神经网络实现mnist手写字体识别
下一篇: 07 selu函数