Tensorflow中tf.nn.relu()函数的理解
程序员文章站
2024-02-29 21:20:58
...
线性整流函数(Rectified Linear Unit, ReLU),又称修正线性单元。其定义如下图,在横坐标的右侧,ReLU函数为线性函数。在横坐标的右侧,ReLU函数为值为0。
因此,tf.nn.relu()函数的目的是,将输入小于0的值幅值为0,输入大于0的值不变。
代码测试结果如下:
import tensorflow as tf
a = tf.constant([-1.0, 2.0,-3.6])
with tf.Session() as sess:
b = tf.nn.relu(a)
print(sess.run(b))
测试结果为:
[0. 2. 0.]
上一篇: Android自定义仿微信PopupWindow效果
下一篇: html图像标签、绝对路径和相对路径
推荐阅读