TensorFlow函数教程:tf.keras.activations.selu
2019-03-02 17:11 更新
tf.keras.activations.selu函数
tf.keras.activations.selu(x)
定义在:tensorflow/python/keras/activations.py。
缩放指数线性单位(SELU)。
SELU等于:scale * elu(x,alpha),其中alpha和scale是预定义的常量。 选择alpha和scale的值,以便在两个连续层之间保留输入的平均值和方差,只要正确初始化权重并且输入的数量“足够大”。
参数:
- x:用于计算激活函数的张量或变量。
返回:
可缩放的指数单元激活:
`scale * elu(x, alpha)`.
注意:
- 与初始化“lecun_normal”一起使用。
- 与 dropout 的变种“AlphaDropout”一起使用。