阅读(5.8k) 书签 (0)

TensorFlow函数教程:tf.keras.activations.selu

2019-03-02 17:11 更新

tf.keras.activations.selu函数

tf.keras.activations.selu(x)

定义在:tensorflow/python/keras/activations.py。

缩放指数线性单位(SELU)。

SELU等于:scale * elu(x,alpha),其中alpha和scale是预定义的常量。 选择alpha和scale的值,以便在两个连续层之间保留输入的平均值和方差,只要正确初始化权重并且输入的数量“足够大”。

参数:

  • x:用于计算激活函数的张量或变量。

返回:

可缩放的指数单元激活:

`scale * elu(x, alpha)`.

注意:

  • 与初始化“lecun_normal”一起使用。
  • 与 dropout 的变种“AlphaDropout”一起使用。