TensorFlow函數(shù)教程:tf.keras.activations.selu

2019-03-02 17:11 更新

tf.keras.activations.selu函數(shù)

tf.keras.activations.selu(x)

定義在:tensorflow/python/keras/activations.py。

縮放指數(shù)線性單位(SELU)。

SELU等于:scale * elu(x,alpha),其中alpha和scale是預(yù)定義的常量。 選擇alpha和scale的值,以便在兩個(gè)連續(xù)層之間保留輸入的平均值和方差,只要正確初始化權(quán)重并且輸入的數(shù)量“足夠大”。

參數(shù):

  • x:用于計(jì)算激活函數(shù)的張量或變量。

返回:

可縮放的指數(shù)單元激活:

`scale * elu(x, alpha)`.

注意:

  • 與初始化“l(fā)ecun_normal”一起使用。
  • 與 dropout 的變種“AlphaDropout”一起使用。

以上內(nèi)容是否對(duì)您有幫助:
在線筆記
App下載
App下載

掃描二維碼

下載編程獅App

公眾號(hào)
微信公眾號(hào)

編程獅公眾號(hào)