W3Cschool
恭喜您成為首批注冊(cè)用戶
獲得88經(jīng)驗(yàn)值獎(jiǎng)勵(lì)
tf.keras.activations.selu(x)
定義在:tensorflow/python/keras/activations.py。
縮放指數(shù)線性單位(SELU)。
SELU等于:scale * elu(x,alpha),其中alpha和scale是預(yù)定義的常量。 選擇alpha和scale的值,以便在兩個(gè)連續(xù)層之間保留輸入的平均值和方差,只要正確初始化權(quán)重并且輸入的數(shù)量“足夠大”。
參數(shù):
返回:
可縮放的指數(shù)單元激活:
`scale * elu(x, alpha)`.
注意:
Copyright©2021 w3cschool編程獅|閩ICP備15016281號(hào)-3|閩公網(wǎng)安備35020302033924號(hào)
違法和不良信息舉報(bào)電話:173-0602-2364|舉報(bào)郵箱:jubao@eeedong.com
掃描二維碼
下載編程獅App
編程獅公眾號(hào)
聯(lián)系方式:
更多建議: