App下載

詞條

大約有 4,000 項(xiàng)符合查詢(xún)結(jié)果 ,庫(kù)內(nèi)數(shù)據(jù)總量為 78,250 項(xiàng)。(搜索耗時(shí):0.0038秒)

2521.TensorFlow函數(shù)教程:tf.keras.activations.elu

...數(shù)tf.keras.activations.elu( x, alpha=1.0 ) 定義在:tensorflow/python/keras/activations.py。指數(shù)線(xiàn)性單位。 參數(shù): x:輸入張量。 alpha:標(biāo)量,負(fù)部分的斜率。 返回:The exponential linear activation: `x` if `x > 0` and `alpha * (exp(x)-1)` if ...

http://www.o2fo.com/tensorflow_python/tf_keras_activations_elu.html

2522.TensorFlow函數(shù)教程:tf.keras.activations.exponential

tf.keras.activations.exponential函數(shù)tf.keras.activations.exponential(x) 定義在:tensorflow/python/keras/activations.py。

http://www.o2fo.com/tensorflow_python/tf_keras_activations_exponential.html

2523.TensorFlow函數(shù)教程:tf.keras.activations.get

tf.keras.activations.get函數(shù)tf.keras.activations.get(identifier) 定義在:tensorflow/python/keras/activations.py。

http://www.o2fo.com/tensorflow_python/tf_keras_activations_get.html

2524.TensorFlow函數(shù)教程:tf.keras.activations.hard_sigmoid

...d_sigmoid函數(shù)tf.keras.activations.hard_sigmoid(x) 定義在:tensorflow/python/keras/activations.py。Hard sigmoid激活函數(shù)。計(jì)算速度比 sigmoid 激活函數(shù)更快。 參數(shù): x:輸入張量。 返回:Hard sigmoid 激活:如果 x < -2.5,返回 0。如果 x > 2.5,...

http://www.o2fo.com/tensorflow_python/tf_keras_activations_hard_sigmoid.html

2525.TensorFlow函數(shù)教程:tf.keras.activations.linear

tf.keras.activations.linear函數(shù)tf.keras.activations.linear(x) 定義在:tensorflow/python/keras/activations.py。

http://www.o2fo.com/tensorflow_python/tf_keras_activations_linear.html

2526.TensorFlow函數(shù)教程:tf.keras.activations.relu

... alpha=0.0, max_value=None, threshold=0 ) 定義在:tensorflow/python/keras/activations.py。整流線(xiàn)性單元。使用默認(rèn)值,它返回按元素的max(x, 0)。否則,它遵循:如果 x >= max_value:f(x) = max_value,如果 threshold <= x < max_value:f(x) = x,否...

http://www.o2fo.com/tensorflow_python/tf_keras_activations_relu.html

2527.TensorFlow函數(shù)教程:tf.keras.activations.selu

....activations.selu函數(shù)tf.keras.activations.selu(x) 定義在:tensorflow/python/keras/activations.py??s放指數(shù)線(xiàn)性單位(SELU)。SELU等于:scale * elu(x,alpha),其中alpha和scale是預(yù)定義的常量。 選擇alpha和scale的值,以便在兩個(gè)連續(xù)層之間保留輸入...

http://www.o2fo.com/tensorflow_python/tf_keras_activations_selu.html

2528.TensorFlow函數(shù)教程:tf.keras.activations.serialize

tf.keras.activations.serialize函數(shù)tf.keras.activations.serialize(activation) 定義在:tensorflow/python/keras/activations.py。

http://www.o2fo.com/tensorflow_python/tf_keras_activations_serialize.html

2529.TensorFlow函數(shù)教程:tf.keras.activations.sigmoid

tf.keras.activations.sigmoid函數(shù)tf.keras.activations.sigmoid(x) 定義在:tensorflow/python/keras/activations.py。

http://www.o2fo.com/tensorflow_python/tf_keras_activations_sigmoid.html

2530.TensorFlow函數(shù)教程:tf.keras.activations.softmax

...tf.keras.activations.softmax( x, axis=-1 ) 定義在:tensorflow/python/keras/activations.py。Softmax激活函數(shù)。 參數(shù): x:輸入張量。 axis:整數(shù),應(yīng)用softmax標(biāo)準(zhǔn)化的軸。 返回:張量,softmax變換的輸出。 可能引發(fā)的異常: ValueErr...

http://www.o2fo.com/tensorflow_python/tf_keras_activations_softmax.html

抱歉,暫時(shí)沒(méi)有相關(guān)的微課

w3cschool 建議您:

  • 檢查輸入的文字是否有誤

抱歉,暫時(shí)沒(méi)有相關(guān)的視頻課程

w3cschool 建議您:

  • 檢查輸入的文字是否有誤

抱歉,暫時(shí)沒(méi)有相關(guān)的教程

w3cschool 建議您:

  • 檢查輸入的文字是否有誤

2521.TensorFlow函數(shù)教程:tf.keras.activations.elu

...數(shù)tf.keras.activations.elu( x, alpha=1.0 ) 定義在:tensorflow/python/keras/activations.py。指數(shù)線(xiàn)性單位。 參數(shù): x:輸入張量。 alpha:標(biāo)量,負(fù)部分的斜率。 返回:The exponential linear activation: `x` if `x > 0` and `alpha * (exp(x)-1)` if ...

http://www.o2fo.com/tensorflow_python/tf_keras_activations_elu.html

2522.TensorFlow函數(shù)教程:tf.keras.activations.exponential

tf.keras.activations.exponential函數(shù)tf.keras.activations.exponential(x) 定義在:tensorflow/python/keras/activations.py。

http://www.o2fo.com/tensorflow_python/tf_keras_activations_exponential.html

2523.TensorFlow函數(shù)教程:tf.keras.activations.get

tf.keras.activations.get函數(shù)tf.keras.activations.get(identifier) 定義在:tensorflow/python/keras/activations.py。

http://www.o2fo.com/tensorflow_python/tf_keras_activations_get.html

2524.TensorFlow函數(shù)教程:tf.keras.activations.hard_sigmoid

...d_sigmoid函數(shù)tf.keras.activations.hard_sigmoid(x) 定義在:tensorflow/python/keras/activations.py。Hard sigmoid激活函數(shù)。計(jì)算速度比 sigmoid 激活函數(shù)更快。 參數(shù): x:輸入張量。 返回:Hard sigmoid 激活:如果 x < -2.5,返回 0。如果 x > 2.5,...

http://www.o2fo.com/tensorflow_python/tf_keras_activations_hard_sigmoid.html

2525.TensorFlow函數(shù)教程:tf.keras.activations.linear

tf.keras.activations.linear函數(shù)tf.keras.activations.linear(x) 定義在:tensorflow/python/keras/activations.py。

http://www.o2fo.com/tensorflow_python/tf_keras_activations_linear.html

2526.TensorFlow函數(shù)教程:tf.keras.activations.relu

... alpha=0.0, max_value=None, threshold=0 ) 定義在:tensorflow/python/keras/activations.py。整流線(xiàn)性單元。使用默認(rèn)值,它返回按元素的max(x, 0)。否則,它遵循:如果 x >= max_value:f(x) = max_value,如果 threshold <= x < max_value:f(x) = x,否...

http://www.o2fo.com/tensorflow_python/tf_keras_activations_relu.html

2527.TensorFlow函數(shù)教程:tf.keras.activations.selu

....activations.selu函數(shù)tf.keras.activations.selu(x) 定義在:tensorflow/python/keras/activations.py。縮放指數(shù)線(xiàn)性單位(SELU)。SELU等于:scale * elu(x,alpha),其中alpha和scale是預(yù)定義的常量。 選擇alpha和scale的值,以便在兩個(gè)連續(xù)層之間保留輸入...

http://www.o2fo.com/tensorflow_python/tf_keras_activations_selu.html

2528.TensorFlow函數(shù)教程:tf.keras.activations.serialize

tf.keras.activations.serialize函數(shù)tf.keras.activations.serialize(activation) 定義在:tensorflow/python/keras/activations.py。

http://www.o2fo.com/tensorflow_python/tf_keras_activations_serialize.html

2529.TensorFlow函數(shù)教程:tf.keras.activations.sigmoid

tf.keras.activations.sigmoid函數(shù)tf.keras.activations.sigmoid(x) 定義在:tensorflow/python/keras/activations.py。

http://www.o2fo.com/tensorflow_python/tf_keras_activations_sigmoid.html

2530.TensorFlow函數(shù)教程:tf.keras.activations.softmax

...tf.keras.activations.softmax( x, axis=-1 ) 定義在:tensorflow/python/keras/activations.py。Softmax激活函數(shù)。 參數(shù): x:輸入張量。 axis:整數(shù),應(yīng)用softmax標(biāo)準(zhǔn)化的軸。 返回:張量,softmax變換的輸出。 可能引發(fā)的異常: ValueErr...

http://www.o2fo.com/tensorflow_python/tf_keras_activations_softmax.html

抱歉,暫時(shí)沒(méi)有相關(guān)的文章

w3cschool 建議您:

  • 檢查輸入的文字是否有誤

熱門(mén)課程