W3Cschool
恭喜您成為首批注冊(cè)用戶
獲得88經(jīng)驗(yàn)值獎(jiǎng)勵(lì)
繼承自: Layer
定義在:tensorflow/python/layers/normalization.py.
來自http://arxiv.org/abs/1502.03167的批處理規(guī)范化層.
批處理規(guī)范化指的是通過減少內(nèi)部協(xié)變量轉(zhuǎn)換來加速深度網(wǎng)絡(luò)訓(xùn)練
參數(shù):
可選的正則化函數(shù)用于該層的輸出.
檢索圖層的輸入張量.
僅適用于圖層只有一個(gè)輸入的情況,即它是否連接到一個(gè)輸入圖層.
返回:
輸入張量或輸入張量列表.
可能引發(fā)的異常:
檢索圖層的輸入形狀.
僅適用于圖層只有一個(gè)輸入,即它是否連接到一個(gè)傳入層,或者所有輸入具有相同形狀的情況.
返回:
輸入形狀,作為整數(shù)形狀元組(或形狀元組列表,每個(gè)輸入張量一個(gè)元組).
可能引發(fā)的異常:
與此Layer相關(guān)的損失.
請(qǐng)注意,在急切執(zhí)行時(shí),獲取此屬性會(huì)計(jì)算正規(guī)則.使用圖形執(zhí)行時(shí),已經(jīng)創(chuàng)建了變量正則化運(yùn)算,并且只是在這里返回.
返回:
張量列表.
檢索圖層的輸出張量.
僅適用于圖層只有一個(gè)輸出,即它是否連接到一個(gè)輸入層.
返回:
輸出張量或輸出張量列表.
可能引發(fā)的異常:
檢索圖層的輸出形狀.
僅適用于圖層具有一個(gè)輸出,或者所有輸出具有相同形狀的情況.
返回:
輸出形狀,作為整數(shù)形狀元組(或形狀元組列表,每個(gè)輸出張量一個(gè)元組).
可能引發(fā)的異常:
返回所有圖層變量/權(quán)重的列表.
返回:
變量列表.
返回所有圖層變量/權(quán)重的列表.
返回:
變量列表.
__init__(
axis=-1,
momentum=0.99,
epsilon=0.001,
center=True,
scale=True,
beta_initializer=tf.zeros_initializer(),
gamma_initializer=tf.ones_initializer(),
moving_mean_initializer=tf.zeros_initializer(),
moving_variance_initializer=tf.ones_initializer(),
beta_regularizer=None,
gamma_regularizer=None,
beta_constraint=None,
gamma_constraint=None,
renorm=False,
renorm_clipping=None,
renorm_momentum=0.99,
fused=None,
trainable=True,
virtual_batch_size=None,
adjustment=None,
name=None,
**kwargs
)
初始化自我.
__call__(
inputs,
*args,
**kwargs
)
包裝call,應(yīng)用預(yù)處理和后處理步驟.
參數(shù):
返回:
輸出張量.
注意:- 如果圖層的call方法采用scope關(guān)鍵字參數(shù),則此參數(shù)將自動(dòng)設(shè)置為當(dāng)前變量范圍.- 如果圖層的call方法采用mask參數(shù)(如某些Keras圖層那樣),則其默認(rèn)值將設(shè)置為inputs前一層生成的蒙版(如果input確實(shí)來自生成相應(yīng)蒙版的圖層,即它是否來自具有掩蔽支持的Keras層).
可能引發(fā)的異常:
__deepcopy__(memo)
add_loss(
losses,
inputs=None
)
添加損失張量,可能取決于圖層輸入.
一些損失(例如,活動(dòng)正則化損失)可能取決于調(diào)用層時(shí)傳遞的輸入.因此,當(dāng)在不同的輸入a和b上重用同一層時(shí),在layer.losses中的一些條目可以取決于a而另外一些取決于b.此方法自動(dòng)跟蹤依賴性.
該get_losses_for方法允許檢索與特定輸入集相關(guān)的損失.
請(qǐng)注意,急切執(zhí)行時(shí)不支持add_loss.相反,可以通過add_variable添加變量正則化器.不直接支持活動(dòng)正規(guī)化(但可以從Layer.call()中返回此類損失).
參數(shù):
可能引發(fā)的異常:
add_update(
updates,
inputs=None
)
添加更新操作,可能依賴于圖層輸入.
權(quán)重更新(例如,BatchNormalization層中移動(dòng)均值和方差的更新)可能取決于調(diào)用圖層時(shí)傳遞的輸入.因此,當(dāng)在不同的輸入a和b上重用同一層時(shí),在layer.updates中的一些條目可以取決于a而另外一些取決于b.此方法自動(dòng)跟蹤依賴性.
該get_updates_for方法允許檢索與特定輸入集相關(guān)的更新.
在Eager模式下忽略此調(diào)用.
參數(shù):
add_variable(
name,
shape,
dtype=None,
initializer=None,
regularizer=None,
trainable=True,
constraint=None,
partitioner=None
)
向圖層添加新變量,或獲取現(xiàn)有變量;返回它.
參數(shù):
返回:
創(chuàng)建的變量.通常是一個(gè)Variable或一個(gè)ResourceVariable實(shí)例.如果partitioner不是None,則返回PartitionedVariable實(shí)例.
可能引發(fā)的異常:
apply(
inputs,
*args,
**kwargs
)
在輸入上應(yīng)用圖層.
這只是包裝self.__call__.
參數(shù):
返回:
輸出張量.
build(input_shape)
創(chuàng)建圖層的變量.
call(
inputs,
training=False
)
圖層的邏輯就在這里.
參數(shù):
返回:
輸出張量.
compute_output_shape(input_shape)
在給定輸入形狀的情況下計(jì)算圖層的輸出形狀.
參數(shù):
返回:
一個(gè)TensorShape(可能是嵌套的元組).
可能引發(fā)的異常:
count_params()
計(jì)算組成權(quán)重的標(biāo)量總數(shù).
返回:
整數(shù)計(jì)數(shù).
可能引發(fā)的異常:
get_input_at(node_index)
檢索給定節(jié)點(diǎn)處的層的輸入張量.
參數(shù):
返回:
張量(如果圖層有多個(gè)輸入,則為張量列表).
可能引發(fā)的異常:
get_input_shape_at(node_index)
檢索給定節(jié)點(diǎn)處的圖層的輸入形狀.
參數(shù):
返回:
形狀元組(如果圖層有多個(gè)輸入,則為形狀元組??列表).
可能引發(fā)的異常:
get_losses_for(inputs)
檢索與特定輸入集相關(guān)的損失.
參數(shù):
返回:
依賴于inputs的層的損失張量列表.
可能引發(fā)的異常:
get_output_at(node_index)
檢索給定節(jié)點(diǎn)處的圖層的輸出張量.
參數(shù):
返回:
張量(如果圖層有多個(gè)輸出,則為張量列表).
可能引發(fā)的異常:
get_output_shape_at(node_index)
檢索給定節(jié)點(diǎn)處圖層的輸出形狀.
參數(shù):
返回:
形狀元組(如果圖層具有多個(gè)輸出,則為形狀元組??列表).
可能引發(fā)的異常:
get_updates_for(inputs)
檢索與特定輸入集相關(guān)的更新.
參數(shù):
返回:
依賴于inputs的層的更新操作列表.
可能引發(fā)的異常:
Copyright©2021 w3cschool編程獅|閩ICP備15016281號(hào)-3|閩公網(wǎng)安備35020302033924號(hào)
違法和不良信息舉報(bào)電話:173-0602-2364|舉報(bào)郵箱:jubao@eeedong.com
掃描二維碼
下載編程獅App
編程獅公眾號(hào)
聯(lián)系方式:
更多建議: