TensorFlow函數(shù):tf.layers.Dense

2018-07-17 11:31 更新

tf.layers.Dense函數(shù)

Dense類(lèi)

繼承自: Layer

定義在:tensorflow/python/layers/core.py.

密集連接(Densely-connected)層類(lèi).

該層實(shí)現(xiàn)了操作:outputs = activation(inputs * kernel + bias),其中activation是作為activation參數(shù)傳遞的激活函數(shù)(如果不是None),是由層創(chuàng)建的權(quán)重矩陣,kernel是由層創(chuàng)建的權(quán)重矩陣,并且bias是由層創(chuàng)建的偏差向量(只有use_bias為T(mén)rue時(shí)).

參數(shù):

  • units:整數(shù)或長(zhǎng)整數(shù),輸出空間的維數(shù).
  • activation:激活功能(可調(diào)用),將其設(shè)置為“None”以保持線(xiàn)性激活.
  • use_bias:Boolean,表示該層是否使用偏差.
  • kernel_initializer:權(quán)重矩陣的初始化函數(shù);如果為None(默認(rèn)),則使用tf.get_variable使用的默認(rèn)初始化程序初始化權(quán)重.
  • bias_initializer:偏置的初始化函數(shù).
  • kernel_regularizer:權(quán)重矩陣的正則化函數(shù).
  • bias_regularizer:正規(guī)函數(shù)的偏差.
  • activity_regularizer:輸出的正則化函數(shù).
  • kernel_constraint:由Optimizer更新后應(yīng)用于內(nèi)核的可選投影函數(shù)(例如,用于實(shí)現(xiàn)層權(quán)重的范數(shù)約束或值約束).該函數(shù)必須將未投影的變量作為輸入,并且必須返回投影變量(必須具有相同的形狀).在進(jìn)行異步分布式訓(xùn)練時(shí),使用約束是不安全的.
  • bias_constraint:由Optimizer更新后應(yīng)用于偏置的可選投影函數(shù).
  • trainable:Boolean,如果為T(mén)rue,還將變量添加到圖集合GraphKeys.TRAINABLE_VARIABLES中(請(qǐng)參閱參考資料tf.Variable).
  • name:String,圖層的名稱(chēng);具有相同名稱(chēng)的圖層將共享權(quán)重,但為了避免錯(cuò)誤,在這種情況下,我們需要reuse=True.
  • reuse:Boolean,是否以同一名稱(chēng)重用前一層的權(quán)重.

屬性

  • activity_regularizer

    可選的正則化函數(shù)用于該層的輸出.

  • dtype
  • graph
  • input

    檢索圖層的輸入張量.

    僅適用于圖層只有一個(gè)輸入,即它是否連接到一個(gè)輸入層.

    返回:

    輸入張量或輸入張量列表.

    可能引發(fā)的異常:

    • AttributeError:如果圖層連接到多個(gè)輸入圖層.
    • RuntimeError:如果在Eager模式下調(diào)用.
    • AttributeError:如果未找到入站節(jié)點(diǎn).
  • input_shape

    檢索圖層的輸入形狀.

    僅適用于圖層只有一個(gè)輸入,即它是否連接到一個(gè)輸入層,或者所有輸入具有相同形狀的情況.

    返回:

    輸入形狀,作為整數(shù)形狀元組(或形狀元組列表,每個(gè)輸入張量一個(gè)元組).

    可能引發(fā)的異常:

    • AttributeError:如果圖層沒(méi)有定義的input_shape.
    • RuntimeError:如果在Eager模式下調(diào)用.
  • losses

    與此Layer相關(guān)的損失.

    請(qǐng)注意,在急切執(zhí)行時(shí),獲取此屬性會(huì)計(jì)算正規(guī)則.使用圖形執(zhí)行時(shí),已經(jīng)創(chuàng)建了變量正則化運(yùn)算,并且只是在這里返回.

    返回:

    張量列表.

  • name
  • non_trainable_variables
  • non_trainable_weights
  • output

    檢索圖層的輸出張量.

    僅適用于圖層只有一個(gè)輸出,即它是否連接到一個(gè)輸入層.

    返回:

    輸出張量或輸出張量列表.

    可能引發(fā)的異常:

    • AttributeError:如果圖層連接到多個(gè)輸入圖層.
    • RuntimeError:如果在Eager模式下調(diào)用.
  • output_shape

    檢索圖層的輸出形狀.

    僅適用于圖層具有一個(gè)輸出,或者所有輸出具有相同形狀的情況.

    返回:

    輸出形狀,作為整數(shù)形狀元組(或形狀元組列表,每個(gè)輸出張量一個(gè)元組).

    可能引發(fā)的異常:

    • AttributeError:如果圖層沒(méi)有定義的輸出形狀.
    • RuntimeError:如果在Eager模式下調(diào)用.
  • scope_name
  • trainable_variables
  • trainable_weights
  • updates
  • variables

    返回所有圖層變量/權(quán)重的列表.

    返回:

    變量列表.

  • weights

    返回所有圖層變量/權(quán)重的列表.

    返回:

    變量列表.

方法

  • __init__
    __init__(
        units,
        activation=None,
        use_bias=True,
        kernel_initializer=None,
        bias_initializer=tf.zeros_initializer(),
        kernel_regularizer=None,
        bias_regularizer=None,
        activity_regularizer=None,
        kernel_constraint=None,
        bias_constraint=None,
        trainable=True,
        name=None,
        **kwargs
    )

    初始化自我.

  • __call__
    __call__(
        inputs,
        *args,
        **kwargs
    )

    包裝call,應(yīng)用預(yù)處理和后處理步驟.

    參數(shù):

    • inputs:輸入張量.
    • *args:要傳遞給self.call的其他位置參數(shù).
    • **kwargs:要傳遞給self.call的其他關(guān)鍵字參數(shù).注意:kwarg scope保留供圖層使用.

    返回:

    輸出張量.

    注意:- 如果圖層的call方法采用scope關(guān)鍵字參數(shù),則此參數(shù)將自動(dòng)設(shè)置為當(dāng)前變量范圍.- 如果圖層的call方法采用mask參數(shù)(如某些Keras圖層那樣),則其默認(rèn)值將設(shè)置為inputs前input一圖層生成的蒙版(如果確實(shí)來(lái)自生成相應(yīng)蒙版的圖層,即它是否來(lái)自具有掩蔽支持的Keras層).

    可能引發(fā)的異常:

    • ValueError:如果圖層的call方法返回None(無(wú)效值).
  • __deepcopy__
    __deepcopy__(memo)
  • add_loss
    add_loss(
        losses,
        inputs=None
    )

    添加損失張量,可能取決于圖層輸入.

    一些損失(例如,活動(dòng)正則化損失)可能取決于調(diào)用層時(shí)傳遞的輸入.因此,當(dāng)在不同的輸入a和b上重用同一層時(shí),在layer.losses層上的一些條目可以取決于a而另外一部分可以取決于b.此方法自動(dòng)跟蹤依賴(lài)性.

    該get_losses_for方法允許檢索與特定輸入集相關(guān)的損失.

    請(qǐng)注意,急切執(zhí)行時(shí)不支持add_loss.相反,可以通過(guò)add_variable添加變量正則化器.不直接支持活動(dòng)正規(guī)化(但可以從Layer.call()中返回此類(lèi)損失).

    參數(shù):

    • losses:損失張量,或張量/列表的張量.
    • inputs:如果傳遞了除None以外的任何內(nèi)容,則表示損失是以某些層的輸入為條件的,因此它們只應(yīng)在這些輸入可用的地方運(yùn)行.例如,活動(dòng)正規(guī)化損失就是這種情況.如果None通過(guò),則假定損失是無(wú)條件的,并且將應(yīng)用于層的所有數(shù)據(jù)流(例如,權(quán)重正則化損失).

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • add_update
    add_update(
        updates,
        inputs=None
    )

    添加更新操作,可能依賴(lài)于圖層輸入.

    權(quán)重更新(例如,BatchNormalization層中移動(dòng)均值和方差的更新)可能取決于調(diào)用圖層時(shí)傳遞的輸入.因此,當(dāng)在不同的輸入a和b上重用同一層時(shí),在layer.updates上的一些條目可以取決于a而另外一些可以取決于b.此方法自動(dòng)跟蹤依賴(lài)性.

    該get_updates_for方法允許檢索與特定輸入集相關(guān)的更新.

    在Eager模式下忽略此調(diào)用.

    參數(shù):

    • updates:更新操作,或更新操作的列表/元組.
    • inputs:如果傳遞了除None之外的任何內(nèi)容,則表示更新是以某些層的輸入為條件的,因此它們只應(yīng)在這些輸入可用的地方運(yùn)行.例如,BatchNormalization更新就是這種情況.如果為None,則無(wú)條件地考慮更新,并且您有責(zé)任確保它們可能具有的任何依賴(lài)性在運(yùn)行時(shí)可用.步數(shù)計(jì)數(shù)器可能屬于此類(lèi)別.
  • add_variable
    add_variable(
        name,
        shape,
        dtype=None,
        initializer=None,
        regularizer=None,
        trainable=True,
        constraint=None,
        partitioner=None
    )

    向圖層添加新變量,或獲取現(xiàn)有變量;返回它.

    參數(shù):

    • name: 變量名.
    • shape:變形.
    • dtype:變量的類(lèi)型;默認(rèn)為self.dtype或float32.
    • initializer:初始化程序?qū)嵗?可調(diào)用).
    • regularizer:regularrizer實(shí)例(可調(diào)用).
    • trainable:變量是否應(yīng)該是圖層的“trainable_variables”(例如,變量,偏差)或“non_trainable_variables”(例如BatchNorm mean,stddev)的一部分.注意,如果當(dāng)前變量范圍被標(biāo)記為不可訓(xùn)練,則忽略此參數(shù),并且任何添加的變量也標(biāo)記為不可訓(xùn)練.
    • constraint:約束實(shí)例(可調(diào)用).
    • partitioner:(可選)分區(qū)程序?qū)嵗?可調(diào)用).如果提供,則在創(chuàng)建請(qǐng)求的變量時(shí),它將根據(jù)partitioner分成多個(gè)分區(qū).在這種情況下,返回一個(gè)PartitionedVariable實(shí)例.可用的分區(qū)包括tf.fixed_size_partitioner和tf.variable_axis_size_partitioner.

    返回:

    創(chuàng)建的變量.通常是一個(gè)Variable或一個(gè)ResourceVariable實(shí)例.如果partitioner不是None,則返回PartitionedVariable實(shí)例.

    可能引發(fā)的異常:

    • RuntimeError:如果使用分區(qū)變量正則化調(diào)用并且啟用了急切執(zhí)行.
  • apply
    apply(
        inputs,
        *args,
        **kwargs
    )

    在輸入上應(yīng)用圖層.

    這只是包裝self.__call__.

    參數(shù):

    • inputs:輸入張量.
    • *args:要傳遞給self.call的其他位置參數(shù).
    • **kwargs:要傳遞給self.call的其他關(guān)鍵字參數(shù).

    返回:

    輸出張量.

  • build
    build(input_shape)

    創(chuàng)建圖層的變量.

  • call
    call(inputs)

    圖層的邏輯就在這里.

    參數(shù):

    • inputs:輸入張量.
    • **kwargs:其他關(guān)鍵字參數(shù).

    返回:

    輸出張量.

  • compute_output_shape
    compute_output_shape(input_shape)

    在給定輸入形狀的情況下計(jì)算圖層的輸出形狀.

    參數(shù):

    • input_shape:一個(gè)TensorShape(可能是嵌套的元組).它不需要完全定義(例如批量大小可能是未知的).

    返回:

    一個(gè)TensorShape(可能是嵌套的元組).

    可能引發(fā)的異常:

    • TypeError:如果input_shape不是TensorShape(可能是嵌套的元組).
    • ValueError:如果input_shape不完整或與圖層不兼容.
  • count_params
    count_params()

    計(jì)算組成權(quán)重的標(biāo)量總數(shù).

    返回:

    整數(shù)計(jì)數(shù).

    可能引發(fā)的異常:

    • ValueError:如果尚未構(gòu)建圖層(在這種情況下,其權(quán)重尚未定義).
  • get_input_at
    get_input_at(node_index)

    檢索給定節(jié)點(diǎn)處的層的輸入張量.

    參數(shù):

    • node_index:Integer,從中檢索屬性的節(jié)點(diǎn)的索引.例如,node_index=0將對(duì)應(yīng)于第一次調(diào)用圖層.

    返回:

    張量(如果圖層有多個(gè)輸入,則為張量列表).

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • get_input_shape_at
    get_input_shape_at(node_index)

    檢索給定節(jié)點(diǎn)處的圖層的輸入形狀.

    參數(shù):

    • node_index:Integer,從中檢索屬性的節(jié)點(diǎn)的索引.例如,node_index=0將對(duì)應(yīng)于第一次調(diào)用圖層.

    返回:

    形狀元組(如果圖層有多個(gè)輸入,則為形狀元組??列表).

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • get_losses_for
    get_losses_for(inputs)

    檢索與特定輸入集相關(guān)的損失.

    參數(shù):

    • inputs:輸入張量或輸入張量的列表/元組.

    返回:

    依賴(lài)于inputs的層的損失張量列表.

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • get_output_at
    get_output_at(node_index)

    檢索給定節(jié)點(diǎn)處的圖層的輸出張量.

    參數(shù):

    • node_index:Integer,從中檢索屬性的節(jié)點(diǎn)的索引.例如,node_index=0將對(duì)應(yīng)于第一次調(diào)用圖層.

    返回:

    張量(如果圖層有多個(gè)輸出,則為張量列表).

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • get_output_shape_at
    get_output_shape_at(node_index)

    檢索給定節(jié)點(diǎn)處圖層的輸出形狀.

    參數(shù):

    • node_index:Integer,從中檢索屬性的節(jié)點(diǎn)的索引.例如,node_index=0將對(duì)應(yīng)于第一次調(diào)用圖層.

    返回:

    形狀元組(如果圖層具有多個(gè)輸出,則為形狀元組??列表).

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • get_updates_for
    get_updates_for(inputs)

    檢索與特定輸入集相關(guān)的更新.

    參數(shù):

    • inputs:輸入張量或輸入張量的列表/元組.

    返回:

    依賴(lài)于inputs的層的更新操作列表.

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
以上內(nèi)容是否對(duì)您有幫助:
在線(xiàn)筆記
App下載
App下載

掃描二維碼

下載編程獅App

公眾號(hào)
微信公眾號(hào)

編程獅公眾號(hào)