TensorFlow函數(shù):tf.layers.Conv3D

2018-08-09 11:28 更新

tf.layers.Conv3D函數(shù)

Conv3D類

定義在:tensorflow/python/layers/convolutional.py.

3D卷積層(例如,卷上的空間卷積).

該層創(chuàng)建卷積內(nèi)核,該卷積內(nèi)核與層輸入卷積混合(實(shí)際上是交叉相關(guān))以產(chǎn)生輸出張量.如果use_bias為True(并且提供了bias_initializer),則創(chuàng)建偏置向量并將其添加到輸出.最后,如果activation不是None,它也會(huì)應(yīng)用于輸出.

參數(shù):

  • filters:整數(shù),輸出空間的維數(shù)(即卷積中的濾波器數(shù)).
  • kernel_size:3個(gè)整數(shù)的整數(shù)或元組/列表,指定3D卷積窗口的深度,高度和寬度.可以是單個(gè)整數(shù),以指定所有空間維度的相同值.
  • strides:3個(gè)整數(shù)的整數(shù)或元組/列表,指定沿深度,高度和寬度的卷積的步幅.可以是單個(gè)整數(shù),以指定所有空間維度的相同值.指定任何步幅值!= 1與指定任何dilation_rate值!= 1都不相容.
  • padding:可以是一個(gè)"valid"或"same"(不區(qū)分大小寫).
  • data_format:一個(gè)字符串,可以是channels_last(默認(rèn))或channels_first,表示輸入中維度的順序;channels_last對(duì)應(yīng)于具有形狀(batch, depth, height, width, channels)的輸入,而channels_first對(duì)應(yīng)于具有形狀(batch, channels, depth, height, width)的輸入.
  • dilation_rate:3個(gè)整數(shù)的整數(shù)或元組/列表,指定用于擴(kuò)張卷積的擴(kuò)張率.可以是單個(gè)整數(shù),以指定所有空間維度的相同值.目前,指定任何dilation_rate值!= 1與指定任何步幅值!= 1都不相容.
  • activation:激活功能.將其設(shè)置為“None”以保持線性激活.
  • use_bias:Boolean,表示該層是否使用偏差.
  • kernel_initializer:卷積內(nèi)核的初始化程序.
  • bias_initializer:偏置向量的初始化器;如果為None,將使用默認(rèn)初始值設(shè)定項(xiàng).
  • kernel_regularizer:卷積內(nèi)核的可選正則化器.
  • bias_regularizer:偏置矢量的可選正則化器.
  • activity_regularizer:輸出的可選正則化函數(shù).
  • kernel_constraint:由Optimizer更新后應(yīng)用于內(nèi)核的可選投影函數(shù)(例如,用于實(shí)現(xiàn)層權(quán)重的范數(shù)約束或值約束).該函數(shù)必須將未投影的變量作為輸入,并且必須返回投影變量(必須具有相同的形狀).在進(jìn)行異步分布式訓(xùn)練時(shí),使用約束是不安全的.
  • bias_constraint:由Optimizer更新后應(yīng)用于偏差的可選投影函數(shù).
  • trainable:Boolean,如果為True,還將變量添加到圖集合GraphKeys.TRAINABLE_VARIABLES中.
  • name:字符串,圖層的名稱.

屬性

  • activity_regularizer

    可選的正則化函數(shù)用于該層的輸出.

  • dtype
  • graph
  • input
  • 檢索圖層的輸入張量.

    僅適用于圖層只有一個(gè)輸入的情況,即它是否連接到一個(gè)輸入圖層.

    返回:

    輸入張量或輸入張量列表.

    可能引發(fā)的異常:

    • AttributeError:如果圖層連接到多個(gè)輸入圖層.
    • RuntimeError:如果在Eager模式下調(diào)用.
    • AttributeError:如果未找到入站節(jié)點(diǎn).
  • input_shape

    檢索圖層的輸入形狀.

    僅適用于圖層只有一個(gè)輸入,即它是否連接到一個(gè)輸入層,或者所有輸入具有相同形狀的情況.

    返回:

    輸入形狀,作為整數(shù)形狀元組(或形狀元組列表,每個(gè)輸入張量一個(gè)元組).

    可能引發(fā)的異常:

    • AttributeError:如果圖層沒(méi)有定義的input_shape.
    • RuntimeError:如果在Eager模式下調(diào)用.
  • losses

    與此相關(guān)的損失Layer.

    請(qǐng)注意,在急切執(zhí)行時(shí),獲取此屬性將會(huì)計(jì)算正規(guī)則.使用圖形執(zhí)行時(shí),已經(jīng)創(chuàng)建了變量正則化運(yùn)算,并且只是在這里返回.

    返回:

    張量列表.

  • name
  • non_trainable_variables
  • non_trainable_weights
  • output

    檢索圖層的輸出張量.

    僅適用于圖層只有一個(gè)輸出,即它是否連接到一個(gè)輸入層.

    返回:

    輸出張量或輸出張量列表.

    可能引發(fā)的異常:

    • AttributeError:如果圖層連接到多個(gè)輸入圖層.
    • RuntimeError:如果在Eager模式下調(diào)用.
  • output_shape

    檢索圖層的輸出形狀.

    僅適用于圖層具有一個(gè)輸出,或者所有輸出具有相同形狀的情況.

    返回:

    輸出形狀,作為整數(shù)形狀元組(或形狀元組列表,每個(gè)輸出張量一個(gè)元組).

    可能引發(fā)的異常:

    • AttributeError:如果圖層沒(méi)有定義的輸出形狀.
    • RuntimeError:如果在Eager模式下調(diào)用.
  • scope_name
  • trainable_variables
  • trainable_weights
  • updates
  • variables

    返回所有圖層變量/權(quán)重的列表.

    返回:

    變量列表.

  • weights

    返回所有圖層變量/權(quán)重的列表.

    返回:

    變量列表.

方法

  • __init__
    __init__(
        filters,
        kernel_size,
        strides=(1, 1, 1),
        padding='valid',
        data_format='channels_last',
        dilation_rate=(1, 1, 1),
        activation=None,
        use_bias=True,
        kernel_initializer=None,
        bias_initializer=tf.zeros_initializer(),
        kernel_regularizer=None,
        bias_regularizer=None,
        activity_regularizer=None,
        kernel_constraint=None,
        bias_constraint=None,
        trainable=True,
        name=None,
        **kwargs
    )

    初始化自我.

  • __call__
    __call__(
        inputs,
        *args,
        **kwargs
    )

    包裝call,應(yīng)用預(yù)處理和后處理步驟.

    參數(shù):

    • inputs:輸入張量.
    • *args:要傳遞給self.call的其他位置參數(shù).
    • **kwargs:要傳遞給self.call的其他關(guān)鍵字參數(shù).注意:kwarg scope保留供圖層使用.

    返回:

    輸出張量.

    注意:- 如果圖層的call方法采用scope關(guān)鍵字參數(shù),則此參數(shù)將自動(dòng)設(shè)置為當(dāng)前變量范圍.- 如果圖層的call方法采用mask參數(shù)(如某些Keras圖層那樣),則其默認(rèn)值將設(shè)置為inputs前一層生成的蒙版(如果input確實(shí)來(lái)自生成相應(yīng)蒙版的圖層,即它是否來(lái)自具有掩蔽支持的Keras層).

    可能引發(fā)的異常:

    • ValueError:如果圖層的call方法返回None(無(wú)效值).
  • __deepcopy__
    __deepcopy__(memo)
  • add_loss
    add_loss(
        losses,
        inputs=None
    )

    添加損失張量,可能取決于圖層輸入.

    一些損失(例如,活動(dòng)正則化損失)可能取決于調(diào)用層時(shí)傳遞的輸入.因此,當(dāng)在不同的輸入a和b上重用同一層時(shí),在layer.losses中的一些條目可以取決于a并且另外的一部分取決于b.此方法自動(dòng)跟蹤依賴性.

    該get_losses_for方法允許檢索與特定輸入集相關(guān)的損失.

    請(qǐng)注意,急切執(zhí)行時(shí)不支持add_loss.相反,可以通過(guò)add_variable添加變量正則化器.不直接支持活動(dòng)正規(guī)化(但可以從Layer.call()中返回此類損失).

    參數(shù):

    • losses:損失張量,或張量/列表的張量.
    • inputs:如果傳遞了除None以外的任何內(nèi)容,則表示損失是以某些層的輸入為條件的,因此它們只應(yīng)在這些輸入可用的地方運(yùn)行.例如,活動(dòng)正規(guī)化損失就是這種情況.如果None通過(guò),則假定損失是無(wú)條件的,并且將應(yīng)用于層的所有數(shù)據(jù)流(例如,權(quán)重正則化損失).

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • add_update
    add_update(
        updates,
        inputs=None
    )

    添加更新操作,可能依賴于圖層輸入.

    權(quán)重更新(例如,BatchNormalization層中移動(dòng)均值和方差的更新)可能取決于調(diào)用圖層時(shí)傳遞的輸入.當(dāng)在不同的輸入a和b上重用同一層時(shí),在layer.updates中的一些條目可以取決于a并且另外的一部分取決于b.此方法自動(dòng)跟蹤依賴性.

    該get_updates_for方法允許檢索與特定輸入集相關(guān)的更新.

    在Eager模式下忽略此調(diào)用.

    參數(shù):

    • updates:更新操作,或更新操作的列表/元組.
    • inputs:如果傳遞了除None之外的任何內(nèi)容,則表示更新是以某些層的輸入為條件的,因此它們只應(yīng)在這些輸入可用的地方運(yùn)行.例如,BatchNormalization更新就是這種情況.如果為None,則無(wú)條件地考慮更新,并且您有責(zé)任確保它們可能具有的任何依賴性在運(yùn)行時(shí)可用.步數(shù)計(jì)數(shù)器可能屬于此類別.
  • add_variable
    add_variable(
        name,
        shape,
        dtype=None,
        initializer=None,
        regularizer=None,
        trainable=True,
        constraint=None,
        partitioner=None
    )

    向圖層添加新變量,或獲取現(xiàn)有變量;返回它.

    參數(shù):

    • name: 變量名.
    • shape:變形.
    • dtype:變量的類型.默認(rèn)為self.dtype或float32.
    • initializer:初始化程序?qū)嵗?可調(diào)用).
    • regularizer:regularrizer實(shí)例(可調(diào)用).
    • trainable:變量是否應(yīng)該是圖層的“trainable_variables”(例如,變量,偏差)或“non_trainable_variables”(例如BatchNorm mean,stddev)的一部分.注意,如果當(dāng)前變量范圍被標(biāo)記為不可訓(xùn)練,則忽略此參數(shù),并且任何添加的變量也標(biāo)記為不可訓(xùn)練.
    • constraint:約束實(shí)例(可調(diào)用).
    • partitioner:(可選)分區(qū)程序?qū)嵗?可調(diào)用).如果提供,則在創(chuàng)建請(qǐng)求的變量時(shí),它將根據(jù)partitioner分成多個(gè)分區(qū).在這種情況下,返回一個(gè)PartitionedVariable實(shí)例.可用的分區(qū)包括tf.fixed_size_partitioner和tf.variable_axis_size_partitioner.

    返回:

    創(chuàng)建的變量.通常是一個(gè)Variable或一個(gè)ResourceVariable實(shí)例.如果partitioner不是None,則返回PartitionedVariable實(shí)例.

    可能引發(fā)的異常:

    • RuntimeError:如果使用分區(qū)變量正則化調(diào)用并且啟用了急切執(zhí)行.
  • apply
    apply(
        inputs,
        *args,
        **kwargs
    )

    在輸入上應(yīng)用圖層.

    這只是包裝self.__call__.

    參數(shù):

    • inputs:輸入張量.
    • *args:要傳遞給self.call的其他位置參數(shù).
    • **kwargs:要傳遞給self.call的其他關(guān)鍵字參數(shù).

    返回:

    輸出張量.

  • build
    build(input_shape)

    創(chuàng)建圖層的變量.

  • call
    call(inputs)

    圖層的邏輯就在這里.

    參數(shù):

    • inputs:輸入張量.
    • **kwargs:其他關(guān)鍵字參數(shù).

    返回:

    輸出張量.

  • compute_output_shape
    compute_output_shape(input_shape)

    在給定輸入形狀的情況下計(jì)算圖層的輸出形狀.

    參數(shù):

    • input_shape:一個(gè)TensorShape(可能是嵌套的元組).它不需要完全定義(例如,批量大小可能是未知的).

    返回:

    一個(gè)TensorShape(可能是嵌套的元組).

    可能引發(fā)的異常:

    • TypeError:如果input_shape不是TensorShape(可能是嵌套的元組).
    • ValueError:如果input_shape不完整或與圖層不兼容.
  • count_params
    count_params()

    計(jì)算組成權(quán)重的標(biāo)量總數(shù).

    返回:

    整數(shù)計(jì)數(shù).

    可能引發(fā)的異常:

    • ValueError:如果尚未構(gòu)建圖層(在這種情況下,其權(quán)重尚未定義).
  • get_input_at
    get_input_at(node_index)

    檢索給定節(jié)點(diǎn)處的層的輸入張量.

    參數(shù):

    • node_index:Integer,從中檢索屬性的節(jié)點(diǎn)的索引.例如,node_index=0將對(duì)應(yīng)于第一次調(diào)用圖層.

    返回:

    張量(如果圖層有多個(gè)輸入,則為張量列表).

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • get_input_shape_at
    get_input_shape_at(node_index)

    檢索給定節(jié)點(diǎn)處的圖層的輸入形狀.

    參數(shù):

    • node_index:Integer,從中檢索屬性的節(jié)點(diǎn)的索引.例如,node_index=0將對(duì)應(yīng)于第一次調(diào)用圖層.

    返回:

    形狀元組(如果圖層有多個(gè)輸入,則為形狀元組??列表).

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • get_losses_for
    get_losses_for(inputs)

    檢索與特定輸入集相關(guān)的損失.

    參數(shù):

    • inputs:輸入張量或輸入張量的列表/元組.

    返回:

    依賴于inputs的層的損失張量列表.

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • get_output_at
    get_output_at(node_index)

    檢索給定節(jié)點(diǎn)處的圖層的輸出張量.

    參數(shù):

    • node_index:Integer,從中檢索屬性的節(jié)點(diǎn)的索引.例如,node_index=0將對(duì)應(yīng)于第一次調(diào)用圖層.

    返回:

    張量(如果圖層有多個(gè)輸出,則為張量列表).

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • get_output_shape_at
    get_output_shape_at(node_index)

    檢索給定節(jié)點(diǎn)處圖層的輸出形狀.

    參數(shù):

    • node_index:Integer,從中檢索屬性的節(jié)點(diǎn)的索引.例如,node_index=0將對(duì)應(yīng)于第一次調(diào)用圖層.

    返回:

    形狀元組(如果圖層具有多個(gè)輸出,則為形狀元組??列表).

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
  • get_updates_for
    get_updates_for(inputs)

    檢索與特定輸入集相關(guān)的更新.

    參數(shù):

    • inputs:輸入張量或輸入張量的列表/元組.

    返回:

    依賴于inputs的層的更新操作列表.

    可能引發(fā)的異常:

    • RuntimeError:如果在Eager模式下調(diào)用.
以上內(nèi)容是否對(duì)您有幫助:
在線筆記
App下載
App下載

掃描二維碼

下載編程獅App

公眾號(hào)
微信公眾號(hào)

編程獅公眾號(hào)